SE529156C2 - Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object - Google Patents

Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object

Info

Publication number
SE529156C2
SE529156C2 SE0502398A SE0502398A SE529156C2 SE 529156 C2 SE529156 C2 SE 529156C2 SE 0502398 A SE0502398 A SE 0502398A SE 0502398 A SE0502398 A SE 0502398A SE 529156 C2 SE529156 C2 SE 529156C2
Authority
SE
Sweden
Prior art keywords
screen
control object
control
processing module
window
Prior art date
Application number
SE0502398A
Other languages
Swedish (sv)
Other versions
SE0502398L (en
Inventor
Johan Bouvin
Per Runemo
Original Assignee
Tobii Technology Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobii Technology Ab filed Critical Tobii Technology Ab
Priority to SE0502398A priority Critical patent/SE529156C2/en
Priority to ES06844032T priority patent/ES2730217T3/en
Priority to PCT/SE2006/050411 priority patent/WO2007050029A2/en
Priority to CN2006800401797A priority patent/CN101297259B/en
Priority to US12/090,282 priority patent/US8120577B2/en
Priority to EP06844032.0A priority patent/EP1943583B1/en
Priority to JP2008537646A priority patent/JP4961432B2/en
Publication of SE0502398L publication Critical patent/SE0502398L/en
Publication of SE529156C2 publication Critical patent/SE529156C2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Abstract

A processing module investigates whether movement sequence of a point of regard (130) fulfills an activation criterion with respect to zone for commands. A data-manipulation window (220a) for visually confirming entered command is presented at a position relative to active control object (220A) such that center of window is located within small offset distance from center of the control object, if activation criterion is fulfilled. A graphics symbolizing activity portion (210) of display in window is updated in response to eye-tracker control entry of control commands. Independent claims are included for the following: (1) method of controlling computer apparatus; (2) computer apparatus controlling program; and (3) computer readable medium storing computer apparatus controlling program.

Description

20 25 30 35 529 156 2 organ. Detta kan leda till trötthetssymptom och ett av använda- ren upplevt obehag. Ett annat problem är att användaren, som kanske är en handikappad person, kan ha problem med att styra sin blick med tillräcklig noggrannhet för att styra datorn på öns- kat sätt. Naturligtvis understryks detta problem speciellt om de ögonstyrbara skärmobjekten är små. Dessutom kan ofullkomlig- heter i ögonföljningsutrustningen introducera mätfel med avse- ende pà en uppskattad blickpunkt pà skärmen. l syfte att för- bättra människa-maskingränssnittet föreslår US patent nr 6,152,563 att s.k. kollapsande symboler presenteras över valda fönsterobjekt i syfte att visuellt bekräfta val av objektet under en period före eventuell manipulering. Därmed kan användaren avbryta felaktiga val innan manipuleringen med avseende på objektet verkställs. Dokumentet föreslår även användning av zoomfönster för att förbättra precisionen hos användarens blick- fixeringar på vissa skärmobjekt. 20 25 30 35 529 156 2 organ. This can lead to fatigue symptoms and a discomfort experienced by the user. Another problem is that the user, who may be a disabled person, may have trouble controlling his gaze with sufficient accuracy to control the computer in the desired way. Of course, this problem is especially emphasized if the eye-steerable screen objects are small. In addition, imperfections in the eye tracking equipment may introduce measurement errors regarding an estimated point of view on the screen. In order to improve the human-machine interface, U.S. Patent No. 6,152,563 proposes that the so-called collapsing symbols are presented over selected window objects in order to visually confirm the selection of the object for a period before any manipulation. This allows the user to cancel incorrect selections before performing the manipulation with respect to the object. The document also suggests the use of zoom windows to improve the precision of the user's gaze fixations on certain screen objects.

Det är emellertid inte bara svårt att uppskatta användarens blickpunkt på ett adekvat sätt. Ett annat dilemma vid ögonfölj- ning är att det kan vara problematiskt för användaren att åstad- komma val av ett skärmobjekt. Att uttrycka användarens avsikter för datorn via ett ögonstyrt gränssnitt kan vara svårt av många skäl. En viktig aspekt är det faktum att ögonen är konstruerade för perception, inte för motoriska uppgifter, och att blicken därför rör sig över skärmen även då användaren inte är intresserad av att alstra några styrkommandon. En uppehällstid, det vill säga tiden under vilken användaren fixerar sin blick på ett objekt på skärmen, kan användas för att uttrycka användarens avsikt att manipulera vissa objekt. En nackdel med detta angreppssätt är att interaktionsprocessen blir relativt långsam, och riskerar att irritera användaren. Bekräftelsekommandon i form av blinknin- gar kan snabba upp processen väsentligt. Mänskliga blinkningar är emellertid ofta oavsiktliga, varför användaren skulle kunna alstra åtskilliga oönskade styrkommandon. Naturligtvis erbjuder en fysisk knapp, eller tangent, ett betydligt mer tillförlitligt bek- räftelsemedel. Icke desto mindre är kanske detta alternativt inte 10 15 20 25 30 35 529 156 öppet för användaren, som kanske är inkapabel att manipulera sådana knappar/tangenter. Bekräftelse via röstigenkännings- gränssnitt utgör ännu ett alternativ, vilket är mindre tillförlitligt, och kanske inte heller är ett rimligt val för användaren på grund av fysiska handikapp, eller faktorer i miljön i vilken systemet används, såsom oljud.However, it is not only difficult to estimate the user's point of view adequately. Another dilemma in eye tracking is that it can be problematic for the user to select a screen object. Expressing the user's intentions for the computer via an eye-guided interface can be difficult for many reasons. An important aspect is the fact that the eyes are designed for perception, not for motor tasks, and that the gaze therefore moves across the screen even when the user is not interested in generating any control commands. A dwell time, that is, the time during which the user fixes his gaze on an object on the screen, can be used to express the user's intention to manipulate certain objects. A disadvantage of this approach is that the interaction process becomes relatively slow, and risks irritating the user. Confirmation commands in the form of flashes can speed up the process significantly. However, human winks are often unintentional, so the user could generate numerous unwanted control commands. Of course, a physical key, or key, offers a much more reliable means of confirmation. Nevertheless, this may not be open to the user, who may be incapable of manipulating such buttons / keys. Acknowledgment via voice recognition interface is another option, which is less reliable, and may not be a reasonable choice for the user due to physical disabilities, or factors in the environment in which the system is used, such as noise.

Mänskliga blickmönster inkluderar så kallade sackader, vilka representerar snabba rörelser av blacken från en punkt till en annan. Dessa rörelser är nästan aldrig ofrivilliga, förutom hos nystagmuspatienter. Att använda sackader för inmatning av data eller kommandon via ett ögonstyrbart inmatningsgränssnitt är emellertid problematiskt av andra skäl. Om en sackad aktiverar en funktion med avseende på ett visst skärmobjekt resulterar nämligen sackaden i sig typiskt sett i att användaren inte längre observerar detta objekt, åtminstone inte direkt. Följaktligen blir ytterligare ögonstyrd manipulering mycket svår, om över huvud taget möjlig. Åter är detta ett problem relaterat till kombinerade motoriska och perceptiva uppgifter orsakade av det ögonstyrba- ra inmatningsgränssnittet.Human gaze patterns include so-called saccades, which represent rapid movements of the black from one point to another. These movements are almost never involuntary, except in nystagmus patients. However, using sacks to enter data or commands via an eye-steerable input interface is problematic for other reasons. Namely, if a sack activates a function with respect to a certain screen object, the sack itself typically results in the user no longer observing this object, at least not directly. Consequently, further eye-guided manipulation becomes very difficult, if at all possible. Again, this is a problem related to combined motor and perceptual tasks caused by the eye-controllable input interface.

Markörsymbolen är generellt sett ett viktigt objekt att styra vid interaktion med en dator. Detta är dock inte heller helt enkelt.The cursor symbol is generally an important object to control when interacting with a computer. However, this is not simple either.

Den mest högupplösta delen av näthinnan, maculan (eller gula fläcken), har en diameter motsvarande en grads bildvinkel.The most high-resolution part of the retina, the macula (or macula), has a diameter corresponding to one degree of image angle.

Därför behöver en människa aldrig rikta sin blick med högre precision än vad som ges av detta mått, det vill säga inom en grad. Således kan ändå inte en perfekt matchning mellan använ- darens blick och en markörsymbol på skärmen inte åstadkom- mas, oavsett hur hög noggrannhet ögonföljaren har. Istället måste en markörsymbol som styrs direkt som svar på en upp- skattad blickpunkt med nödvändighet introducera artefakter, vilka upplevs som fel av en mänsklig användare. Icke desto mindre beskriver US-patent nr 6,637,883 ett ögonföljningssys- tem för visning av en videoskärmspekare vid en användares blickpunkt. För en förbättrad precision är här en kamera, som registrerar användarens ögonrörelser placerad i en av använda- 10 15 20 25 30 529 156 4 ren buren glasögonram. Givetvis resulterar detta i särskilda problem, bl.a. beträffande till tillpassning och komfort. istället för att styra markörsymbolen som ett direkt svar på den uppskattade blickpunkten är normalt sett en relativ markörstyr- ning föredragen, det vill säga lösningar där markören bringas att röra sig indirekt genom manipulering av vissa styrorgan på skär- men för varje riktning upp/ner och höger/vänster. Vid placering av blickpunkten på ett sådant styrorgan kan emellertid använ- daren inte längre se markörsymbolen som ska styras.Therefore, a person never needs to direct his gaze with higher precision than that given by this measure, that is, within a degree. Thus, a perfect match between the user's gaze and a cursor symbol on the screen cannot be achieved, no matter how high the accuracy of the eye follower. Instead, a cursor symbol that is controlled directly in response to an estimated point of view must necessarily introduce artifacts, which are perceived as faulty by a human user. Nevertheless, U.S. Patent No. 6,637,883 discloses an eye tracking system for displaying a video screen pointer at a user's point of view. For improved precision, here is a camera which registers the user's eye movements placed in one of the user's purely worn spectacle frames. Of course, this results in special problems, e.g. in terms of fit and comfort. instead of controlling the cursor symbol as a direct response to the estimated point of view, relative cursor control is normally preferred, i.e. solutions where the cursor is caused to move indirectly by manipulating certain controls on the screen for each up / down direction and right left. When placing the gaze point on such a control member, however, the user can no longer see the cursor symbol to be controlled.

US-patent nr 6,204,828 redogör för ett integrerat blick-/manuellt markörpositioneringssystem, vilket hjälper en operatör att posi- tionera en markör genom integrering av en blicksignal och en manuell inmatning. När en mekanisk aktivering av en opera- törsanordning detekteras placeras markören vid en initial posi- tion som är förutbestämd i förhållande till operatörens nuvaran- de blickarea. Därmed åstadkoms en användarvänlig markörfunk- tion, men inga markörbaserade styrkommandon matas in till da- torn baserat på blicksignalen.U.S. Patent No. 6,204,828 discloses an integrated gaze / manual cursor positioning system which assists an operator in positioning a cursor by integrating a gaze signal and a manual input. When a mechanical activation of an operator device is detected, the cursor is placed at an initial position that is predetermined in relation to the operator's current gaze area. This provides a user-friendly cursor function, but no cursor-based control commands are input to the computer based on the gaze signal.

SAMMANFATTNING AV UPPFlNNlNGEN Syftet med föreliggande uppfinning är därför att tillhandahålla en effektiv, tillförlitlig och användarvänlig ögonföljarlösning, vilken underlättar problemen ovan och såldes möjliggör en adekvat informationsåterkoppling till användaren utan att göra avkall på användarens möjligheter att styra händelserna på skärmen.SUMMARY OF THE INVENTION The object of the present invention is therefore to provide an efficient, reliable and user-friendly eye-tracking solution, which alleviates the above problems and enables an adequate information feedback to the user without sacrificing the user's ability to control the events on the screen.

Enligt en aspekt av uppfinningen uppnås syftet genom det inled- ningsvis beskrivna systemet, varvid bearbetningsmodulen är an- passad att undersöka huruvida rörelsesekvensen hos blickpunk- ten uppfyller ett aktiveringskriterium med avseende på en akti- veringszon för något av åtminstone ett styrkommando. Om bear- betningsmodulen finner att ett sådant kriterium är uppfyllt pre- senterar modulen ett datamanipuleringsfönster vid en position relativt ett aktivt styrobjekt på skärmen, så att en mittpunkt hos 10 15 20 25 30 529 156 5 fönstret befinner sig inom ett relativt lite förskjutningsavstånd från en mittpunkt hos det aktiva styrobjektet. Exempelvis kan datamanipuleringsfönstret presenteras i det aktiva styrobjektet på skärmen. En fönsterposition omedelbart bredvid, eller delvis överlappande, det aktiva styrobjektet är emellertid lika tänkbar.According to one aspect of the invention, the object is achieved by the system initially described, wherein the processing module is adapted to examine whether the motion sequence of the gaze point meets an activation criterion with respect to an activation zone for any of at least one control command. If the processing module finds that such a criterion is met, the module presents a data manipulation window at a position relative to an active control object on the screen, so that a center point of the window is within a relatively small displacement distance from a center of the active control object. For example, the data manipulation window may be presented in the active control object on the screen. However, a window position immediately adjacent to, or partially overlapping, the active control object is equally conceivable.

Fönstret ska åtminstone vara placerat så att användaren aktivt kan observera både det aktiva styrobjektet och datamanipule- ringsobjektet samtidigt. Datamanipuleringsobjektet inkluderar grafisk information som symboliserar en aktivitetsdel skärmen vilken för närvarande är föremål för ögonföljningsstyrd inmatning av styrkommandon. Bearbetningsmodulen är även anpassad att repeterat uppdatera informationen i data datamanipulerings- fönstret som svar på den ögonstyrningsstyrda inmatningen av styrkommandon.The window must at least be positioned so that the user can actively observe both the active control object and the data manipulation object at the same time. The data manipulation object includes graphical information that symbolizes an activity part of the screen which is currently subject to eye-tracking input of control commands. The processing module is also adapted to repeatedly update the information in the data data manipulation window in response to the eye control controlled entry of control commands.

En viktig fördel med detta system är att användaren erhåller adekvat information beträffande manipuleringsobjektet under det att han/hon koncentrerar sin blick på styrobjektet. Detta borgar för en effektiv och komfortabel människa-maskininteraktion.An important advantage of this system is that the user obtains adequate information regarding the manipulation object while concentrating his / her gaze on the control object. This ensures an efficient and comfortable human-machine interaction.

Enligt en föredragen utföringsform av den här aspekten av upp- finningen är bearbetningsmodulen anpassad att bestämma det aktiva styrobjektet baserat på rörelsesekvensen hos blickpunk- ten i förhållande till aktiveringszonen, exempelvis på basis av en fixering och ett mjukföljningsspår. Företrädesvis anger dock en registrerad första sackad hos blickpunkten från aktiveringszonen det aktiva styrobjektet. Därmed identifieras det aktiva styrob- jektet på ett mycket intuitivt och användarvänligt sätt.According to a preferred embodiment of this aspect of the invention, the processing module is adapted to determine the active control object based on the movement sequence of the gaze point in relation to the activation zone, for example on the basis of a fixation and a soft tracking track. Preferably, however, a registered first sag of the gaze point from the activation zone indicates the active control object. This identifies the active control object in a very intuitive and user-friendly way.

Enligt en annan föredragen utföringsform av den här aspekten av uppfinningen uttrycker det åtminstone ett styrkommandot en navigeringsriktning för en markörsymbol med avseende på skärmen, en rotering av åtminstone en skärmobjektsrepresenta- tion av åtminstone en grafisk användargränssnittskomponent (GUI-komponent) på skärmen, en färgförändring av åtminstone en skärmobjektsrepresentation av åtminstone en grafisk GUI- komponent på skärmen och/eller en texturmodifiering av åtmin- 10 15 20 25 30 529 156 stone en skärmobjektsrepresentation av åtminstone en grafisk GUI-komponent på skärmen. Således erbjuds en stor frihet vad gäller den manipulation som möjliggörs via det föreslagna gränssnittet.According to another preferred embodiment of this aspect of the invention, the at least one control command expresses a navigation direction of a cursor symbol with respect to the screen, a rotation of at least one screen object representation of at least one graphical user interface component (GUI component) on the screen, a color change of the screen at least one screen object representation of at least one graphical GUI component on the screen and / or a texture modification of at least one screen object representation of at least one graphical GUI component on the screen. Thus, a great deal of freedom is offered in terms of the manipulation made possible via the proposed interface.

Enligt ännu en annan föredragen utföringsform av den här as- pekten av uppfinningen antas styrkommandot specifikt uttrycka en navigeringsriktning för en markörsymbol med avseende på skärmen. Här är bearbetningsmodulen anpassad att urskilja en navigeringsriktning ur den första sackaden relativt aktiverings- zonen och förflytta markörsymbolen enligt denna navigerings- riktning. Detta har visat sig erbjuda en högeligen effektiv relativ markörstyrningsfunktion.According to yet another preferred embodiment of this aspect of the invention, the control command is assumed to specifically express a navigation direction for a cursor symbol with respect to the screen. Here, the processing module is adapted to distinguish a navigation direction from the first sacked relative to the activation zone and move the cursor symbol according to this navigation direction. This has been shown to offer a highly efficient relative cursor control function.

Enligt en vidare föredragen utföringsform av den här aspekten av uppfinningen är bearbetningsmodulen anpassad att presen- tera en uppsättning styrobjekt på skärmen, där varje styrobjekt i uppsättningen är anpassat att indikera en respektive navige- ringsriktning för markörsymbolen i förhållande till en informa- tionsarea. Exempelvis kan ett första styrobjekt vara anpassat att indikera en markörsymbolrörelse åt höger, ett andra styrobjekt vara anpassat att indikera en markörsymbolrörelse nedåt, och så vidare. Därmed presenteras ett robust och tillförlitligt styr- gränssnitt för användaren.According to a further preferred embodiment of this aspect of the invention, the processing module is adapted to present a set of control objects on the screen, where each control object in the set is adapted to indicate a respective navigation direction for the cursor symbol in relation to an information area. For example, a first control object may be adapted to indicate a cursor symbol movement to the right, a second control object may be adapted to indicate a cursor symbol movement downwards, and so on. This presents a robust and reliable control interface for the user.

Enligt en första föredragen utföringsform av den här aspekten av uppfinningen är bearbetningsmodulen anpassad att presentera en uppsättningen styrobjekt på skärmen på ett sådant sätt att nämnda uppsättning rör sig gradvis över skärmen i enlighet med navigeringsriktningen. Dessutom är bearbetningsmodulen an- passad att förflytta markören över skärmen i enlighet med na- vigeringsriktningen. Denna ögonföljningsbaserade markörsym- bolstyrning är allmänt fördelaktig då en största möjliga aktiv skärmyta eftersträvas.According to a first preferred embodiment of this aspect of the invention, the processing module is adapted to present a set of control objects on the screen in such a way that said set moves gradually across the screen in accordance with the direction of navigation. In addition, the processing module is adapted to move the cursor across the screen in accordance with the direction of navigation. This eye tracking-based cursor symbol control is generally advantageous when the largest possible active screen area is sought.

Enligt en andra föredragen utföringsform av den här aspekten av uppfinningen är bearbetningsmodulen istället anpassad att pre- 10 15 20 25 30 529 156 7 sentera en uppsättningen styrobjekt vid fixerade positioner på skärmen. Även här är emellertid bearbetningsmodulen anpassad att förflytta markörsymbolen över skärmen i enlighet med navi- geringsriktningen. Detta erbjuder ett alternativt ögonstyrbart or- gan för användaren att påverka markörsymbolens position under det att han/hon har möjlighet att visuellt registrera denna för- flyttning, vilket är önskvärt vid tillämpningar varvid inte hela skärmytan efterfrågas för nyttodata.According to a second preferred embodiment of this aspect of the invention, the processing module is instead adapted to present a set of control objects at fixed positions on the screen. Here too, however, the processing module is adapted to move the cursor symbol across the screen in accordance with the navigation direction. This offers an alternative eye-controllable means for the user to influence the position of the cursor symbol while he / she has the opportunity to visually register this movement, which is desirable in applications where the entire screen area is not requested for utility data.

Enligt en annan föredragen utföringsform av den här aspekten av uppfinningen antas en informationsarea på skärmen pre- sentera redigerbara symboler, exempelvis representerande text.According to another preferred embodiment of this aspect of the invention, an information area on the screen is assumed to present editable symbols, for example representing text.

Bearbetningsmodulen är här anpassad att bestämma åtminstone en tillagd symbol baserat på en rörelsesekvens hos blickpunkten över ett antal skärmobjekt visuellt representerande GUl-kompo- nenter av ett mjukvarutangentbord presenterat på skärmen. Be- arbetningsmodulen är vidare anpassad att lägga till åtminstone en tillagd symbol till symbolerna i informationsarean. Därigenom kan användaren effektivt mata in text till datorapparaten.The processing module is here adapted to determine at least one added symbol based on a motion sequence of the point of view over a number of screen objects visually representing GU1 components of a software keyboard presented on the screen. The processing module is further adapted to add at least one added symbol to the symbols in the information area. This allows the user to efficiently enter text into the computer.

Enligt ytterligare en annan föredragen utföringsform av den här aspekten av uppfinningen är bearbetningsmodulen anpassad att undersöka huruvida blickpunkten uppfyller ett aktiverings- kriterium med avseende på ett aktivt styrobjekt representerande en raderingsknapp. Om ett sådant kriterium befinns vara uppfyllt är bearbetningsmodulen anpassad att radera en underuppsätt- ning av symboler, där underuppsättningen innefattar åtminstone en av de redigerbara symbolerna. Därmed kan användaren också på ett bekvämt sätt redigera en redan existerande text som finns lagrad i datorapparaten.According to yet another preferred embodiment of this aspect of the invention, the processing module is adapted to examine whether the eye point meets an activation criterion with respect to an active control object representing an erase button. If such a criterion is found to be met, the processing module is adapted to delete a subset of symbols, the subset comprising at least one of the editable symbols. Thus, the user can also conveniently edit an existing text stored in the computer.

Enligt ännu en annan föredragen utföringsform av den här aspekten av uppfinningen innefattar uppsättningen styrobjekt ett enstaka styrobjekt. Här är bearbetningsmodulen anpassad att bestämma en màlplacering för en första sackad utanför aktive- ringszonen. Bearbetningsmodulen är anpassad att presentera det enstaka styrobjektet vid målplaceringen. Det enstaka styr- 10 15 20 25 30 529 156 8 objektet inkluderar åter datamanipuleringsfönstret. I analogi med ovanstående är bearbetningsmodulen anpassad att förflytta mar- körsymbolen över skärmen i enlighet med en navigeringsriktning uttryckt av den första sackaden. Denna konstruktion är önskvärd eftersom den medger att användaren åstadkommer den önskade markörnavigeringsriktningen utan att användaren behöver flytta sin blickpunkt efter den första sackaden. Dessutom kan na- vigeringsriktningen väljas fritt.According to yet another preferred embodiment of this aspect of the invention, the set of control objects comprises a single control object. Here, the machining module is adapted to determine a target location for a first sacked outside the activation zone. The processing module is adapted to present the single control object at the target location. The single control object again includes the data manipulation window. In analogy to the above, the processing module is adapted to move the cursor symbol across the screen in accordance with a navigation direction expressed by the first sack. This construction is desirable because it allows the user to achieve the desired cursor navigation direction without the user having to move his gaze point after the first sack. In addition, the navigation direction can be chosen freely.

Enligt en vidare föredragen utföringsform av den här aspekten av uppfinningen är bearbetningsmodulen anpassad att undersö- ka huruvida blickpunkten uppfyller ett deaktiveringskriterium med avseende på styrobjektet objekt. Om bearbetningsmodulen finner att ett sådant kriterium är uppfyllt är modulen anpassad att deaktivera det aktiva styrobjektet. Typiskt sett är detta deaktive- ringskriterium ekvivalent med en fullbordad manipulering och/ eller att en annan manipulering efterfrågas.According to a further preferred embodiment of this aspect of the invention, the processing module is adapted to examine whether the eye point meets a deactivation criterion with respect to the control object object. If the processing module finds that such a criterion is met, the module is adapted to deactivate the active control object. Typically, this deactivation criterion is equivalent to a completed manipulation and / or that another manipulation is requested.

Enligt en annan aspekt av uppfinningen uppnås syftet genom den inledningsvis beskrivna metoden, varvid det undersöks hu- ruvida rörelsesekvensen hos blickpunkten uppfyller ett aktive- ringskriterium med avseende på en aktiveringszon för åtmins- tone ett styrkommando. Om ett sådant aktiveringskriterium be- finns vara uppfyllt, inbegriper metoden presentering av ett data- manipuleringsfönster vid en position relativt ett aktivt styrobjekt på skärmen så att en mittpunkt hos fönstret befinner sig inom ett relativt litet förskjutningsavstånd från en mittpunkt hos det aktiva styrobjektet. Detta fönster innefattar i sin tur grafisk information som symboliserar en aktivitetsdel av skärmen vilken för närva- rande är föremål för ögonstyrningsinmatning av styrkommandon.According to another aspect of the invention, the object is achieved by the method initially described, in which it is examined whether the movement sequence of the eye point meets an activation criterion with respect to an activation zone for at least one control command. If such an activation criterion is found to be met, the method involves presenting a data manipulation window at a position relative to an active control object on the screen so that a center point of the window is within a relatively small displacement distance from a center point of the active control object. This window in turn includes graphic information which symbolizes an activity part of the screen which is currently subject to eye control input of control commands.

Dessutom inbegriper metoden upprepad uppdatering av in- formationen i datamanipuleringsfönstret som svar på den ögon- styrda inmatningen av styrkommandon.In addition, the method involves repeatedly updating the information in the data manipulation window in response to the eye-controlled input of control commands.

Fördelarna med den här metoden så väl som de föredragna utfö- ringsformerna därav framgår av diskussionen ovan med hänvis- ning till det föreslagna systemet. 10 15 20 25 529 156 9 Enligt ytterligare en aspekt av uppfinningen uppnås syftet genom ett datorprogram, vilket är direkt laddbart till internminnet i en dator, där programmet inkluderar mjukvara för att styra den ovan föreslagna metoden då programmet körs på en dator.The advantages of this method as well as the preferred embodiments thereof appear from the discussion above with reference to the proposed system. According to a further aspect of the invention, the object is achieved by a computer program, which is directly loadable to the internal memory of a computer, the program including software for controlling the method proposed above when the program is run on a computer.

Enligt en annan aspekt av uppfinningen uppnås syftet genom ett datorläsbart medium med ett därpå lagrat program, där programmet är ägnat att förmå en dator att styra den ovan föreslagna metoden Ytterligare fördelar, fördelaktiga särdrag och tillämpningar av fö- religgande uppfinning kommer att framgå av följande beskriv- ning och de beroende patentkraven.According to another aspect of the invention, the object is achieved by a computer-readable medium having a program stored thereon, the program being adapted to cause a computer to control the method proposed above. Additional advantages, advantageous features and applications of the present invention will become apparent from the following description. and the dependent claims.

KORT BESKRIVNING AV RITNINGARNA Uppfinningen kommer nu att förklaras närmare med hjälp av föredragna utföringsformer, vilka beskrivs som exempel, och med hänvisning till de bifogade ritningarna.BRIEF DESCRIPTION OF THE DRAWINGS The invention will now be explained in more detail by means of preferred embodiments, which are described by way of example, and with reference to the accompanying drawings.

Figur 1 visar en schematisk bild av ett ögonföljnings- system enligt en utföringsform av uppfinningen; Figur 2a-b visar en första användning av en första uppsätt- ning styrobjekt enligt en utföringsform av uppfin- ningen; Figur 3 visar en andra användning av den första uppsätt- ningen styrobjekt visade i Figur 2a-b; Figur 4 illustrerar en användning av en andra uppsättning styrobjekt enligt en utföringsform av uppfinningen; Figur 5 illustrerar en användning av en tredje typ av styr- objekt enligt en utföringsform av uppfinningen; Figur 6 visar ett skärmobjekt som implementerar ett mjuk- varutangentbord, vilket är styrbart som svar till en rörelsesekvens hos en användares blickpunkt en- 10 15 20 25 30 529 156 10 ligt en utföringsform av uppfinningen; Figur 7 illustrerar hur ett grafiskt objekt kan roteras me- delst styrobjekt enligt en utföringsform av uppfin- ningen; illustrerar hur färgen hos ett grafiskt objekt kan modifieras medelst styrobjekt enligt en utförings- form av uppfinningen; och Figur 8 Figur9 illustrerar, med hjälp av ett flödesschema, en allmän metod enligt uppfinningen.Figure 1 shows a schematic view of an eye tracking system according to an embodiment of the invention; Figures 2a-b show a first use of a first set of control objects according to an embodiment of the invention; Figure 3 shows a second use of the first set of control objects shown in Figure 2a-b; Figure 4 illustrates a use of a second set of control objects according to an embodiment of the invention; Figure 5 illustrates a use of a third type of control object according to an embodiment of the invention; Figure 6 shows a display object implementing a software keyboard, which is controllable in response to a sequence of movements of a user's point of view according to an embodiment of the invention; Figure 7 illustrates how a graphic object can be rotated by means of a control object according to an embodiment of the invention; illustrates how the color of a graphic object can be modified by means of control objects according to an embodiment of the invention; and Figure 8 Figure 9 illustrates, by means of a flow chart, a general method according to the invention.

BESKRIVNING AV FÖREDRAGNA UTFÖRINGSFORMER AV UPPFINNINGEN Vi hänvisar inledningsvis till figur 1, som visar en schematisk bild av ett ögonföljningssystem enligt en utföringsform av uppfin- ningen. Systemet inkluderar en datorapparat 140 och en därtill ansluten skärm 150. Det förutsätts att datorapparaten 140 pre- senterar åtminstone en skärmrepresentation av åtminstone en GUI-komponent på skärmen 150, varvid den åtminstone en GUI- komponenten är styrbar som svar på kommandon från ett ögon- följningsorgan. Ögonföljningsorganet inkluderar ett avbildningsorgan 160, ex- empelvis inkluderande en videokamera. Företrädesvis inkluderar även ögonföljningsorganet en eller flera ljuskällor, exempelvis en första uppsättning ljuskällor 170 befintliga relativt nära en optisk axel hos avbildningsorganet 160, och en andra uppsätt- ning ljuskällor 181 och 182 befintliga relativt lång ifrån avbild- ningsorganets 160 optiska axel. Därmed möjliggörs såväl ljuspu- pillsföljning (BP = Bright Pupil; PCCR-tracking) som mörkpupills- följning (DP = Dark Pupil; PCCR-tracking) av en användares 100 ögon 101 och 102. l vilket fall som helst är ögonföljningsorganet anpassat att upprepat bestämma användarens 100 blickpunkt 130 på skärmen 150. 10 15 20 25 30 529 156 11 Ögonföljningsorganet är vidare anpassat att mata in styrkom- mandon till datorapparaten 140 som svar på rörelsesekvenser hos blickpunkten 130 över skärmen 150. I detta syfte kan ögon- följningsorganet inkludera en bearbetningsmodul 145, som är anpassad att emotta ögonföljningsdata DV och därur extrahera styrkommandona. Bearbetningsmodulen 145 är dessutom an- passad att alstra grafisk återkopplingsinformation DFB för pre- sentation på skärmen 150 för att visuellt bekräfta eventuellt in- matade styrkommandon.DESCRIPTION OF PREFERRED EMBODIMENTS OF THE INVENTION We first refer to Figure 1, which shows a schematic view of an eye tracking system according to an embodiment of the invention. The system includes a computer apparatus 140 and an associated screen 150. It is assumed that the computer apparatus 140 presents at least one screen representation of at least one GUI component on the screen 150, the at least one GUI component being controllable in response to commands from an eye. follow-up bodies. The eye tracking means includes an imaging means 160, for example including a video camera. Preferably, the eye tracking means also includes one or more light sources, for example a first set of light sources 170 located relatively close to an optical axis of the imaging means 160, and a second set of light sources 181 and 182 located relatively far from the optical axis of the imaging means 160. This enables both light pupil tracking (BP = Bright Pupil; PCCR tracking) and dark pupil tracking (DP = Dark Pupil; PCCR tracking) of a user's 100 eyes 101 and 102. In any case, the eye tracking means is adapted to repeatedly determine the eye tracking point 130 of the user 100 on the screen 150. The eye tracking means is further adapted to input control commands to the computer apparatus 140 in response to motion sequences of the eye point 130 across the screen 150. To this end, the eye tracking means may include a processing module. 145, which is adapted to receive eye tracking data DV and extract the control commands therefrom. The processing module 145 is further adapted to generate graphical feedback information DFB for presentation on the screen 150 to visually confirm any input control commands.

Enligt uppfinningen är bearbetningsmodulen 145 vidare anpas- sad förorsaka att ett datamanipuleringsfönster presenteras på skärmen 150. Detta fönster inkluderar grafisk information, vilken symboliserar en del av skärmen 150 som innehåller objekt base- rat på vilka styrkommandon matas in till datorapparaten 140.According to the invention, the processing module 145 is further adapted to cause a data manipulation window to be presented on the screen 150. This window includes graphical information, which symbolizes a part of the screen 150 containing objects based on which control commands are input to the computer 140.

Detta innebär att datamanipuleringsfönstret antingen inkluderar dubblettinformation av det grafiska datat inom aktivitetsdelen 210, en ikon som schematiskt representerar dessa data, eller någon annan slags otvetydig bild av datat. Detaljerna rörande presentations- och styrningsproceduren kommer att diskuteras i detalj nedan med hänvisning till figurerna 2 till 9.This means that the data manipulation window either includes duplicate information of the graphic data within the activity part 210, an icon which schematically represents this data, or some other kind of unambiguous image of the data. The details of the presentation and control procedure will be discussed in detail below with reference to Figures 2 to 9.

Figur 2a visar en del 200 av en bildyta hos skärmen 150 i figur 1. Skärmdelen 200 innehåller en uppsättning styrobjekt 220A, 2208, 220C och 220D, vilka är anpassade att presentera ett res- pektive datamanipuleringsfönster 220a, 220b, 220c och 220d.Figure 2a shows a part 200 of an image surface of the screen 150 in figure 1. The screen part 200 contains a set of control objects 220A, 2208, 220C and 220D, which are adapted to present a respective data manipulation window 220a, 220b, 220c and 220d.

Företrädesvis är varje objekt i uppsättningen anpassat att in- dikera en respektive navigeringsriktning för en markörsymbol i förhållande till en informationsarea på skärmen 150, exempelvis åt höger, nedåt, åt vänster respektive uppåt. Företrädesvis pre- senterar emellertid inte mer än ett styrobjekt åt gången ett sådant datamanipuleringsfönster, och innan någon ögonstyr- ningsbaserad inmatning av styrkommandon har påbörjats visas företrädes inte något datamanipuleringsfönster alls. l alla händelser centreras uppsättningen styrobjekt 220A, 220B, 220D och 220D kring en punkt 221 i en så kallad aktivitetsdel 10 15 20 25 30 529 156 12 210. Aktivitetsdelen 210 är en area av skärmen 150 som inne- håller ett eller flera grafiska element med avseende på vilka ögonföljningsalstrade styrkommandon alstras och matas in till datorapparaten 140. Aktivitetsdelen 210 är således centrerad kring ett skärmobjekt med avseende på vilket styrkommandon kan matas in till datorapparaten 140.Preferably, each object in the set is adapted to indicate a respective navigation direction for a cursor symbol in relation to an information area on the screen 150, for example to the right, downwards, to the left and upwards, respectively. Preferably, however, no more than one control object at a time presents such a data manipulation window, and before any eye control-based entry of control commands has begun, no data manipulation window is displayed at all. In all cases, the set of control objects 220A, 220B, 220D and 220D is centered around a point 221 in a so-called activity part 10 15 20 25 30 529 156 12 210. The activity part 210 is an area of the screen 150 which contains one or more graphic elements with with respect to which eye-tracking generated command commands are generated and input to the computer apparatus 140. The activity part 210 is thus centered around a screen object with respect to which control commands can be input to the computer apparatus 140.

Med hänvisning till figur 2 kommer vi nu att förklara hur aktivitetsdelen 210 väljs ut enligt en föredragen utföringsform av uppfinningen för att styra en markörsymbol 231 över skärmens bildyta. Figuren 2b visar en uppsättning styrobjekt 220A, 220B, 220C och 220D överlagrade en informationsarea 240 innehål- lande redigerbar text. Bearbetningsmodulen 145 är anpassad att undersöka huruvida blickpunkten 130 uppfyller ett aktivitetskrite- rium. Detta kriterium avser här markörsymbolen 231 och dess önskade rörelse. Aktivitetskriteriet anses specifikt uppfyllt om blickpunkten 130 har befunnit sig inom en aktivitetszon 210 runt markörsymbolen 231 under åtminstone ett aktiveringsintervall, det vill säga att användarens blick har varit riktad tillräckligt nära markörsymbolen under en tillräckligt lång tid. Om bearbet- ningsmodulen 145 finner att detta kriterium är uppfyllt presen- terar modulen 145 uppsättningen styrobjekt 220A, 220B, 220C och 220D så som visas i figur 2b, det vill säga centrerade kring markörsymbolen 231. Alltså representeras aktivitetsdelen 210 här av en area till vänster och till höger om markörsymbolen 231, vilken befinner sig mellan styrobjekten 220A, 220B, 220C och 220D. Då markörsymbolen 231 i det här fallet är en text- inmatningsmarkör är det även möjligt att manipulera texten till vänster och till höger om markörsymbolen 231, det vill säga radera symboler och/eller lägg till nya symboler.Referring to Figure 2, we will now explain how the activity portion 210 is selected according to a preferred embodiment of the invention for controlling a cursor symbol 231 over the image area of the screen. Figure 2b shows a set of control objects 220A, 220B, 220C and 220D superimposed on an information area 240 containing editable text. The processing module 145 is adapted to examine whether the gaze point 130 meets an activity criterion. This criterion here refers to the cursor symbol 231 and its desired movement. The activity criterion is considered specifically met if the gaze point 130 has been within an activity zone 210 around the cursor symbol 231 during at least one activation interval, i.e. the user's gaze has been directed sufficiently close to the cursor symbol for a sufficiently long time. If the processing module 145 finds that this criterion is met, the module 145 presents the set of control objects 220A, 220B, 220C and 220D as shown in Figure 2b, i.e. centered around the cursor symbol 231. Thus, the activity part 210 is represented here by an area on the left. and to the right of the cursor symbol 231, which is located between the control objects 220A, 220B, 220C and 220D. Since the cursor symbol 231 in this case is a text entry cursor, it is also possible to manipulate the text to the left and to the right of the cursor symbol 231, i.e. delete symbols and / or add new symbols.

Givetvis utesluter inte uppfinningen att bearbetningsmodulen 145 förorsakar att ett eller flera av styrobjekten 220A, 220B, 220C och 220D presenteras även under andra förhållanden, ex- empelvis konstant, oavsett huruvida aktiveringskriteriet är upp- fyllt eller inte. 10 15 20 25 30 35 529 156 13 lcke desto mindre antar vi här att användaren 100 efter ovan- nämnda aktivering förflyttar blickpunkten 130 med hjälp av en sackad i en allmän högerriktning. Enligt den här utföringsformen av uppfinningen är bearbetningsmodulen 145 anpassad att tolka en sådan sackad som att användaren önskar förflytta mar- körsymbolen 231 åt höger över skärmen. Alltså upptäcker bearbetningsmodulen 145 sackaden och tolkar sackaden som ett uttryck för en navigeringsriktning RW åt höger på skärmen 150. Som ett resultat därav presenterar bearbetningsmodulen 145 ett datamanipuleringsfönster 220a i styrobjektet 220A på skärmen 150, som är anpassat att åstadkomma en förflyttning åt höger av markörsymbolen 231. Fönstret 220a inkluderar grafisk information som duplicerar aktivitetsdelen 210, vilket i detta ex- empel betyder att fönstret 220a visar bokstäverna ”nde”, det vill säga två bokstäver ”nd” till vänster om markörsymbolen 231 och en bokstav ”e” till höger om markörsymbolen 231. Naturligtvis är godtyckligt större eller något mindre fönster 220a lika tänkbart, så väl som olika slags gradvis uttonade eller delvis gömda rep- resentationer av bokstäverna i fönstret 220a i närheten av den högra och den vänstra fönsterkanten.Of course, the invention does not preclude that the processing module 145 causes one or more of the control objects 220A, 220B, 220C and 220D to be presented also under other conditions, for example constant, regardless of whether the activation criterion is met or not. 10 15 20 25 30 35 529 156 13 nevertheless, we assume here that the user 100 after the above-mentioned activation moves the gaze point 130 by means of a sack in a general right-hand direction. According to this embodiment of the invention, the processing module 145 is adapted to interpret such a slow motion that the user wishes to move the cursor symbol 231 to the right across the screen. Thus, the processing module 145 detects the sacked and interprets the sacking as an expression of a navigation direction RW to the right of the screen 150. As a result, the processing module 145 presents a data manipulation window 220a in the control object 220A on the screen 150, which is adapted to move to the right The window 220a includes graphical information that duplicates the activity part 210, which in this example means that the window 220a shows the letters "nde", i.e. two letters "nd" to the left of the cursor symbol 231 and a letter "e" to the right of the cursor symbol. 231. Of course, any larger or slightly smaller window 220a is equally conceivable, as well as various kinds of gradually faded or partially hidden representations of the letters in the window 220a in the vicinity of the right and left window edges.

Enligt uppfinningen är bearbetningsmodulen 145 anpassad att repeterat uppdatera informationen i datamanipuleringsfönstret 220a som svar på ögonföljningsstyrd inmatning av styrkomman- don till datorapparaten 140. Detta betyder här att de två bokstä- verna till vänster respektive den enstaka bokstaven till höger om markörsymbolen 231 ändras i överensstämmelse med innehållet i texten i informationsarean 240 då markörsymbolen 231 förflyt- tar sig över skärmen 150 i enlighet med vad navigeringsriktnin- gen RW anger.According to the invention, the processing module 145 is adapted to repeatedly update the information in the data manipulation window 220a in response to eye-tracking input of control commands to the computer 140. This means that the two letters to the left and the single letter to the right of the cursor symbol 231 are changed accordingly. the content of the text in the information area 240 as the cursor symbol 231 moves across the screen 150 in accordance with what the navigation direction RW indicates.

Enligt en föredragen utföringsform av uppfinningen är bearbet- ningsmodulen 145 även anpassad att presentera uppsättningen styrobjekt 220A, 220B, 220C och 220D på skärmen 150 på ett sådant sätt att denna uppsättning förflyttar sig gradvis över skärmen 150 i enlighet med navigeringsriktningen RW. Detta be- tyder att det relativa positionsförhållandet mellan markörsymbo- 10 15 20 25 30 529 156 14 len 231 och uppsättningen styrobjekt 220A, 220B, 220C och 220D förblir konstant, men att samtliga förflyttas tillsammans över skärmen 150. Därmed åstadkoms en stabil mekanism för styrning av markörsymbolen, vilket är önskvärt även vid icke- texttillämpningar.According to a preferred embodiment of the invention, the processing module 145 is also adapted to present the set of control objects 220A, 220B, 220C and 220D on the screen 150 in such a way that this set moves gradually over the screen 150 in accordance with the navigation direction RW. This means that the relative positional relationship between the cursor symbol 231 and the set of control objects 220A, 220B, 220C and 220D remains constant, but that they are all moved together across the screen 150. This provides a stable control mechanism. of the cursor symbol, which is desirable even for non-text applications.

Figur 3 illustrerar ett sådant exempel, varvid uppsättningen styr- objekt 220A, 220B, 220C och 220D som visas i figur 2a och 2b används för att styra en markörsymbol 331 med avseende på en del 200 av en bildarea hos skärmen 150 innehållande en infor- mationsarea i form av ett fönster 340.Figure 3 illustrates such an example, in which the set of control objects 220A, 220B, 220C and 220D shown in Figures 2a and 2b is used to control a cursor symbol 331 with respect to a portion 200 of an image area of the screen 150 containing an information area. in the form of a window 340.

I analogi med ovanstående antar vi att användaren 100 har pla- cerat blickpunkten 130 inom en aktiveringszon runt markörsym- bolen 331 under åtminstone ett aktiveringsintervall. Därför har bearbetningsmodulen 145 förorsakat presentation av uppsättnin- gen styrobjekt 220A, 220B, 220C och 220D kring en aktivitets- area 210 innehållande markörsymbolen 331.In analogy to the above, we assume that the user 100 has placed the gaze point 130 within an activation zone around the cursor symbol 331 during at least one activation interval. Therefore, the processing module 145 has caused the presentation of the set of control objects 220A, 220B, 220C and 220D around an activity area 210 containing the cursor symbol 331.

Dessutom har användaren utfört en första sackad till höger för att uttrycka en navigeringsriktning RW, och som ett resultat därav har bearbetningsmodulen 145 aktiverat ett styrobjekt 220A anpassat att åstadkomma en förflyttning åt höger av mar- körsymbolen 331 och däri presenterat ett datamanipulerings- fönster 220a. Vidare antar vi att bearbetningsmodulen 145 har undersökt huruvida användarens 100 blickpunkt 130 har be- funnit sig på det aktiva styrobjektet 220A under en tröskeltid, och funnit detta kriterium vara uppfyllt. Därför har bearbetnings- modulen 145 initierat en markörförflyttning åt höger över skär- men 150, det vill säga i enlighet med navigeringsriktningen RW. Åter inkluderar det presenterade datamanipuleringsfönstret 220a grafisk information som symboliserar aktivitetsdelen 210. l mot- sats till det ovan med hänvisning till figur 2b diskuterade ex- emplet styrs markörsymbolen 331 som svar på ögonföljnings- alstrade styrkommandon vilka här ar anpassade att manipulera grafiska objekt, såsom fönster, mjukvarulmplementerade knap- 10 15 20 25 30 529 156 15 par, rullningslister, skjutreglage etc. lcke desto mindre förblir markörsymbolen 331 inom aktivitetsdelen 210 eftersom markör- symbolen 331 är ett objekt baserat på vilket styrkommandon matas in i datorapparaten 140 Bearbetningsmodulen 145 uppdaterar även repeterat informatio- nen i datamanipuleringsfönstret 220a som svar på alstrade styr- kommandon (här representerade av navigeringsriktningen RW), så att då markörsymbolen 331 rör sig åt höger över skärmens 150 bildyta innehållet i fönstret 340 befintligt till höger om en ur- sprunglig position gradvis dyker upp i datamanipuleringsfönstret 220a.In addition, the user has performed a first swipe to the right to express a navigation direction RW, and as a result, the processing module 145 has activated a control object 220A adapted to effect a rightward movement of the cursor symbol 331 and presented therein a data manipulation window 220a. Furthermore, we assume that the processing module 145 has examined whether the user 100's focus point 130 has been on the active control object 220A during a threshold time, and found this criterion to be met. Therefore, the processing module 145 has initiated a cursor movement to the right over the screen 150, i.e. in accordance with the navigation direction RW. Again, the presented data manipulation window 220a includes graphical information symbolizing the activity portion 210. In contrast to the example discussed above with reference to Figure 2b, the cursor symbol 331 is controlled in response to eye-tracking generated control commands which are adapted to manipulate graphical objects, such as windows. , software-implemented buttons, scroll bars, sliders, etc. Nevertheless, the cursor symbol 331 remains within the activity part 210 because the cursor symbol 331 is an object based on which control commands are entered into the computer 140. The processing module 145 also updates repeatedly the information in the data manipulation window 220a in response to generated control commands (here represented by the navigation direction RW), so that when the cursor symbol 331 moves to the right over the image surface of the screen 150 the contents of the window 340 existing to the right of an original position gradually appear in the data manipulation window 220 a.

Figur 4 illustrerar hur en alternativ uppsättning styrobjekt 420A, 420B, 42OC och 420D kan användas enligt en utföringsform av uppfinningen för att styra markörsymbolen 431 över skärmen 150. Här visar skärmen 150 en informationsarea innehållande ett fönster 440. Denna utföringsform är emellertid lika tillämplig på andra typer av information, såsom texten 240 i figuren 2b.Figure 4 illustrates how an alternative set of control objects 420A, 420B, 42OC and 420D can be used according to an embodiment of the invention to control the cursor symbol 431 over the screen 150. Here the screen 150 shows an information area containing a window 440. However, this embodiment is equally applicable to other types of information, such as the text 240 in Figure 2b.

Vi antar åter att användaren 100 har placerat blickpunkten 130 inom en aktiverings:zon 430 runt markörsymbolen 431 under åt- minstone ett aktiveringsintervall. Därför har bearbetningsmo- dulen 145 förorsakat att uppsättningen styrobjekt 420A, 420B, 42OC och 420D presenteras på skärmen 150, så att ett visst styrobjekt befinner sig i närheten av respektive sida av skärmen 150. Alternativt presenteras styrobjekten 420A, 420B, 42OC och 420D alltid på skärrnen 150 oavsett huruvida ovannämnda akti- veringskriterium är uppfyllt eller inte. I vilket fall som helst befin- ner sig ett första styrobjekt 420A vid en fixerad position på hö- ger sida av displayen 150 och är företrädesvis anpassad att ås- tadkomma en förflyttning åt höger av markörsymbolen 441, ett andra styrobjekt 420B befinner sig vid en fixerad position på skärmens 150 nedre sida och är företrädesvis anpassad att ås- tadkomma en förflyttning nedåt av markörsymbolen 441, ett tredje styrobjekt 42OC befinner sig vid en fixerad position på vänster sida av skärmen 150 och är företrädesvis anpassad att 10 15 20 25 30 529 156 16 åstadkomma en förflyttning åt vänster av markörsymbolen 441, och ett fjärde styrobjekt 420D befinner sig vid en fixerad position på skärmens 150 övre sida och är företrädesvis anpassad att åstadkomma en förflyttning uppåt av markörsymbolen 441.We again assume that the user 100 has placed the gaze point 130 within an activation zone 430 around the cursor symbol 431 during at least one activation interval. Therefore, the processing module 145 has caused the set of control objects 420A, 420B, 42OC and 420D to be presented on the screen 150, so that a certain control object is located near the respective side of the screen 150. Alternatively, the control objects 420A, 420B, 42OC and 420D are always presented on inserts 150 regardless of whether or not the above activation criterion is met. In any case, a first control object 420A is located at a fixed position on the right side of the display 150 and is preferably adapted to effect a movement to the right of the cursor symbol 441, a second control object 420B is located at a fixed position. position on the lower side of the screen 150 and is preferably adapted to effect a downward movement of the cursor symbol 441, a third control object 42OC is located at a fixed position on the left side of the screen 150 and is preferably adapted to causing a leftward movement of the cursor symbol 441, and a fourth control object 420D is at a fixed position on the upper side of the screen 150 and is preferably adapted to effect an upward movement of the cursor symbol 441.

Dessutom har användaren utfört en första sackad nedåt för att uttrycka en önskad navigeringsriktning nedåt DW. Som ett resul- tat därav har bearbetningsmodulen 145 aktiverat det andra styr- objektet 420B och däri presenterat ett datamanipuleringsfönster 420b. Vidare antar vi att användaren 100 har fixerat sin blick- punkt 130 på det aktiva styrobjektet 420B under en tröskeltid, och att därför bearbetningsmodulen 145 har initierat en nedåt- förflyttning av markörsymbolen över skärmen 150.In addition, the user has performed a first downward descent to express a desired downward DW navigation direction. As a result, the processing module 145 has activated the second control object 420B and presented therein a data manipulation window 420b. Furthermore, we assume that the user 100 has fixed his gaze point 130 on the active control object 420B during a threshold time, and that therefore the processing module 145 has initiated a downward movement of the cursor symbol over the screen 150.

Följaktligen inkluderar datamanipuleringsfönstret 420b grafisk information som initialt duplicerar en skärmyta, exempelvis vä- sentligen motsvarande aktiveringszonen 430. Allt eftersom an- vändaren 100 håller blickpunkten 130 på det aktiva styrobjektet 420B och således styr markörsymbolen 431 nedåt uppdaterar emellertid bearbetningsmodulen upprepat innehållet i fönstret 420b för att återspegla markörsymbolens 431 nedåtförflyttning i navigeringsriktningen DW, företrädesvis under det att en repre- sentation av markörsymbolen 431 hålls på en konstant position i fönstret 420b.Accordingly, the data manipulation window 420b includes graphical information that initially duplicates a screen area, for example, substantially corresponding to the activation zone 430. reflect the downward movement of the cursor symbol 431 in the navigation direction DW, preferably while holding a representation of the cursor symbol 431 at a constant position in the window 420b.

Enligt en föredragen utföringsform av uppfinningen är bearbet- ningsmodulen 145 anpassad att undersöka huruvida blickpunk- ten 130 har befunnit sig utanför det aktiva styrobjektet 420B un- der en rörelsedeaktiveringsperiod, säg i storleksordningen 0,5 sekunder. Om detta kriterium är uppfyllt är bearbetningsmodulen 145 anpassad att deaktivera det aktiva styrobjektet 420B och således avbryta den ögonföljningsstyrda inmatningen av styr- kommandon, det vill säga i det här exemplet nedåtförflyttningen av markörsymbolen 431.According to a preferred embodiment of the invention, the processing module 145 is adapted to examine whether the focal point 130 has been outside the active control object 420B during a motion deactivation period, say in the order of 0.5 seconds. If this criterion is met, the processing module 145 is adapted to deactivate the active control object 420B and thus interrupt the eye-tracking controlled entry of control commands, i.e. in this example the downward movement of the cursor symbol 431.

Denna stoppfunktion, som är tillämplig vid alla utföringsformer av föreliggande uppfinning, erbjuder ett mycket effektivt sätt för 10 15 20 25 30 529 156 17 användaren 100 att indikera för systemet att den aktuella inmatningen av styrkommandon ska upphöra, och att möjligen ett annat slags kommandon istället ska alstras.This stop function, which is applicable to all embodiments of the present invention, offers a very effective way for the user 100 to indicate to the system that the current input of control commands should stop, and that possibly another kind of command instead to be generated.

Figur 5 illustrerar hur en tredje typ av föreslagna styrobjekt 520A kan användas enligt en utföringsform av uppfinningen för att påverka en markörsymbol 531 baserat på ögonföljningsalst- rade styrkommandon inmatade i datorapparaten 140. Enligt den här utföringsformen inkluderar uppsättningen styrobjekt ett ens- taka styrobjekt 520A, som kan presenteras på godtyckligt ställe av skärmens 150 bildyta.Figure 5 illustrates how a third type of proposed control object 520A may be used in accordance with an embodiment of the invention to affect a cursor symbol 531 based on eye tracking generated command commands input to the computer 140. According to this embodiment, the set of control objects includes a single control object 520A, can be presented in any place of the screen 150 image area.

Efter det att bearbetningsmodulen 145 har avgjort att använda- ren 100 har placerat sin blickpunkt 130 inom aktiveringszonen 530 runt markörsymbolen 531 under åtminstone ett aktiverings- intervall är bearbetningsmodulen 145 specifikt anpassad att inte bara bestämma en riktning 130d för en första sackad 130d utan- för aktiveringszonen 530, utan även en målp/acering av en så- dan sackad. Bearbetningsmodulen 145 är sedan anpassad att presentera styrobjektet 520A vid denna position, exempelvis centrerat däröver. l analogi med de ovan beskrivna utföringsformerna inkluderar styrobjektet 520A ett datamanipuleringsfönster 520a, som inklu- derar grafisk information symboliserande en aktivitetsdel av skärmen 150 som för närvarande är föremål för ögonföljnings- styrd inmatning av styrkommandon till datorapparaten 140, näm- ligen i detta exempel, markörsymbolen 531. Dessutom är bear- betningsmodulen 145 även här anpassad att förflytta markör- symbolen 531 över skärmen 150 i enlighet med navigeringsrikt- ningen 130d. Det är värt att nämna att navigeringsriktningen kan ha godtycklig vinkel (0°-360°) i förhållande till en referensrikt- ning, och är alltså inte begränsad till de tidigare beskrivna hori- sontella och vertikala höger-/vänster- och nedåt-/uppåtrikt- ningarna. 10 15 20 25 30 529 156 18 Figur 6 visar ett skärmobjekt som implementerar ett mjukvaru- tangentbord 650 på skärmen 150, varvid tangentbordet 650 enligt en utföringsform av uppfinningen är styrbart som svar på en röreisesekvens av användarens 100 blickpunkt 130. Tangent- bordet 650 är associerat med en informationsarea 640, som är anpassad att presentera redigerbara symboler, exempelvis rep- resenterande text. En markörsymboi 631 anger en position i in- formationsarean 640 som för närvarande är möjlig att manipu- lera.After the processing module 145 has determined that the user 100 has placed his focal point 130 within the activation zone 530 around the cursor symbol 531 for at least one activation interval, the processing module 145 is specifically adapted to not only determine a direction 130d for a first sagged 130d outside the activation zone. 530, but also a target / aceration of such a sack. The processing module 145 is then adapted to present the control object 520A at this position, for example centered above it. In analogy to the embodiments described above, the control object 520A includes a data manipulation window 520a, which includes graphical information symbolizing an activity portion of the screen 150 which is currently subject to eye-tracking input of control commands to the computer 140, namely in this example, cursor symbol 531. In addition, the processing module 145 is also adapted here to move the cursor symbol 531 over the screen 150 in accordance with the navigation direction 130d. It is worth mentioning that the navigation direction can have any angle (0 ° -360 °) in relation to a reference direction, and is thus not limited to the previously described horizontal and vertical right / left and down / up directions. - the ings. Figure 6 shows a display object that implements a software keyboard 650 on the screen 150, the keyboard 650 according to an embodiment of the invention being controllable in response to a motion travel sequence of the user 100's focus point 130. The keyboard 650 is associated with an information area 640, which is adapted to present editable symbols, for example, representative text. A cursor symbol 631 indicates a position in the information area 640 that is currently manipulable.

Tangentbordet 650 inkluderar en uppsättning tangenter 620 an- passade att ögonstyras för att mata in alfabetiska symboler, siff- ror och andra slags tecken till datorapparaten 140. Tangentbor- det 650 kan även inkludera ett antal skärmobjekt 620A, 621 som 622 visuellt representerar GUI-komponenter av mjukvarutan- genter på skärmen 150, vilka gör det möjligt för användaren 100 att utföra olika slags redigeringsfunktioner baserat på ögonfölj- ningsalstrade styrkommandon. Alltså kan objekten 620, 620A, 621 och 622 utgöra styrobjekt av det ovan beskrivna slaget.The keyboard 650 includes a set of keys 620 adapted for eye control to enter alphabetic symbols, numbers and other types of characters into the computer 140. The keyboard 650 may also include a number of display objects 620A, 621 which 622 visually represent GUI components. of software keys on the screen 150, which enable the user 100 to perform various kinds of editing functions based on eye-tracking generated control commands. Thus, objects 620, 620A, 621 and 622 may be control objects of the type described above.

Bearbetningsmodulen 145 är här anpassad att avgöra huruvida användaren 100 ha placerat sin blickpunkt 130 i förhållande till dessa styrobjekt, så att ett aktiveringskriterium med avseende på ett visst styrobjekt har uppfyllts. Förutsatt att ett specifikt styrobjekt aktiveras uppstår .den därmed åstadkomna manipula- tionen av markörsymbolen 631. Markörsymbolen 631 kan i sin tur antingen förflyttas relativt informationsarean 640 enligt vad som beskrivs ovan, , exempelvis med hänvisning till figurerna 2a och 2b, eller med hjälp av godtyckligt annat känt styrorgan.The processing module 145 is here adapted to determine whether the user 100 has placed his eye point 130 in relation to these control objects, so that an activation criterion with respect to a certain control object has been fulfilled. Provided that a specific control object is activated, the resulting manipulation of the cursor symbol 631. The cursor symbol 631 can in turn either be moved relative to the information area 640 as described above, for example with reference to Figures 2a and 2b, or by means of arbitrary other known control means.

Förutsatt att användaren har styrt markörsymbolen 631 till en önskad position i informationsarean 640 undersöker bearbet- ningsmodulen 145, i analogi med ovan, sedan huruvida ett akti- veringskriterium med avseende på något av styrobjekten 620, 620A, 621 och 622 är uppfyllt. l illustreringssyfte antar vi i det här fallet att en backstegs-/raderingstangent 620A har aktiverats på det här sättet baserat på en röreisesekvens hos en blickpunkt 10 15 20 25 30 529 156 19 130 i förhållande till en aktiveringszon 630 för denna tangent 620A, exempelvis att användaren 100 har placerat blickpunkten 130 inom aktiveringszonen 630 under åtminstone ett aktiverings- intervall. Vi antar också att markörsymbolen 631 befinner sig mellan bokstäverna ”ö” och "r" i ordet ”för” så som visas i figur 6, och att därmed en aktivitetsdel 210 av informationsarean 640 de- finieras. Eftersom tangenten 640A är anpassad att åstadkomma en radering av den symbol som befinner sig omedelbart till vänster om markörsymbolens 631 aktuella position kommer den- na symbol, det vill säga här bokstaven “ö”, att raderas i samband med aktivering av tangenten 640A. Som ett ytterligare resultat kommer markörsymbolen 631 därefter att befinna sig mellan bok- stäverna ”f” och l likhet med den ovan med hänvisning till figur 2b beskrivna utfö- ringsformen av uppfinningen inkluderar ett datamanipulerings- fönster 620a i det aktiva styrobjektet representerat av tangenten 640A initialt vid aktivering grafisk information symboliserande en aktivitetsdel runt markörsymbolen 641. I det här exemplet visar fönstret 620a bokstäverna ”för", det vill säga två bokstäver ”fö” till vänster om markörsymbolen och en enstaka bokstav ”r” till höger om markörsymbolen 631. Åter är godtyckligt mindre eller större fönster 620a tillpassat tangenten 620A lika tänkbart. Des- sutom kan symbolerna i fönstret 620a visas så att de gradvis tonar ut, eller delvis göms i närheten av en, eller båda, av fönst- rets 620a höger- och vänsterkanter.Assuming the user has steered the cursor symbol 631 to a desired position in the information area 640, the processing module 145, in analogy to the above, then examines whether an activation criterion with respect to any of the control objects 620, 620A, 621 and 622 is met. For purposes of illustration, we assume in this case that a backspace / delete key 620A has been activated in this way based on a travel sequence of an eye point 10 15 20 25 30 529 156 19 130 relative to an activation zone 630 for this key 620A, e.g. the user 100 has placed the gaze point 130 within the activation zone 630 for at least one activation interval. We also assume that the cursor symbol 631 is located between the letters “ö” and “r” in the word “for” as shown in Figure 6, and that thus an activity part 210 of the information area 640 is defined. Since the key 640A is adapted to effect an erasure of the symbol located immediately to the left of the current position of the cursor symbol 631, this symbol, i.e. here the letter “ö”, will be erased in connection with the activation of the key 640A. As a further result, the cursor symbol 631 will then be located between the letters "f" and, like the embodiment of the invention described above with reference to Figure 2b, includes a data manipulation window 620a in the active control object initially represented by the key 640A. when activating graphic information symbolizing an activity part around the cursor symbol 641. In this example, the window 620a shows the letters "for", ie two letters "fö" to the left of the cursor symbol and a single letter "r" to the right of the cursor symbol 631. Again any smaller or larger window 620a adapted to the key 620A as conceivable.In addition, the symbols in the window 620a may be displayed so that they gradually fade out, or are partially hidden near one, or both, of the right and left edges of the window 620a.

Naturligtvis kan bearbetningsmodulen 145 vid val av någon av de andra tangenterna 620 istället avgöra att en eller flera sym- boler ska läggas till baserat på rörelsesekvensen hos blickpunk- ten 130 över tangentbordet 650, och lägga till sådana tillagda symboler i informationsarean 640. Alltså är enligt den här utfö- ringsformen av uppfinningen ett antal, företrädesvis samtliga, tangenter 620, 620A, 621 och 622 anpassade att presentera ett respektive datamanipuleringsfönster i fall tangenten väljs som det aktiva styrobjektet. 10 15 20 25 30 529 156 20 Figur 7 illustrerar hur en skärmrepresentation 740 av en GUI- komponent kan manipuleras enligt en utföringsform av upp- finningen, nämligen utsättas för en rotation. Enligt denna utfö- ringsform presenteras ett första styrobjekt 720A och ett andra styrobjekt 72OB på skärmen. Vid aktivering är det första styrobjektet 720A anpassat att åstadkomma en medurs rotation av skärmrepresentationen av ett valt grafiskt objekt, medan det andra styrobjektet 72OB är anpassat att åstadkomma en moturs rotation. Här aktiveras ett styrobjekt, säg det andra styrobjektet 72OB genom rörelse av blickpunkten 130 över skärmen så att blickpunkten 130 uppfyller ett aktiveringskriterium med avse- ende på en grafisk representation 740, exempelvis genom att blickpunkten 130 befinner sig inom en aktiveringszon 730 under ett aktiveringsintervall. Sedan rör sig blickpunkten 130, typiskt sett i form av en sackad, till det andra styrobjektet 72OB. För- utsatt att blickpunkten 130 befinner sig på detta objekt 72OB åtminstone under en tröskeltid presenteras ett datamanipule- ringsfönster 720b i det andra styrobjektet 72OB för att bekräfta aktivering. Datamanipuleringsfönstret 720b visar grafisk infor- mation som symboliserar den grafiska representationen 740, det vill säga det aktuella föremålet för ögonföljningsstyrd moturs- rotation.Of course, when selecting one of the other keys 620, the processing module 145 may instead determine that one or more symbols should be added based on the motion sequence of the gaze point 130 across the keyboard 650, and add such added symbols to the information area 640. In this embodiment of the invention, a number, preferably all, of the keys 620, 620A, 621 and 622 are adapted to present a respective data manipulation window in case the key is selected as the active control object. Figure 7 illustrates how a screen representation 740 of a GUI component can be manipulated according to an embodiment of the invention, namely subjected to a rotation. According to this embodiment, a first control object 720A and a second control object 72OB are presented on the screen. Upon activation, the first control object 720A is adapted to effect a clockwise rotation of the screen representation of a selected graphic object, while the second control object 72OB is adapted to effect a counterclockwise rotation. Here, one control object is activated, say the second control object 72OB by moving the gaze point 130 across the screen so that the gaze point 130 meets an activation criterion with respect to a graphic representation 740, for example by the gaze point 130 being within an activation zone 730 during an activation interval. Then, the gaze point 130, typically in the form of a sack, moves to the second control object 72OB. Provided that the focal point 130 is on this object 72OB at least during a threshold time, a data manipulation window 720b is presented in the second control object 72OB to confirm activation. The data manipulation window 720b displays graphical information that symbolizes the graphical representation 740, that is, the current object of eye tracking controlled counterclockwise rotation.

Allt eftersom den grafiska representationen 740 roteras på skär- men uppdateras därtill informationen som återspeglar detta fak- tum i datamanipuleringsfönstret 720b upprepat. Företrädesvis fortsätter rotationen gradvis så länge som styrobjektet 72OB för- blir aktivt, antigen i relativt små steg (exempelvis 1 grad per uppdatering vid en uppdateringstakt av 4 uppdateringar per se- kund), eller i relativt stora steg (exempelvis 90 grader per upp- datering vid en uppdateringstakt på en per sekund). Närhelst an- vändaren är nöjd med rotationen förflyttar han/hon blickpunkten 130 så att ett deaktiveringskriterium uppfylls, exempelvis genom att placera blickpunkten 130 utanför styrobjektet 72OB under en deaktiveringströskeltid. 10 15 20 25 30 529 156 21 Figur 8 illustrerar ännu en annan typ av ögonstyrningsmani- pulation av grafiska objekt som möjliggörs enligt en utförings- form av föreliggande uppfinning. Här kan en skärmrepresen- tation 840 av en GUl-komponent styras att ändra färg. Ett första styrobjekt 820A är anpassat att färga ett valt objekt rött, ett andra styrobjekt 8208 är anpassat att färga ett valt objekt blått, och ett tredje styrobjekt 82OC är anpassat att färga ett valt ob- jekt grönt. Ånyo väljs en given grafisk representation 840 genom förflyttning av blickpunkten 130 över skärmen, så att blick- punkten 130 uppfyller ett aktiveringskriterium med avseende på den givna grafiska representationen 840. Företrädesvis anses aktiveringskriteriet vara uppfyllt om blickpunkten 130 har varit placerad inom en aktiveringszon 830 runt det givna grafiska objektet 840 under ett aktiveringsintervall.In addition, as the graphical representation 740 is rotated on the screen, the information reflecting this fact in the data manipulation window 720b is repeatedly updated. Preferably, the rotation continues gradually as long as the control object 72OB remains active, either in relatively small steps (eg 1 degree per update at an update rate of 4 updates per second), or in relatively large steps (eg 90 degrees per update at an update rate of one per second). Whenever the user is satisfied with the rotation, he / she moves the gaze point 130 so that a deactivation criterion is met, for example by placing the gaze point 130 outside the control object 72OB during a deactivation threshold time. Figure 15 illustrates yet another type of eye control manipulation of graphic objects made possible in accordance with an embodiment of the present invention. Here, a screen representation 840 of a GU1 component can be controlled to change color. A first control object 820A is adapted to color a selected object red, a second control object 8208 is adapted to color a selected object blue, and a third control object 82OC is adapted to color a selected object green. Again, a given graphical representation 840 is selected by moving the gaze point 130 across the screen so that the gaze point 130 meets an activation criterion with respect to the given graphic representation 840. Preferably, the activation criterion is considered met if the gaze point 130 has been located within an activation zone 830 around it. given graphic object 840 during an activation interval.

Blickpunkten 130 förflyttas sedan medelst en sackad till ett styrobjekt, säg det andra styrobjektet 820B, där blickpunkten 130 förblir åtminstone under en tröskeltid. Därefter åstadkoms den modifiering av den grafiska representationen 840 som an- ges av det andra styrobjektet 820B, i det här fallet en färgför- ändring till blått. För att bekräfta denna modifiering presenteras ett datamanipuleringsfönster 820b som visar grafisk information symboliserande den grafiska representationen 840 i det andra styrobjektet 820B. Således återspeglas, i samband med att den grafiska representationen 840 ändar färg till blått, detta faktum av symbolisk information i datamanipuleringsfönstret 820b.The eye point 130 is then moved by means of a sack to a control object, say the second control object 820B, where the eye point 130 remains for at least one threshold time. Thereafter, the modification of the graphical representation 840 indicated by the second control object 820B, in this case a color change to blue, is effected. To confirm this modification, a data manipulation window 820b is presented which displays graphical information symbolizing the graphical representation 840 in the second control object 820B. Thus, in connection with the graphical representation 840 changing color to blue, this fact is reflected by symbolic information in the data manipulation window 820b.

Analogt med ovanstående kan givetvis även andra egenskaper hos en GUI-komponent förändras, såsom texturer. Därför pre- senteras enligt en utföringsform av uppfinningen en uppsättning ögonstyrbara styrobjekt på skärmen, vilka är anpassade att pà- verka att en viss textur avbildas på GUI-komponentens skärm- representation.Of course, analogous to the above, other properties of a GUI component can also be changed, such as textures. Therefore, according to an embodiment of the invention, a set of eye-controllable control objects is presented on the screen, which are adapted to influence that a certain texture is imaged on the screen representation of the GUI component.

För att summera kommer nu den allmänna metoden enligt upp- finningen för att styra en datorapparat att beskrivas med hän- visning till flödesschemat i figur 9. 10 15 20 25 30 35 529 156 22 Ett inledande steg 910 bestämmer en användares blickpunkt på skärmen. Ett steg 920 undersöker sedan huruvida ett aktive- ringskriterium har uppfyllts, och om så är fallet följer ett steg 930. Aktiveringskriteriet kan anses vara uppfyllt om blickpunkten under åtminstone ett aktiveringsintervall har befunnit sig inom en aktiveringszon för ett skärmobjekt baserat på vilket ögonfölj- ningsstyrda styrkommandon kan matas in till en datorapparat.To sum up, the general method according to the invention for controlling a computer apparatus will now be described with reference to the flow chart in Figure 9. An initial step 910 determines a user's point of view on the screen. A step 920 then examines whether an activation criterion has been met, and if so, a step 930 follows. can be input to a computer.

Alternativt kan aktiveringskriteriet anses vara uppfyllt om blick- punkten under aktiveringsintervallet har befunnit sig på styrob- jektet mera än på något av dess angränsande styrobjekt. Om emellertid aktiveringskriteriet inte är uppfyllt loopar proceduren tillbaka till steget 910.Alternatively, the activation criterion can be considered fulfilled if the focal point during the activation interval has been on the control object more than on any of its adjacent control objects. However, if the activation criterion is not met, the procedure loops back to step 910.

Steget 930 definierar styrobjektet som aktivt och presenterar ett datamanipuleringsfönster i förhållande till det aktiva styrobjektet på skärmen så att en mittpunkt hos fönstret befinner sig inom ett relativt litet förskjutningsavstånd från en mittpunkt hos det aktiva styrobjektet. Exempelvis kan datamanipuleringsfönstret presen- teras i det aktiva styrobjektet, eller så att fönstret delvis över- lappar det aktiva styrobjektet. Styrobjektet som ska aktiveras kan identifieras genom en första sackad hos blickpunkten regist- rerad från aktiveringszonen, och det styrobjekt som represente- rar det åtminstone ett styrobjektet styrkommandot att inmata till datorapparaten. Datamanipuleringsfönstret inkluderar grafisk in- formation, som symboliserar en aktivitetsdel skärmen där det skärmobjekt befinner sig på vilket ögonstyrnlngsstyrda komman- don för närvarande alstras.Step 930 defines the control object as active and presents a data manipulation window relative to the active control object on the screen so that a center point of the window is within a relatively small displacement distance from a center point of the active control object. For example, the data manipulation window may be presented in the active control object, or so that the window partially overlaps the active control object. The control object to be activated can be identified by a first sacked at the point of view registered from the activation zone, and the control object representing the at least one control object the command command to be input to the computer. The data manipulation window includes graphical information, which symbolizes an activity part of the screen where the screen object is located on which eye control-controlled commands are currently generated.

Därefter undersöker ett steg 940 huruvida ett deaktiveringskrite- rium är uppfyllt med avseende på det aktiva styrobjektet. Före- trädesvis är deaktiveringskriteriet komplementet till ovannämnda aktiveringskriterium. Därmed anses deaktiveringskriteriet vara uppfyllt om aktiveringskriteriet inte längre är uppfyllt. Naturligtvis anses ett deaktiveringskriterium för ett första aktivt styrobjekt generellt sett vara uppfyllt om ett aktiveringskriterium för ett andra aktivt styrobjekt uppfylls. l alla händelser loopar procedu- ren tillbaka till steget 910 om deaktiveringskriteriet är uppfyllt. l 10 15 20 25 30 35 529 156 23 annat fall följer ett steg 950 i vilket informationen i datamani- puleringsfönstret uppdateras som svar på det åtminstone ett styrkommandot representerat av det aktiva styrobjektet.Next, a step 940 examines whether a deactivation criterion is met with respect to the active control object. Preferably, the deactivation criterion is the complement to the above-mentioned activation criterion. Thus, the deactivation criterion is considered to be met if the activation criterion is no longer met. Of course, a deactivation criterion for a first active control object is generally considered to be met if an activation criterion for a second active control object is met. In all cases, the procedure loops back to step 910 if the deactivation criterion is met. In another case, a step 950 follows in which the information in the data manipulation window is updated in response to the at least one control command represented by the active control object.

Samtliga de metodsteg, såväl som godtycklig delsekvens av steg, beskrivna med hänvisning till figur 9 ovan kan styras med hjälp av en programmerad datorapparat. Dessutom, även om de ovan med hänvisning till figurerna beskrivna utföringsformerna av uppfinnin- gen innefattar en dator och processer utförda i en dator, utsträc- ker sig uppfinningen till datorprogram, speciellt datorprogram på eller i en bärare anpassad att praktiskt implementera uppfinnin- gen. Programmet kan vara i form av källkod, objektkod, en kod som utgör ett mellanting mellan käll- och objektkod, såsom i delvis kompilerad form, eller i vilken annan form som helst lämplig att använda vid implementering av processen enligt uppfinningen.All the method steps, as well as any sub-sequence of steps, described with reference to Figure 9 above can be controlled by means of a programmed computer apparatus. In addition, although the embodiments of the invention described above with reference to the figures include a computer and processes performed in a computer, the invention extends to computer programs, especially computer programs on or in a carrier adapted to practically implement the invention. The program may be in the form of source code, object code, a code which constitutes an intermediate between source and object code, such as in partially compiled form, or in any other form suitable for use in implementing the process according to the invention.

Bäraren kan vara godtycklig entitet eller anordning vilken är kapabel att bära programmet. Exempelvis kan bäraren innefatta ett lagringsmedium såsom ett flashminne, ett ROM (Read Only Memory), exempelvis en CD (Compact Disc) eller ett halvledar- ROM, att EPROM (Erasable Programmable ROM), an EEPROM (Electrically EPROM) eller ett magnetiskt inspelningsmedium, exempelvis en floppydisk eller hårddisk. Dessutom kan bäraren vara en överförande bärare såsom en elektrisk eller optisk signal, vilken kan ledas genom en elektrisk eller optisk kabel eller via radio eller på annat sätt. Då programmet gestaltas av en signal som kan ledas direkt av en kabel eller annan anordning eller organ kan bäraren utgöras av en sådan kabel, anordning eller organ. Alternativt kan bäraren vara en integrerad krets i vilken programmet är inbäddat, där den integrerade kretsen är anpassad att utföra, eller för att användas vid utförande av, de aktuella processerna.The carrier can be any entity or device which is capable of carrying the program. For example, the carrier may comprise a storage medium such as a flash memory, a ROM (Read Only Memory), for example a CD (Compact Disc) or a semiconductor ROM, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically EPROM) or a magnetic recording medium, for example, a floppy disk or hard disk. In addition, the carrier may be a transmitting carrier such as an electrical or optical signal, which may be conducted through an electrical or optical cable or via radio or otherwise. When the program is formed by a signal which can be conducted directly by a cable or other device or means, the carrier can be constituted by such a cable, device or means. Alternatively, the carrier may be an integrated circuit in which the program is embedded, where the integrated circuit is adapted to perform, or to be used in performing, the actual processes.

Termen “innefattar/innefattande" ska då den används i den här beskrivningen förstås att ange närvaron av de nämnda särdra- gen, heltalen, stegen eller komponenterna. Termen utesluter emellertid inte närvaro eller tillägg av en eller flera ytterligare särdrag, heltal, steg eller komponenterna, eller grupper därav. 529 156 24 Referenserna till tidigare känd teknik i den här beskrivningen är inte, och ska inte ses som ett erkännande eller antydning om att nämnda teknik utgör en del av det allmänna vetandet i Austra- lien.The term "includes" when used in this specification is understood to indicate the presence of the said features, integers, steps or components. However, the term does not exclude the presence or addition of one or more additional features, integers, steps or components. 529 156 24 The references to prior art in this specification are not, and should not be construed as, an acknowledgment or indication that said technology is part of the general knowledge of Australia.

Uppfinningen är inte begränsad till de i figurerna beskrivna ut- föringsformerna, utan kan varieras fritt inom kravens omfång.The invention is not limited to the embodiments described in the figures, but can be varied freely within the scope of the claims.

Claims (26)

10 15 20 25 30 35 529 156 25 Patentkrav10 15 20 25 30 35 529 156 25 Patent claims 1. Ett system för styrning av en datorapparat (140) knuten till en grafisk skärm (150), där datorapparaten (140) är anpassad att presentera en respektive skärmrepresentation av åtminstone en GUI-komponent på skärmen (150), där systemet innefattar ögonföljningsorgan (145, 160, 170, 181, 182) anpassade att bestämma en användares (100) blickpunkt (130) på skärmen (150) och som svar till rörelsesekvenser hos blickpunkten (130) över skärmen (150) mata in styrkommandon till datorapparaten (140), där ögonföljningsorganen innefattar en bearbetnings- modul (145) anpassad att alstra grafisk àterkopplingsinformation (DFB) för presentation på skärmen (150) för att visuellt bekräfta inmatade kommandon, kännetecknat av att bearbetningsmo- dulen (145) är anpassad att: undersöka huruvida rörelsesekvensen hos blickpunkten (130) uppfyller ett aktiveringskriterium med avseende på en aktiveringszon (430, 530, 630, 730, 830) för vart och ett av de åtminstone ett styrkommandona, och om ett sådant aktiverings- kriterium visar sig vara uppfyllt presentera ett datamanipuleringsfönster (220a, 420b, 520a, 620a, 720b, 820b) vid en position relativt ett aktivt styrobjekt (220A; 420B; 520A; 620A, 720B, 820B) på skärmen (150) så att en mittpunkt hos fönstret befinner sig inom ett relativt litet förskjutningsavstànd från en mittpunkt hos det aktiva styrobjektet, där fönstret innefattar grafisk information som sym- boliserar en aktivitetsdel (210) av skärmen (150) vilken för när- varande är föremål för ögonstyrningsinmatning av styrkomman- don,och upprepat uppdatera informationen i datamanipulerings- fönstret (220a, 420b, 520a, 620a, 720b, 820b) som svar på den ögonstyrda inmatningen av styrkommandon.A system for controlling a computer apparatus (140) connected to a graphic screen (150), the computer apparatus (140) being adapted to present a respective screen representation of at least one GUI component on the screen (150), the system comprising eye tracking means ( 145, 160, 170, 181, 182) adapted to determine a user's (100) point of view (130) on the screen (150) and in response to motion sequences of the point of view (130) across the screen (150) input control commands to the computer (140) , wherein the eye tracking means comprises a processing module (145) adapted to generate graphical feedback information (DFB) for presentation on the screen (150) to visually confirm input commands, characterized in that the processing module (145) is adapted to: examine whether the motion sequence of the flash point (130) satisfies an activation criterion with respect to an activation zone (430, 530, 630, 730, 830) for each of the at least one control commands, and if such activation s criterion is found to be satisfied presenting a data manipulation window (220a, 420b, 520a, 620a, 720b, 820b) at a position relative to an active control object (220A; 420B; 520A; 620A, 720B, 820B) on the screen (150) so that a center point of the window is within a relatively small displacement distance from a center point of the active control object, the window including graphical information symbolizing an activity portion (210) of the screen (150). ) which is currently subject to eye control input of control commands, and repeatedly updating the information in the data manipulation window (220a, 420b, 520a, 620a, 720b, 820b) in response to the eye-guided input of control commands. 2. Systemet enligt krav 1, kännetecknat av att bearbetnings- modulen (145) är anpassad att bestämma det aktiva styrobjektet (220A; 420B; 520A; 620A, 720B, 820B) baserat på rörelsesek- vensen hos blickpunkten (130) relativt aktiveringszonen (430, 10 15 20 25 30 529 156 26 530, 630, 730, 830).The system of claim 1, characterized in that the processing module (145) is adapted to determine the active control object (220A; 420B; 520A; 620A, 720B, 820B) based on the motion sequence of the gaze point (130) relative to the activation zone (430). , 10 15 20 25 30 529 156 26 530, 630, 730, 830). 3. Systemet enligt krav 2, kännetecknat av att rörelsesek- vensen hos blickpunkten (130) baserad på vilken bearbetnings- modulen (145) är anpassad att bestämma det aktiva styrobjektet (220A; 420B; 520A; 720B, 820B) innefattar en första sackad från aktiveringszonen (430, 530, 730, 830).The system of claim 2, characterized in that the motion sequence of the gaze point (130) based on which the machining module (145) is adapted to determine the active control object (220A; 420B; 520A; 720B, 820B) comprises a first sacked from activation zones (430, 530, 730, 830). 4. Systemet enligt något av föregående krav, kännetecknat av att det åtminstone ett styrkommandot uttrycker åtminstone endera av: en navigeringsriktning (RW, DW, LW, 130d) för en markör- symbol (231, 331, 431, 531, 631) med avseende på skärmen (150), _ en rotation av åtminstone en skärmobjektsrepresentation (740) av åtminstone en GUI-komponent på skärmen (150), en färgförändring av åtminstone en skärmrepresentation (840) av åtminstone en GUI-komponent på skärmen (150), och en texturmodifiering av åtminstone en skärmrepresentation av åtminstone en GUI-komponent på skärmen (150).The system according to any of the preceding claims, characterized in that it at least one control command expresses at least one of: a navigation direction (RW, DW, LW, 130d) of a marker symbol (231, 331, 431, 531, 631) with respect to on the screen (150), a rotation of at least one screen object representation (740) of at least one GUI component on the screen (150), a color change of at least one screen representation (840) of at least one GUI component on the screen (150), and a texture modification of at least one screen representation of at least one GUI component on the screen (150). 5. Systemet enligt krav 4, kännetecknat av att det åtmins- tone ett styrkommandot uttrycker en navigeringsriktning (RW, DW, LW, 130d) för en markörsymbol (231, 331, 431, 531, 631) med avseende på skärmen (150) och bearbetningsmodulen (145) är anpassad att: urskilja en navigeringsriktning (RW, DW, LW, 130d) från en första sackad relativt aktiveringszonen (430, 530), och förflytta en markörsymbol (231, 331, 631) över skärmen (150) i enlighet med navigeringsriktningen (RW, DW, LW, 130d).The system according to claim 4, characterized in that at least one control command expresses a navigation direction (RW, DW, LW, 130d) of a cursor symbol (231, 331, 431, 531, 631) with respect to the screen (150) and the processing module (145) is adapted to: distinguish a navigation direction (RW, DW, LW, 130d) from a first sag relative to the activation zone (430, 530), and move a cursor symbol (231, 331, 631) across the screen (150) accordingly with the navigation direction (RW, DW, LW, 130d). 6. Systemet enligt krav 5, kännetecknat av att bearbetnings- modulen (145) är anpassad att presentera en uppsättning styrobjekt (220A, 220B, 220C, 220D; 420A, 420B, 42OC, 420D; 520A; 620) på skärmen (150), där varje styrobjekt i uppsätt- ningen är anpassat att indikera en respektive navigeringsriktning 10 15 20 25 30 529 156 27 (RW, DW, LW, 130d) för en markörsymbol symbol (231, 331, 431, 531, 631) relativt en informationsarea (240, 340, 440, 540, 640)The system of claim 5, characterized in that the processing module (145) is adapted to present a set of control objects (220A, 220B, 220C, 220D; 420A, 420B, 42OC, 420D; 520A; 620) on the screen (150), where each control object in the set is adapted to indicate a respective navigation direction 10 15 20 25 30 529 156 27 (RW, DW, LW, 130d) for a cursor symbol symbol (231, 331, 431, 531, 631) relative to an information area ( 240, 340, 440, 540, 640) 7. Systemet enligt krav 6, kännetecknat av att bearbetnings- modulen (145) är anpassad att: presentera uppsättningen styrobjekt (220A. 220B. 2200. 220D) på skärmen (150) på ett sådant sätt att nämnda uppsätt- ning förflyttas gradvis över skärmen (150) i enlighet med navi- geringsriktningen (RW), och förflytta markören (231, 331, 431, 531, 631) över skärmen (150) i enlighet med navigeringsriktningen (RW).The system according to claim 6, characterized in that the processing module (145) is adapted to: present the set of control objects (220A. 220B. 2200. 220D) on the screen (150) in such a way that said set is gradually moved across the screen (150) according to the navigation direction (RW), and move the cursor (231, 331, 431, 531, 631) across the screen (150) according to the navigation direction (RW). 8. Systemet enligt krav 6, kännetecknat av att bearbetnings- modulen (145) är anpassad att presentera uppsättningen styrobjekt (420A, 420B, 420C, 420D; 620) vid fixa positioner på skärmen (150), och förflytta markören (431, 631) över skärmen (150) i enlighet med navigeringsriktningen (DW, LW).The system according to claim 6, characterized in that the processing module (145) is adapted to present the set of control objects (420A, 420B, 420C, 420D; 620) at fixed positions on the screen (150), and to move the cursor (431, 631) across the screen (150) according to the navigation direction (DW, LW). 9. Systemet enligt något av föregående krav, kännetecknat av att skärmen (150) presenterar en informationsarea (640) innefattande redigerbara symboler, och att bearbetningsmodulen (145) är anpassad att: bestämma åtminstone en tillagd symbol baserat på en rörelsesekvens hos blickpunkten (130) över ett antal skärmob- jekt (620, 621, 622) visuellt representerande GUI-komponenter hos ett mjukvarutangentbord på skärmen (150), och lägga till åtminstone en tillagd symbol till symbolerna i in- formationsarean (640).The system according to any of the preceding claims, characterized in that the screen (150) presents an information area (640) comprising editable symbols, and that the processing module (145) is adapted to: determine at least one added symbol based on a sequence of motion of the gaze (130) over a number of screen objects (620, 621, 622) visually representing GUI components of an on-screen software keyboard (150), and adding at least one added symbol to the symbols in the information area (640). 10. Systemet enligt något av föregående krav, kännetecknat av att skärmen (150) presenterar en informationsarea (640) innefattande redigerbara symboler, och att bearbetningsmodulen (145) är anpassad att: undersöka huruvida blickpunkten (130) uppfyller ett aktive- ringskriterium med avseende på ett aktivt styrobjekt (620A) rep- 10 15 20 25 30 529 156 28 resenterande en raderingsknapp, och om ett sådant kriterium befinns vara uppfyllt radera en underuppsättning av symboler, där underupp- sättningen innefattar åtminstone en av de redigerbara symbo- lerna.The system according to any of the preceding claims, characterized in that the screen (150) presents an information area (640) comprising editable symbols, and that the processing module (145) is adapted to: examine whether the gaze point (130) meets an activation criterion with respect to an active control object (620A) representing a delete button, and if such a criterion is found to be deleted, delete a subset of symbols, the subset comprising at least one of the editable symbols. 11. Systemet enligt något av kraven 1 till 8, kännetecknat av att uppsättningen styrobjekt innefattar ett enstaka styrobjekt (520A), och bearbetningsmodulen (145) är anpassad att: bestämma en målplacering för en första sackad (130d) utanför aktiveringszonen (530), presentera det enstaka styrobjektet (520A) vid målplace- ringen, där det enstaka styrobjektet (520A) inkluderar ett data- manipuleringsfönster (520a), och förflytta markörsymbolen (531) över skärmen (150) i en- lighet med en navigeringsriktning (130d) uttryckt av den första sackaden.The system according to any one of claims 1 to 8, characterized in that the set of control objects comprises a single control object (520A), and the processing module (145) is adapted to: determine a target location for a first sack (130d) outside the activation zone (530), present the single control object (520A) at the target location, the single control object (520A) including a data manipulation window (520a), and moving the cursor symbol (531) across the screen (150) according to a navigation direction (130d) expressed by the first sack. 12. Systemet enligt något av föregående krav, kännetecknat av att bearbetningsmodulen (145) är anpassad att: undersöka huruvida blickpunkten (130) uppfyller ett deak- tiveringskriterium med avseende på styrobjektet objekt (220A; 420B; 52OA; 620A, 720B, 820B), och om ett sådant kriterium befinns vara uppfyllt deaktivera det aktiva styrobjektet (220A; 420B; 520A; 620A, 720B,820B)The system according to any one of the preceding claims, characterized in that the processing module (145) is adapted to: examine whether the gaze point (130) meets a deactivation criterion with respect to the control object (220A; 420B; 52OA; 620A, 720B, 820B), and if such a criterion is found to be met, deactivate the active control object (220A; 420B; 520A; 620A, 720B, 820B) 13. En metod för styrning av en datorapparat knuten till en grafisk skärm (150), där datorapparaten är anpassad att presen- tera en respektive skärmrepresentation av åtminstone en GUI- komponent på skärmen (150), där metoden innefattar: bestämning av en användares (100) blickpunkt (130) på skärmen (150) och som svar till rörelsesekvenser hos blick- punkten (130) över skärmen (150) inmatning av styrkommandon till datorapparaten-(140), alstring av grafisk återkopplingsinformation (DFB) för pre- 10 15 20 25 30 529 156 29 sentation på skärmen (150) för att visuellt bekräfta inmatade kommandon, kännetecknad av undersökning huruvida rörelsesekvensen hos blickpunkten (130) uppfyller ett aktiveringskriterium med avseende på en aktlveringszon (430, 530, 630, 730, 830) för vart och ett av de åtminstone ett styrkommandona, och om ett sådant aktiverings- kriterium befinns vara uppfyllt presentering av ett datamanipuleringsfönster (220a, 420b, 520a, 620a, 720b, 820b) vid en position relativt ett aktivt styr- objekt (220A; 420B; 520A; 620A, 720B, 820B) på skärmen (150) så att en mittpunkt hos fönstret befinner sig inom ett relativt litet förskjutningsavstånd från en mittpunkt hos det aktiva styrob- jektet, där fönstret innefattar grafisk information som symbo- liserar en aktivitetsdel (210) av skärmen (150) vilken för närva- rande är föremål för ögonstyrningsinmatning av styrkommandon, och upprepad uppdatering av informationen i datamanipule- ringsfönstret (220a, 420b, 520a, 620a, 720b, 820b) som svar på den ögonstyrda inmatningen av styrkommandon.A method of controlling a computer apparatus attached to a graphical display (150), the computer apparatus being adapted to present a respective screen representation of at least one GUI component on the screen (150), the method comprising: determining a user's ( 100) focus point (130) on the screen (150) and in response to motion sequences of the point of view (130) across the screen (150) input control commands to the computer (140), generating graphical feedback information (DFB) for pre- Position on the screen (150) to visually confirm input commands, characterized by examining whether the motion sequence of the gaze (130) meets an activation criterion with respect to an activation zone (430, 530, 630, 730, 830) for each and one of the at least one control commands, and if such an activation criterion is found to be met, presenting a data manipulation window (220a, 420b, 520a, 620a, 720b, 820b) at a position relative to an ak active control object (220A; 420B; 520A; 620A, 720B, 820B) on the screen (150) so that a center point of the window is within a relatively small displacement distance from a center point of the active control object, the window including graphical information symbolizing an activity portion (210) of the screen (150) which is currently subject to eye control input of control commands, and repeatedly updating the information in the data manipulation window (220a, 420b, 520a, 620a, 720b, 820b) in response to the eye-guided input of control commands. 14. Metoden enligt krav 13, kännetecknad av bestämning av det aktiva styrobjektet (220A; 420B; 520A; 620A, 720B, 820B) baserat på rörelsesekvensen hos blickpunkten (130) relativt aktiveringszonen (430, 530, 630, 730, 830).The method according to claim 13, characterized by determining the active control object (220A; 420B; 520A; 620A, 720B, 820B) based on the motion sequence of the gaze point (130) relative to the activation zone (430, 530, 630, 730, 830). 15. Metoden enligt krav 14, kännetecknad av att rörelsesek- vensen hos blickpunkten (130) baserad på vilken bearbetnings- modulen (145) är anpassad att bestämma det aktiva styrobjektet (220A; 420B; 520A; 720B, 820B) innefattar en första sackad från aktiveringszonen (430, 530, 730, 830).The method of claim 14, characterized in that the motion sequence of the gaze point (130) based on which the processing module (145) is adapted to determine the active control object (220A; 420B; 520A; 720B, 820B) comprises a first sacked from activation zones (430, 530, 730, 830). 16. Metoden enligt något av kraven 13 till 15, kännetecknad av att det åtminstone ett styrkommandot uttrycker åtminstone endera av: en navigeringsriktning (RW, DW, LW, 130d) för en markör- 10 15 20 25 30 529 156 30 symbol (231, 331, 431, 531, 631) med avseende på skärmen (150), en rotation av åtminstone en skärmobjektsrepresentation (740) av åtminstone en GUI-komponent på skärmen (150), en färgförändring av åtminstone en skärmrepresentation (840) av åtminstone en GUI-komponent på skärmen (150), och en texturmodifiering av åtminstone en skärmrepresentation av åtminstone en GUI-komponent på skärmen (150).The method according to any one of claims 13 to 15, characterized in that the at least one control command expresses at least one of: a navigation direction (RW, DW, LW, 130d) for a marker symbol (231, 331, 431, 531, 631) with respect to the screen (150), a rotation of at least one screen object representation (740) of at least one GUI component on the screen (150), a color change of at least one screen representation (840) of at least one GUI on-screen component (150), and a texture modification of at least one screen representation of at least one on-screen GUI component (150). 17. Metoden enligt krav 16, kännetecknad av att det åtmins- tone ett styrkommandot uttrycker en navigeringsriktning (RW, DW, LW, 130d) för en markörsymbol symbol (231, 331, 431, 531, 631) med avseende på skärmen (150) och metoden innefattar: urskiljning av en navigeringsriktning (RW, DW, LW, 130d) från en första sackad relativt aktiveringszonen (430, 530), och förflyttning av en markörsymbol (231, 331, 631) över skär- men (150) i enlighet med navigeringsriktningen (RW, DW, LW, 130d)The method according to claim 16, characterized in that at least one control command expresses a navigation direction (RW, DW, LW, 130d) of a cursor symbol (231, 331, 431, 531, 631) with respect to the screen (150) and the method comprises: distinguishing a navigation direction (RW, DW, LW, 130d) from a first sagged relative activation zone (430, 530), and moving a cursor symbol (231, 331, 631) across the screen (150) according to with the navigation direction (RW, DW, LW, 130d) 18. Metoden enligt krav 17, kännetecknad av presentering av en uppsättning styrobjekt (220A, 220B, 22OC, 22OD; 420A, 420B, 420C, 420D; 520A; 620) på skärmen (150), där varje styr- objekt i uppsättningen är anpassat att indikera en respektive navigeringsriktning (RW, DW, LW, 130d) för en markörsymbol symbol (231, 331, 431, 531, 631) relativt en informationsarea (240, 340, 440, 540, 640).The method according to claim 17, characterized by presenting a set of control objects (220A, 220B, 22OC, 22OD; 420A, 420B, 420C, 420D; 520A; 620) on the screen (150), each control object in the set being adapted to indicate a respective navigation direction (RW, DW, LW, 130d) of a cursor symbol (231, 331, 431, 531, 631) relative to an information area (240, 340, 440, 540, 640). 19. Metoden enligt krav 18, kännetecknad av: presentering av uppsättningen styrobjekt (22OA, 220B, 22OC, 220D) på skärmen (150) på ett sådant sätt att nämnda uppsättning förflyttas gradvis över skärmen (150) i enlighet med navigeringsriktningen (RW), och förflyttning av markören (231, 331, 431, 531, 631) över skärmen (150) i enlighet med navigeringsriktningen (RW).The method according to claim 18, characterized by: presenting the set of control objects (22OA, 220B, 22OC, 220D) on the screen (150) in such a way that said set is gradually moved across the screen (150) according to the navigation direction (RW), and moving the cursor (231, 331, 431, 531, 631) across the screen (150) according to the navigation direction (RW). 20. Metoden enligt krav 18, kännetecknad av: 10 15 20 25 30 529 156 31 presentering av uppsättningen styrobjekt (42OA, 420B, 420C, 420D; 620) vid fixa positioner på skärmen (150), och förflyttning av markören (431, 631) över skärmen (150) i enlighet med navigeringsriktningen (DW, LW).The method according to claim 18, characterized by: presenting the set of control objects (42OA, 420B, 420C, 420D; 620) at fixed positions on the screen (150), and moving the cursor (431, 631 ) across the screen (150) according to the navigation direction (DW, LW). 21. Metoden enligt något av kraven 13 till 20, kännetecknad av att skärmen (150) presenterar en informationsarea (640) innefattande redigerbara symboler, och metoden innefattar: bestämning av åtminstone en tillagd symbol baserat pà en rörelsesekvens hos blickpunkten (130) över ett antal skärmob- jekt (620, 621, 622) visuellt representerande GUI-komponenter hos ett mjukvarutangentbord på skärmen (150), och tilläggning av åtminstone en tillagd symbol till symbolerna i informationsarean (640).The method according to any one of claims 13 to 20, characterized in that the screen (150) presents an information area (640) comprising editable symbols, and the method comprises: determining at least one added symbol based on a movement sequence of the gaze point (130) over a number screen objects (620, 621, 622) visually representing GUI components of an on-screen software keyboard (150), and adding at least one added symbol to the symbols in the information area (640). 22. Metoden enligt något av kraven 13 till 21, kännetecknad av att skärmen (150) presenterar en informationsarea (640) innefattande redigerbara symboler, och metoden innefattar: undersökning huruvida blickpunkten (130) uppfyller ett ak- tiveringskriterium med avseende på ett aktivt styrobjekt (620A) representerande en raderingsknapp, och om ett sådant kriterium befinns vara uppfyllt radering av en underuppsättning av symboler, där under- uppsättningen innefattar åtminstone en av de redigerbara symbolerna.The method according to any one of claims 13 to 21, characterized in that the screen (150) presents an information area (640) comprising editable symbols, and the method comprises: examining whether the gaze point (130) meets an activation criterion with respect to an active control object ( 620A) representing an erase button, and if such a criterion is found to be fulfilled erasing a subset of symbols, the subset comprising at least one of the editable symbols. 23. Metoden enligt något av kraven 13 till 17, kännetecknad av att uppsättningen styrobjekt innefattar ett enstaka styrobjekt (520A), och metoden innefattar: bestämning av en málplacering för en första sackad (130d) utanför aktiveringszonen (530), presentering av det enstaka styrobjektet (520A) vid mål- placeringen, där det enstaka styrobjektet (520A) inkluderar ett datamanipuleringsfönster (520a), och förflyttning av markörsymbolen (531) över skärmen (150) i enlighet med en navigeringsriktning (130d) uttryckt av den första 10 15 529 156 32 sackaden.The method according to any one of claims 13 to 17, characterized in that the set of control objects comprises a single control object (520A), and the method comprises: determining a target location for a first sacked (130d) outside the activation zone (530), presenting the single control object (520A) at the target location, where the single control object (520A) includes a data manipulation window (520a), and moving the cursor symbol (531) across the screen (150) in accordance with a navigation direction (130d) expressed by the first 529 156 32 sackaden. 24. Metoden enligt något av kraven 13 till 23, kännetecknad av: undersökning huruvida blickpunkten (130) uppfyller ett de- aktiveringskriterium med avseende på styrobjektet objekt (220A; 420B; 520A; 620A, 720B, 8208), och om ett sådant kriterium befinns vara uppfyllt deaktivering av det aktiva styrobjektet (220A; 420B; 520A; 620A, 7208, 820B).The method according to any one of claims 13 to 23, characterized by: examining whether the gaze (130) meets a deactivation criterion with respect to the control object (220A; 420B; 520A; 620A, 720B, 8208), and if such a criterion exists be disabled deactivation of the active control object (220A; 420B; 520A; 620A, 7208, 820B). 25. Ett datorprogram direkt laddbart till internminnet hos en dator innefattande mjukvara för styrning av stegen enligt något av kraven 13 till 24 då nämnda program körs på datorn.A computer program directly loadable into the internal memory of a computer comprising software for controlling the steps according to any one of claims 13 to 24 when said program is run on the computer. 26. Ett datorläsbart medium (146) med ett därpå lagrat program, där programmet är ägnat att förmå en dator att styra stegen enligt något av kraven 13 till 24.A computer readable medium (146) having a program stored thereon, the program being adapted to cause a computer to control the steps of any of claims 13 to 24.
SE0502398A 2005-10-28 2005-10-28 Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object SE529156C2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
SE0502398A SE529156C2 (en) 2005-10-28 2005-10-28 Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object
ES06844032T ES2730217T3 (en) 2005-10-28 2006-10-19 Eye Tracker with Visual Feedback
PCT/SE2006/050411 WO2007050029A2 (en) 2005-10-28 2006-10-19 Eye tracker with visual feedback
CN2006800401797A CN101297259B (en) 2005-10-28 2006-10-19 Eye tracker with visual feedback
US12/090,282 US8120577B2 (en) 2005-10-28 2006-10-19 Eye tracker with visual feedback
EP06844032.0A EP1943583B1 (en) 2005-10-28 2006-10-19 Eye tracker with visual feedback
JP2008537646A JP4961432B2 (en) 2005-10-28 2006-10-19 Eye tracker with visual feedback

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0502398A SE529156C2 (en) 2005-10-28 2005-10-28 Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object

Publications (2)

Publication Number Publication Date
SE0502398L SE0502398L (en) 2007-04-29
SE529156C2 true SE529156C2 (en) 2007-05-15

Family

ID=38048094

Family Applications (1)

Application Number Title Priority Date Filing Date
SE0502398A SE529156C2 (en) 2005-10-28 2005-10-28 Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object

Country Status (4)

Country Link
JP (1) JP4961432B2 (en)
CN (1) CN101297259B (en)
ES (1) ES2730217T3 (en)
SE (1) SE529156C2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11209900B2 (en) 2017-04-03 2021-12-28 Sony Corporation Information processing device and information processing method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
CN101840265B (en) * 2009-03-21 2013-11-06 深圳富泰宏精密工业有限公司 Visual perception device and control method thereof
CN101943982B (en) 2009-07-10 2012-12-12 北京大学 Method for manipulating image based on tracked eye movements
CN101950200B (en) * 2010-09-21 2011-12-21 浙江大学 Camera based method and device for controlling game map and role shift by eyeballs
KR101850035B1 (en) * 2012-05-02 2018-04-20 엘지전자 주식회사 Mobile terminal and control method thereof
TW201403454A (en) * 2012-07-05 2014-01-16 Asustek Comp Inc Screen rotating method and system
EP2877909B1 (en) * 2012-07-27 2018-12-26 Nokia Technologies Oy Multimodal interaction with near-to-eye display
CN104216508B (en) * 2013-05-31 2017-05-10 中国电信股份有限公司 Method and device for operating function key through eye movement tracking technique
TW201539251A (en) * 2014-04-09 2015-10-16 Utechzone Co Ltd Electronic apparatus and method for operating electronic apparatus
CN106020591A (en) * 2016-05-10 2016-10-12 上海青研信息技术有限公司 Eye-control widow movement technology capable of achieving human-computer interaction
CN106155326A (en) 2016-07-26 2016-11-23 北京小米移动软件有限公司 Object identifying method in virtual reality communication and device, virtual reality device
KR102574874B1 (en) * 2017-02-03 2023-09-05 베스텔 일렉트로닉 사나이 베 티카레트 에이에스 Improved method and system for video conference using head mounted display (HMD)
CN109753143B (en) * 2018-04-16 2019-12-13 北京字节跳动网络技术有限公司 method and device for optimizing cursor position
WO2020100422A1 (en) * 2018-11-12 2020-05-22 ソニー株式会社 Display device, display control method, and program
CN112232255B (en) * 2020-10-26 2022-11-01 北京鹰瞳科技发展股份有限公司 Identity authentication method and equipment based on multi-mode data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0822385A (en) * 1994-02-22 1996-01-23 Nippon Hoso Kyokai <Nhk> Method and device for displaying line of sight correspondence
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP3753882B2 (en) * 1999-03-02 2006-03-08 株式会社東芝 Multimodal interface device and multimodal interface method
EP1248465A4 (en) * 1999-11-30 2005-06-22 Ecchandes Inc Data acquisition system, artificial eye, vision device, image sensor and associated device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11209900B2 (en) 2017-04-03 2021-12-28 Sony Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
SE0502398L (en) 2007-04-29
CN101297259A (en) 2008-10-29
CN101297259B (en) 2010-12-15
JP4961432B2 (en) 2012-06-27
JP2009514090A (en) 2009-04-02
ES2730217T3 (en) 2019-11-08

Similar Documents

Publication Publication Date Title
SE529156C2 (en) Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object
US8120577B2 (en) Eye tracker with visual feedback
US10452140B2 (en) Generation of graphical feedback in a computer system
US20180307324A1 (en) Arrangement, method and computer program for controlling a computer apparatus based on eye-tracking
KR101331655B1 (en) Electronic data input system
KR101919009B1 (en) Method for controlling using eye action and device thereof
CA2773636C (en) Method and apparatus for using generic software applications by ocular control and suitable methods of interaction
US20110175932A1 (en) Eye tracker based contextual action
SE529599C2 (en) Computer system has data processor that generates feedback data based on absolute position of user&#39;s gaze point with respect to display during initial phase, and based on image data during phase subsequent to initial phase
KR20160109443A (en) Display apparatus using eye-tracking and method thereof

Legal Events

Date Code Title Description
NUG Patent has lapsed