EP2219749A2 - Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel - Google Patents

Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel

Info

Publication number
EP2219749A2
EP2219749A2 EP08864905A EP08864905A EP2219749A2 EP 2219749 A2 EP2219749 A2 EP 2219749A2 EP 08864905 A EP08864905 A EP 08864905A EP 08864905 A EP08864905 A EP 08864905A EP 2219749 A2 EP2219749 A2 EP 2219749A2
Authority
EP
European Patent Office
Prior art keywords
user
representation
virtual environment
appearance
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP08864905A
Other languages
German (de)
English (en)
Inventor
Louis Pare
Yves Scotto D'apollonia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of EP2219749A2 publication Critical patent/EP2219749A2/fr
Ceased legal-status Critical Current

Links

Classifications

    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5573Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history player location
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the present invention relates to the implementation and control of virtual environments, for example "virtual worlds", allowing for example for users to meet virtually and communicate through their respective terminals. More precisely, the invention relates to the display, the reproduction and / or the deletion of the representations of the users operating in these virtual environments, on the different terminals on which these representations can be viewed.
  • virtual environments for example "virtual worlds”
  • the invention relates to the display, the reproduction and / or the deletion of the representations of the users operating in these virtual environments, on the different terminals on which these representations can be viewed.
  • a virtual environment can be seen as a representation of a particular universe at which real-world users are present, in the form of avatars.
  • An avatar is a representation, defined using a set of parameters. 'an user.
  • Such a representation may in particular be in the form of an image or an animated object, taking on a human or fancy appearance.
  • Such a representation is generally constructed from calculations, sometimes complex, made from different parameters specific to a user.
  • Such a representation can be in two or three dimensions and evolve in real time as well according to parameters and / or actions performed by the user in the virtual environment as a function of actions performed by others users (or by their respective avatars) evolving within the same virtual environment.
  • a virtual environment is said to be “immersive" when the user is immersed in it by means of a representation of a space and users, for example in three dimensions. the user. 2.
  • a first user may wish to contact a second user through their respective avatars.
  • the avatar of the second user is not located near the avatar of the first user, it is necessary that the avatar of the first user joins the avatar of the second user.
  • the avatar of the first user must be able to join the avatar of the second user in a different region of the same virtual environment, or even in a separate virtual environment.
  • the representation of one of the users disappears for join the representation of the other user, and appears directly next to the representation of the other user.
  • the avatar of the first user disappears from its original position and appears at once next to the avatar of the second user.
  • This technique of displaying avatars by appearance, and removal of avatars by disappearance, is also implemented when the avatar of a user arrives in a virtual world or leaves a virtual world
  • a disadvantage of this positioning technique is that 'she is not natural for other users Indeed, other users see or suddenly disappear an avatar on their respective terminals, which slice and is not possible in real life.
  • the invention proposes a new solution that does not have these drawbacks of the prior art, in the form of a method for managing the display of a representation of a user in a virtual environment. wherein a plurality of user representations evolve.
  • such a method implements the following steps, for a given user: determination of a destination zone in the virtual environment in which the representation of the user must go; determining an area of appearance of the representation in the virtual environment; - display of the representation in the area of appearance; and automatically moving the representation of the area of appearance to the destination area
  • zone is meant in particular one or more sets of coordinates, each defining a location point in the virtual environment.
  • a “zone” may be a precise point in the virtual space, or a region of proximity around a chosen point (for example to allow the exact point of appearance to be adapted according to the needs, within this region).
  • the invention is based on a new and inventive approach to the management of the display of a representation of a user, also called avatar, in a virtual environment
  • This display corresponds to the appearance, sudden or gradual, of the avatar in the virtual environment.
  • Such a method is for example implemented when a new user wishes to enter a virtual environment, through his avatar, or move from a virtual environment to another virtual environment, or even move inside. in the same virtual environment
  • the invention proposes to show the representation of the user at a first location, called area of appearance, different from where the user wants his representation to go. This step of displaying the representation in the zone of appearance allows a different and adapted restitution on the terminals of the users present in the world. Next, the invention provides for automatically moving this representation to a second location, called the destination zone. .
  • the step of determining an area of occurrence selects an area of occurrence from a group of at least one predefined appearance area in the virtual environment
  • it may exist in the virtual environment one or more areas dedicated to displaying avatars
  • Each of these areas may have a predefined area of appearance, for example a perimeter around a statue in the central square of the village, around a large tree in the forest, or around a restaurant on the edge from the beach.
  • appearance zones can also be predefined in the same region of the virtual environment.
  • An appearance zone can then be chosen from several predefined zones so as to minimize the trajectory to be followed during the automatic movement.
  • the step of determining an area of appearance selects an area of appearance located outside the field of view of the representation of at least one other user in the virtual environment.
  • the avatar of a user can for example appear behind the statue, or behind the big tree, or behind the restaurant.
  • the avatar of this user is hidden, and does not enter the field of vision of the avatar of another user.
  • the appearance zone is located outside the fields of view of all the users present in the virtual environment.
  • the zone of appearance is located outside the fields of view of some of the users present in the environment. virtual. For example, one can ignore the field of view of avatars who are discussing with each other, and who will not pay attention to the appearance of another avatar in their field of vision.
  • the step of determining an apparition zone comprises a prior step of storing the positions and fields of view of the representations of the other users in said virtual environment.
  • the zone of appearance is thus determined by comparing the fields of view of the representations of one or more other users of the virtual environment, and by extracting from this comparison the zones of the virtual environment that are not present in any of these areas. field of view. It is then possible to select the area of appearance closest to the destination zone in which the representation of the first user is to go.
  • the step of determining a destination zone implements: a step of obtaining a location information of a representation of a second user in the virtual environment; a step of obtaining the destination zone from the location information.
  • this characteristic it is considered according to this characteristic that the given user, still called the first user, tries to get closer to a second user, via their respective avatars.
  • this second user is chosen by the first user based on the visual aspect of his avatar or on characteristics defined by this user.
  • the destination zone is then determined, for example by defining an outline relative to one or more referential (s) given (s), such as the location of the avatar of the user that we seek to join.
  • the automatic moving step comprises a preliminary step (and if necessary repeated) of updating the destination zone.
  • the avatar of the second user is on the move.
  • the destination zone can be updated according to a displacement of the second user. This updating step can be implemented several times during the displacement of the second user, or only once when the second user stops at the end of displacement.
  • the destination zone can also be updated if the avatar of a third user appears near the avatar of the second user. In this situation, the destination zone is for example enlarged to "encompass" the avatar of the third user.
  • the automatic displacement step comprises a step of determining a trajectory to be followed by the representation to reach the destination zone.
  • This path allows for example to respect the environment, following a sidewalk for example, and avoiding fixed obstacles (such as trees, statues, panels, etc.) or mobile (as the representations of other users). It may therefore be necessary to update the calculation of the trajectory during the step of automatically moving the avatar. For example, this path is chosen to approach the destination area by one side of the visual field of the second user.
  • the exit direction of the appearance zone takes into account the position and / or field of view of at least one other user.
  • the appearance area includes a door separating a store from the street
  • the avatar of a first user seems to come from the street and enter the store if the avatar of a second user is in the store .
  • the avatar of a second user is in the street
  • the avatar of the first user seems to come from the store and go out on the street.
  • the representation performs predetermined movements during the automatic displacement step.
  • she waved her greetings to the second and / or other users, or she ran and spread her arms to join the second user's avatar, and so on.
  • the invention relates to a computer program product downloadable from a communication network and / or recorded on a computer-readable and / or executable medium by a processor, including program code instructions for the computer. execution of the management method of displaying a representation of a user as described above.
  • a management entity of user representations in at least one virtual environment comprising: means for determining a destination area in one of the virtual environments, in which a representation of a user is to travel; means for determining an appearance zone of the representation in the virtual environment; means for managing the display of the representation in the area of appearance; means for automatically moving the representation of the zone of appearance towards the zone of destination.
  • Such an entity is particularly capable of implementing the management method described above.
  • This is for example a server managing the representations of users operating in a virtual environment.
  • a user terminal connected to a user representation management entity in at least one virtual environment, comprising: means for managing the display of a representation of a user in a an area of appearance in a virtual environment, determined by said management entity; means for automatically moving said representation of said area of appearance to a destination area of said virtual environment, in which said representation is to go.
  • a terminal may also comprise means for determining the destination zone and means for determining the zone of appearance, according to its capabilities.
  • the invention also relates to a method, which can be complementary of the above, managing the deletion of a representation of a user in a virtual environment in which a plurality of user representations evolves.
  • such a method comprises the following steps, for a given user: determination of a disappearance zone in the virtual environment; automatic movement of the user's representation to the disappearance zone; deletion of the representation when it is in said disappearing zone.
  • Such a management method is for example implemented when a user wishes to leave a virtual environment, through his avatar, or move from a virtual environment to another virtual environment, or even move inside. of the same virtual environment. It makes it possible in particular to avoid unnatural behaviors in the impression of immersion in a virtual world during the removal of avatars, occurring for example during the disconnection of a user, or during a displacement of a region. to another or from one virtual environment to another. In particular, it is recalled that an avatar deleted in one region of a virtual environment may be displayed in another region of the same environment, or in a region of another virtual environment.
  • the moving of the user's avatar is automatically supported for example by the user's terminal or the user representation management entity in the virtual environment.
  • the step of determining a disappearance zone selects a disappearance zone from a group of at least one disappearance zone predefined in the virtual environment. These zones correspond, for example, to the previously mentioned zones of appearance. According to a particular aspect of the invention, the step of determining a disappearance zone selects a disappearance zone located outside the field of view of the representation of at least one other user in the virtual environment.
  • this disappearing zone can be updated according to the movements of the users.
  • the step of determining a disappearance zone may also include a prior step of storing positions and fields of view of the representations of other users in the virtual environment.
  • the step of automatic displacement during the deletion of a representation may include a step of determining a trajectory to be followed by the representation to reach said destination zone.
  • the representation can perform predetermined movements.
  • the invention also relates to a computer program product downloadable from a communication network and / or recorded on a computer readable medium and / or executable by a processor, comprising program code instructions for executing the management method. the deletion of a representation of a user as described above, when said program is executed on a computer.
  • a user representation management entity in at least one virtual environment, comprising: means for determining a disappearance area in the virtual environment; means for automatically moving a representation of a user towards the disappearance zone; means for managing the suppression of the representation when it is in said disappearing zone.
  • Yet another aspect of the invention relates to a user terminal connected to a user representation management entity in at least one a virtual environment, comprising means for automatically moving a representation of a user to a disappearance zone, determined by said management entity; means for managing the suppression of the representation when it is in said disappearance zone.
  • FIG. 1 illustrates an example of a general system for implementing the method of the invention
  • FIG. 2 presents the main steps of the display method according to one embodiment of the invention
  • FIG. 3 presents the main steps of the suppression method according to one embodiment of the invention
  • FIG. 4 illustrates a particular example of implementation of the display or suppression method according to the invention in a system as illustrated in FIG. 1
  • Figure 5 illustrates an exemplary implementation of the invention, in a region of a virtual environment representing a street and a store
  • FIG. 6 shows the structure of a device for managing the display and / or the deletion of a representation of a user according to a particular embodiment of the invention.
  • the invention proposes a new solution for managing the display and / or the deletion of a representation of a user in a virtual environment, making it possible to display or disappear this virtual representation (or avatar) in a natural way in a virtual environment, that is to say a way close to reality (in a real environment).
  • FIG. 1 illustrates more precisely an example of a system in which this new technique for managing the display / deletion of an avatar can be implemented.
  • a user 12 can access a virtual world 20, via a user terminal 11 (such as a computer or any other immersion system, for example a telephone, a PDA , etc).
  • a virtual world 20 comprises: one or more virtual spaces 21, representing for example a neighborhood, a city, a country, existing or imaginary; user representations, or avatars, representing 12 real-world users.
  • Such a system also comprises: a communication network 30 enabling the immersion terminals 11 to communicate with each other as well as with servers 40; servers 40, or control or management entities on servers, providing a coordinating, broadcasting and memorizing role.
  • the user 12 of the real world 10 is represented by his avatar 22 in the virtual world 20.
  • the user 12 controls his representation 22 and sees the visual field seen by this avatar 22 using the terminal User (also called immersion terminal) 11.
  • the terminal User also called immersion terminal
  • Figure 2 illustrates the main steps of the method of displaying a representation of a user in a virtual environment in which a plurality of user representations is evolving.
  • Such a method can be implemented in various ways, in particular in cable form or in software form
  • a destination zone in the virtual environment in which the representation of the user must go is determined, for a given user, still called first user, a destination zone in the virtual environment in which the representation of the user must go.
  • the identification data of this zone are stored, at least temporarily, in a memory
  • this destination zone corresponds to a meeting place with the avatar of a second user, or to a location defined by default when creating the virtual environment (such as the village center for example) .
  • a zone of appearance in the virtual environment is determined.
  • This zone of appearance is preferably located near the destination zone.
  • this zone may be chosen from a group comprising at least one predefined appearance zone in the virtual environment.
  • the identification data for this second zone is also stored, at least temporarily
  • the representation of the first user is displayed in the appearance zone.
  • this display is visible on the terminal of the first user, but not necessarily visible on the terminals of the other users.
  • area of appearance can be located out of the field of view representations of the avatars of other users in the virtual environment.
  • a processing can be performed, in each user terminal, to introduce, if necessary, the avatar concerned in the image returned to the user, taking into account the identification data of the area of appearance .
  • this processing can be performed by a server, or management entity, which then delivers to the different terminals the information necessary to adapt the rendered images.
  • a fourth step 54 the representation of the first user is automatically moved, that is to say without user intervention, from the zone of appearance to the destination zone.
  • a processing for calculating and updating the coordinates of the moving avatar is implemented, according to the stored coordinates of the points of appearance and destination, and if necessary other information, as detailed below.
  • the steps for determining the destination zone 51 and for determining the zone of appearance 52 may be implemented by a server or a management entity as described in relation to FIG. 1. These steps may also be be implemented by the terminal, if its capabilities permit.
  • the display steps 53 and displacement 54, less expensive in terms of resources, can be implemented by the user's terminal.
  • Figure 3 illustrates the main steps of the method of removing a representation of a user in a virtual environment in which a plurality of user representations evolves.
  • Such a method can be implemented in various ways, in particular in hard-wired form or in software form.
  • a disappearance zone is determined in the virtual environment.
  • This zone of disappearance is preferentially located near the avatar.
  • this zone may be chosen from a group comprising at least one predefined disappearance zone in the virtual environment.
  • the representation of the user is automatically moved, that is to say without user intervention, from its original position to the disappearing zone.
  • the representation is deleted when it enters (or remains for a certain time) in the disappearing zone.
  • FIG. 4 shows a particular example of implementation of the display or suppression method according to the invention in a system as illustrated in FIG. 1.
  • an avatar 200 can move, perform movements, communicate, ... in the virtual world 20.
  • This avatar 200 is driven by the user 12 in the real world 10.
  • the reception by the terminal 11 of a new final position of an avatar triggers calculation operations 102 of the initial positioning of the avatar in the new region or new environment, and avatar removal in the region or environment of origin.
  • the calculation operations 102 make it possible to determine an apparition zone 402 (respectively of disappearance), located near the destination zone (respectively of the current position of the avatar), and situated outside the fields of view of the avatars present in the virtual world.
  • this container 300 for example a file or a database, stores the positions and the fields of view 401 of the avatars in the virtual world, at a given moment.
  • the zone of appearance (or disappearance) is thus determined by comparing the fields of view of the representations of one or more other users of the virtual environment, and by extracting from this comparison the zones of the virtual environment that are not present in none of these fields of vision
  • the appearance zone 402 is chosen from the predefined appearance zones (behind a tree, behind a statue, behind a restaurant, in the airlock between a store and the street, etc.) by calculating the distance between each zone. predefined appearance and the destination area. The selected zone of appearance then corresponds to the predefined appearance zone presenting the smallest distance to the zone of destination
  • its axis of vision is determined as being the intersection between the horizontal and vertical bisecting planes of its field of vision 401, in the virtual environment 20 from this axis of vision, and if consider a virtual environment
  • a next step 103 the avatar 200 is displayed, or "positioned", in this apparition zone 402 of the virtual world. Respectively, the avatar is removed from the disappearing zone. displacement 403 are transmitted to a pilot interface 104 of the immersive terminal 11 in the real world 10, which translates these displacement commands 403 into the virtual world 20 to move the avatar to the desired end position.
  • control interface 104 controls the movements of the avatar 200 in the virtual world 20.
  • the avatar 200 of the first user moves to get closer to the avatar of a second user
  • the avatar 200 can run to the avatar of the second user by spreading the arms, or make him a sign of the hand, to show him his affection. If the 200 avatar tries to leave the scene, he can leave by waving his hand.
  • the control interface 104 also controls the movements of the avatar 200 in the virtual world 20. For example, it determines a trajectory to be followed by the representation to reach the destination zone.
  • this trajectory is chosen so as to approach the destination zone by one side of the visual field of the avatar of the second user, or face the avatar of this second user.
  • the avatar of the first user can arrive in front of the avatar of the second user or by a side, and not behind, which makes it possible to optimize a progressive and natural appearance of the avatar of the first user in the field of view of the avatar of the second user.
  • this second user understands that the first user is trying to get in touch with him.
  • FIG. 5 illustrates an exemplary implementation of the invention, in a region of a virtual environment representing a street 61 and a store 62
  • the avatar of a first user seeks to relate to the avatar 64 of a second user. It is also considered that the avatar 64 is present in the magazine 62, and that the door 63 of the store is closed Whatever the direction towards which the avatar 64 looks, its field of vision is limited inside the store ( assuming there is no window, or that there are blackout blinds).
  • This destination zone 66 defines a perimeter around the avatar 64 inside the magazine 62. It could also correspond to the whole of the magazine 62. An area of appearance is then determined in which the avatar of the first user can to be posted
  • the appearance area 65 is selected from a set of predefined appearance areas in the virtual environment. It is noted that the portion of the appearance zone 65 located on the street side 61 is outside the field of view of the avatar 64.
  • the avatar of the first user can therefore appear in the portion of the appearance zone 65 located street 61, and cross the door 63 to enter the store 62 and join the avatar 64.
  • the destination zone corresponds to a portion of the street 61, located near the avatar 64
  • the avatar of the first user can then appear in the portion of the appearance zone 65 located on the store side 62, and pass the door 63 to leave the store 62 and join the avatar 64 in the street 61.
  • the direction of exit from the area of appearance takes into account the position and / or field of view of the avatar of at least one other user.
  • an avatar deleted in one region of a virtual environment may be displayed in another region of the same environment, or in a region of another virtual environment. Therefore, the same device can handle both the display, that is, the appearance, of an avatar in a new region, and the deletion, that is, the disappearance, of the avatar in his region of origin.
  • Such a device comprises a memory 71 consisting of a buffer memory, a processing unit 72, equipped for example with a microprocessor ⁇ P, and driven by the computer program 73, implementing the steps of the display method and / or deletion according to the invention.
  • the code instructions of the computer program 73 are for example loaded into a RAM memory before being executed by the processor of the processing unit 72.
  • the processing unit 72 receives as input information representative of a current location of a representation of the user and, if the avatar is to move around the world, an area in which the representation of the user is to go.
  • the microprocessor of the processing unit 72 implements the steps of the display or deletion methods described above, according to the instructions of the computer program 73, to determine an area of appearance, a destination area and automatically move. the avatar to this area, or to determine an area of disappearance and automatically move the avatar from its original location to that area.
  • the display and / or suppression device comprises, in addition to the buffer memory 71:
  • means for determining a destination zone in one of the virtual environments means for determining a zone of appearance in the virtual environment, means for managing the display of the representation in the zone of appearance, and means for automatically moving the representation of the area of appearance to the destination area;
  • means for determining a disappearance zone in the virtual environment means for automatically moving a representation of a user towards the disappearance zone, and means for managing the suppression of the representation when is in the disappearing area.

Abstract

L'invention concerne un procédé d'affichage d'une représentation (22) d'un utilisateur (12) dans un environnement virtuel (20) dans lequel une pluralité de représentations d'utilisateurs évolue. Selon l'invention, un tel procédé comprend les étapes suivantes, pour un utilisateur donné : détermination d'une zone de destination dans l'environnement virtuel dans laquelle la représentation de l'utilisateur doit se rendre; détermination d'une zone d'apparition dans l'environnement virtuel; affichage de la représentation dans la zone d'apparition; et déplacement automatique de la représentation de la zone d'apparition vers la zone de destination.

Description

Procédé de gestion de l'affichage ou de la suppression d'une représentation d'un utilisateur dans un environnement virtuel. 1. Domaine de l'invention
La présente invention concerne la mise en œuvre et le contrôle d'environnements virtuels, par exemple des « mondes virtuels », permettant par exemple à des utilisateurs de se rencontrer de façon virtuelle et de communiquer, par l'intermédiaire de leurs terminaux respectifs. Plus précisément, l'invention se rapporte à l'affichage, la restitution et/ou la suppression des représentations des utilisateurs évoluant dans ces environnements virtuels, sur les différents terminaux sur lesquels ces représentations peuvent être visualisées.
Dans la suite de ce document, on emploiera indifféremment les expressions « environnement virtuel » ou « monde virtuel », sans que cela ait d'influence sur la compréhension de l'invention.
Un environnement virtuel peut être vu comme une représentation d'un univers particulier au sem duquel des utilisateurs du monde réel sont présents, sous la forme d'avatars Un avatar est une représentation, définie à l'aide d'un ensemble de paramètres, d'un utilisateur. Une telle représentation peut notamment se présenter sous la forme d'une image ou d'un objet animé, prenant une apparence humaine ou de fantaisie. Ainsi, au sem d'un environnement virtuel dit « immersif », une telle représentation est généralement construite à partir de calculs, parfois complexes, réalisés à partir de différents paramètres propres à un utilisateur. Une telle représentation peut être en deux ou en trois dimensions et évoluer en temps réel aussi bien en fonction de paramètres et/ou d'actions réalisées par l'utilisateur dans l'environnement virtuel qu'en fonction d'actions réalisées par d'autres utilisateurs (ou par leurs avatars respectifs) évoluant au sein d'un même environnement virtuel. Un environnement virtuel est dit « immersif » quand l'utilisateur se trouve plongé au sein de celui-ci par l'intermédiaire d'une représentation d'un espace et d'utilisateurs, par exemple en trois dimensions On parle alors d'immersion de l'utilisateur. 2. Art antérieur
Dans un environnement virtuel, des rencontres entre avatars permettent aux utilisateurs représentés par ces avatars d'échanger entre eux
En particulier, un premier utilisateur peut souhaiter entrer en contact avec un deuxième utilisateur par l'intermédiaire de leurs avatars respectifs. Lorsque l'avatar du deuxième utilisateur n'est pas localisé à proximité de l'avatar du premier utilisateur, il est nécessaire que l'avatar du premier utilisateur rejoigne l'avatar du deuxième utilisateur. Par exemple, l'avatar du premier utilisateur doit pouvoir rejoindre l'avatar du deuxième utilisateur dans une région différente du même environnement virtuel, voire dans un environnement virtuel distinct.
Pour ce faire, certains systèmes proposent une « téléportation virtuelle », en faisant disparaître et réapparaître les avatars à n'importe quel endroit d'un environnement virtuel de destination.
Autrement dit, lorsque deux utilisateurs décident de se rapprocher dans le monde virtuel, ou lorsqu'un des utilisateurs décide de se rapprocher d'un second pour avoir des activités en commun, par exemple communiquer, la représentation de l'un des utilisateurs disparaît pour rejoindre la représentation de l'autre utilisateur, et apparaît directement à côté de la représentation de l'autre utilisateur.
Ainsi, lorsque le terminal du deuxième utilisateur a reçu les informations nécessaires, l'avatar du premier utilisateur disparaît de sa position d'origine et apparaît d'un seul coup à côté de l'avatar du deuxième utilisateur.
Les autres utilisateurs ayant des avatars présents dans la même région que le premier utilisateur constatent également, sur leurs écrans respectifs, la disparition subite de cet avatar, et les autres utilisateurs ayant des avatars présents dans la même région que le deuxième utilisateur constatent l'apparition subite du nouvel avatar.
Cette technique d'affichage des avatars par apparition, et de suppression des avatars par disparition, est également mise en œuvre lorsque l'avatar d'un utilisateur arrive dans un monde virtuel ou quitte un monde virtuel Un inconvénient de cette technique de positionnement est qu'elle n'est pas naturelle pour les autres utilisateurs En effet, les autres utilisateurs voient apparaître ou disparaître subitement un avatar sur leurs terminaux respectifs, ce qui tranche et n'est pas possible dans la vie réelle.
Or, afin que les rencontres dans le monde virtuel soient proches de la réalité, il est souhaitable que les avatars aient des comportements naturels
(notamment dans leurs mouvements et dans leurs déplacements), ce qui permet aux utilisateurs de se projeter dans le monde virtuel, et suscite leur envie de conserver la situation immersive.
Malheureusement, cette technique de positionnement classique supprime l'impression d'immersion pour les utilisateurs qui voient apparaître et disparaître les avatars selon un comportement non-conforme à la réalité L'intérêt pour la poursuite de l'expérience immersive diminue alors, jusqu'à éventuellement provoquer la sortie d'un utilisateur de cet environnement virtuel
3. Exposé de l'invention L'invention propose une solution nouvelle qui ne présente ces inconvénients de l'art antérieur, sous la forme d'un procédé de gestion de l'affichage d'une représentation d'un utilisateur dans un environnement virtuel dans lequel une pluralité de représentations d'utilisateurs évolue.
Selon l'invention, un tel procédé met en œuvre les étapes suivantes, pour un utilisateur donné : détermination d'une zone de destination dans l'environnement virtuel dans laquelle la représentation de l'utilisateur doit se rendre ; détermination d'une zone d'apparition de la représentation dans l'environnement virtuel ; - affichage de la représentation dans la zone d'apparition ; et déplacement automatique de la représentation de la zone d'apparition vers la zone de destination
On entend notamment par « zone » un ou plusieurs jeux de coordonnées, définissant chacun un point de localisation dans l'environnement virtuel En d'autres termes, une « zone » peut être un point précis dans l'espace virtuel, ou une région de proximité autour d'un point choisi (par exemple pour permettre d'adapter le point exact d'apparition en fonction des besoins, à l'intérieur de cette région).
Ainsi, l'invention repose sur une approche nouvelle et inventive de la gestion de l'affichage d'une représentation d'un utilisateur, encore appelée avatar, dans un environnement virtuel Cet affichage correspond à l'apparition, subite ou progressive, de l'avatar dans l'environnement virtuel.
Un tel procédé est par exemple mis en œuvre lorsqu'un nouvel utilisateur souhaite entrer dans un environnement virtuel, par l'intermédiaire de son avatar, ou passer d'un environnement virtuel à un autre environnement virtuel, ou encore se déplacer à l'intérieur d'un même environnement virtuel
II permet notamment d'éviter les comportements non naturels dans l'impression d'immersion ressentie par les utilisateurs lors de l'affichage de leurs avatars respectifs d'un monde virtuel. Pour ce faire, l'invention propose de faire apparaître la représentation de l'utilisateur à un premier endroit, appelé zone d'apparition, différent de l'endroit où l'utilisateur souhaite que sa représentation se rende. Cette étape d'affichage de la représentation dans la zone d'apparition permet une restitution différente et adaptée sur les terminaux des utilisateurs présents dans le monde Ensuite, l'invention prévoit de faire déplacer automatiquement cette représentation vers un deuxième endroit, appelé zone de destination.
Un tel déplacement est automatiquement pris en charge, c'est-à-dire sans intervention de l'utilisateur, par exemple par le terminal de l'utilisateur ou l'entité de gestion des représentations d'utilisateurs dans l'environnement virtuel Selon une caractéristique particulière, l'étape de détermination d'une zone d'apparition sélectionne une zone d'apparition parmi un groupe d'au moins une zone d'apparition prédéfinie dans l'environnement virtuel Autrement dit, il peut exister dans l'environnement virtuel une ou plusieurs zones dédiées à l'affichage des avatars Par exemple, on considère un environnement composé de trois régions distinctes, représentant respectivement un village, une forêt à côté du village, et une plage à côté du village. Chacune de ces régions peut posséder une zone d'apparition prédéfinie, correspondant par exemple à un périmètre autour d'une statue sur la place centrale du village, autour d'un gros arbre de la forêt, ou autour d'un restaurant sur le bord de la plage.
Plusieurs zones d'apparition peuvent également être prédéfinies dans une même région de l'environnement virtuel.
Une zone d'apparition peut alors être choisie parmi plusieurs zones prédéfinies de façon à minimiser la trajectoire à suivre lors du déplacement automatique.
Selon un autre aspect de l'invention, l'étape de détermination d'une zone d'apparition sélectionne une zone d'apparition située en dehors du champ de vision de la représentation d'au moins un autre utilisateur dans l'environnement virtuel. En reprenant l'exemple précédent définissant trois régions comprenant chacune au moins une zone d'apparition prédéfinie, l'avatar d'un utilisateur peut par exemple apparaître derrière la statue, ou derrière le gros arbre, ou encore derrière le restaurant. Ainsi, l'avatar de cet utilisateur est caché, et n'entre pas dans le champ de vision de l'avatar d'un autre utilisateur. Préférentiellement, la zone d'apparition est située en dehors des champs de vision de tous les utilisateurs présents dans l'environnement virtuel. Toutefois, si cela n'est pas possible (par exemple s'il y a une foule d'avatars dans la forêt), la zone d'apparition est située en dehors des champs de vision de certains seulement des utilisateurs présents dans l'environnement virtuel. Par exemple, on peut ne pas tenir compte du champ de vision des avatars qui sont en train de discuter entre eux, et qui ne prêteront pas attention à l'apparition d'un autre avatar dans leur champ visuel.
En particulier, l'étape de détermination d'une zone d'apparition comprend une étape préalable de stockage des positions et des champs de vision des représentations des autres utilisateurs dans ledit environnement virtuel. On détermine ainsi la zone d'apparition en comparant les champs de vision des représentations d'un ou plusieurs autres utilisateurs de l'environnement virtuel, et en extrayant de cette comparaison les zones de l'environnement virtuel qui ne sont présentes dans aucun de ces champs de vision. Il est ensuite possible de sélectionner la zone d'apparition la plus proche de la zone de destination dans laquelle la représentation du premier utilisateur doit se rendre.
Selon une caractéristique particulière de l'invention, l'étape de détermination d'une zone de destination met en œuvre : une étape d'obtention d'une information de localisation d'une représentation d'un deuxième utilisateur dans l'environnement virtuel ; une étape d'obtention de la zone de destination à partir de l'information de localisation.
Plus précisément, on considère selon cette caractéristique que l'utilisateur donné, encore appelé premier utilisateur, cherche à se rapprocher d'un deuxième utilisateur, par l'intermédiaire de leurs avatars respectifs. Par exemple, ce deuxième utilisateur est choisi par le premier utilisateur en se basant sur l'aspect visuel de son avatar ou sur des caractéristiques définies par cet utilisateur.
La zone de destination est alors déterminée, par exemple en définissant un contour relativement à un ou plusieurs référentiel(s) donné(s), comme la localisation de l'avatar de l'utilisateur que l'on cherche à rejoindre.
En particulier, l'étape de déplacement automatique comprend une étape préalable (et le cas échéant répétée) de mise à jour de la zone de destination.
En effet, il est possible que l'avatar du deuxième utilisateur soit en déplacement. Dans ce cas, la zone de destination peut être mise à jour en fonction d'un déplacement du deuxième utilisateur. Cette étape de mise à jour peut être mise en œuvre plusieurs fois au cours du déplacement du deuxième utilisateur, ou une seule fois lorsque le deuxième utilisateur s'arrête en fin de déplacement.
La zone de destination peut également être mise à jour si l'avatar d'un troisième utilisateur apparaît à proximité de l'avatar du deuxième utilisateur. Dans cette situation, la zone de destination est par exemple élargie pour « englober » l'avatar du troisième utilisateur.
Selon une autre caractéristique de l'invention, l'étape de déplacement automatique comprend une étape de détermination d'une trajectoire à suivre par la représentation pour atteindre la zone de destination. Cette trajectoire permet par exemple de respecter l'environnement, en suivant un trottoir par exemple, et en évitant les obstacles fixes (comme les arbres, statues, panneaux, etc.) ou mobiles (comme les représentations des autres utilisateurs). Il peut donc être nécessaire de réactualiser le calcul de la trajectoire au cours de l'étape de déplacement automatique de l'avatar. Par exemple, cette trajectoire est choisie de façon à s'approcher de la zone de destination par un côté du champ visuel du deuxième utilisateur.
En particulier, la direction de sortie de la zone d'apparition, tient compte de la position et/ou du champ de vision d'au moins un autre utilisateur.
Par exemple, si la zone d'apparition comprend une porte séparant un magasin de la rue, l'avatar d'un premier utilisateur semble venir de la rue et entrer dans le magasin si l'avatar d'un deuxième utilisateur est dans le magasin. Au contraire, si l'avatar d'un deuxième utilisateur est dans la rue, l'avatar du premier utilisateur semble venir du magasin et sortir dans la rue.
Selon une autre caractéristique de l'invention, la représentation effectue des mouvements prédéterminés lors de l'étape de déplacement automatique.
Par exemple, elle effectue un signe de la main pour saluer les représentations du deuxième et/ou des autres utilisateurs, ou elle vient en courant et en écartant les bras pour rejoindre l'avatar du deuxième utilisateur, etc.
Dans un autre mode de réalisation, l'invention concerne un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions de code de programme pour l'exécution du procédé de gestion de l'affichage d'une représentation d'un utilisateur tel que décrit précédemment. Un autre aspect de l'invention concerne une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, comprenant : des moyens de détermination d'une zone de destination dans un des environnements virtuels, dans laquelle une représentation d'un utilisateur doit se rendre ; des moyens de détermination d'une zone d'apparition de la représentation dans l'environnement virtuel ; des moyens de gestion de l'affichage de la représentation dans la zone d'apparition ; - des moyens de déplacement automatique de la représentation de la zone d'apparition vers la zone de destination.
Une telle entité est notamment apte à mettre en œuvre le procédé de gestion décrit précédemment. Il s'agit par exemple d'un serveur assurant la gestion des représentations des utilisateurs évoluant dans un environnement virtuel.
Un autre aspect de l'invention concerne un terminal d'utilisateur connecté à une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, comprenant : des moyens de gestion de l'affichage d'une représentation d'un utilisateur dans une zone d'apparition dans un environnement virtuel, déterminée par ladite entité de gestion ; des moyens de déplacement automatique de ladite représentation de ladite zone d'apparition vers une zone de destination dudit environnement virtuel, dans laquelle ladite représentation doit se rendre. Un tel terminal peut également comprendre des moyens de détermination de la zone de destination et des moyens de détermination de la zone d'apparition, selon ses capacités.
Il s'agit par exemple d'un ordinateur, un téléphone, un PDA, ou tout autre terminal d'immersion. L'invention concerne également un procédé, qui peut être complémentaire du précédent, de gestion de la suppression d'une représentation d'un utilisateur dans un environnement virtuel dans lequel une pluralité de représentations d'utilisateurs évolue.
Selon l'invention, un tel procédé comprend les étapes suivantes, pour un utilisateur donné : détermination d'une zone de disparition dans l'environnement virtuel ; déplacement automatique de la représentation de l'utilisateur vers la zone de disparition ; suppression de la représentation lorsqu'elle est dans ladite zone de disparition.
Un tel procédé de gestion est par exemple mis en œuvre lorsqu'un utilisateur souhaite quitter un environnement virtuel, par l'intermédiaire de son avatar, ou passer d'un environnement virtuel à un autre environnement virtuel, ou encore se déplacer à l'intérieur d'un même environnement virtuel. II permet notamment d'éviter les comportements non naturels dans l'impression d'immersion dans un monde virtuel lors de la suppression des avatars, survenant par exemple lors de la déconnexion d'un utilisateur, ou lors d'un déplacement d'une région à une autre ou d'un environnement virtuel à un autre. En particulier, on rappelle qu'un avatar supprimé dans une région d'un environnement virtuel peut être affiché dans une autre région du même environnement, ou dans une région d'un autre environnement virtuel.
De nouveau, le déplacement de l'avatar de l'utilisateur est automatiquement pris en charge par exemple par le terminal de l'utilisateur ou l'entité de gestion des représentations d'utilisateurs dans l'environnement virtuel.
En particulier, l'étape de détermination d'une zone de disparition sélectionne une zone de disparition parmi un groupe d'au moins une zone de disparition prédéfinie dans l'environnement virtuel. Ces zones correspondent par exemple aux zones d'apparition précédemment mentionnées. Selon un aspect particulier de l'invention, l'étape de détermination d'une zone de disparition sélectionne une zone disparition située en dehors du champ de vision de la représentation d'au moins un autre utilisateur dans l'environnement virtuel.
En particulier, cette zone de disparition peut être mise à jour en fonction de déplacements des utilisateurs.
L'étape de détermination d'une zone de disparition peut également comprendre une étape préalable de stockage des positions et des champs de vision des représentations des autres utilisateurs dans l'environnement virtuel.
Comme pour la gestion de l'affichage d'une représentation, l'étape de déplacement automatique lors de la suppression d'une représentation peut comprendre une étape de détermination d'une trajectoire à suivre par la représentation pour atteindre ladite zone de destination. De même, la représentation peut effectuer des mouvements prédéterminés.
L'invention concerne encore un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions de code de programme pour l'exécution du procédé de gestion de la suppression d'une représentation d'un utilisateur tel que décrit précédemment, lorsque ledit programme est exécuté sur un ordinateur. Un autre aspect de l'invention concerne une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, comprenant : des moyens de détermination d'une zone de disparition dans l'environnement virtuel ; - des moyens de déplacement automatique d'une représentation d'un utilisateur vers la zone de disparition ; des moyens de gestion de la suppression de la représentation lorsqu'elle est dans ladite zone de disparition.
Encore un autre aspect de l'invention concerne un terminal d'utilisateur connecté à une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, comprenant des moyens de déplacement automatique d'une représentation d'un utilisateur vers une zone de disparition, déterminée par ladite entité de gestion ; - des moyens de gestion de la suppression de la représentation lorsqu'elle est dans ladite zone de disparition.
4. Liste des figures
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple îllustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1 illustre un exemple de système général de mise en œuvre du procédé de l'invention ; la figure 2 présente les principales étapes du procédé d'affichage selon un mode de réalisation de l'invention , la figure 3 présente les principales étapes du procédé de suppression selon un mode de réalisation de l'invention ; la figure 4 illustre un exemple particulier de mise en œuvre du procédé d'affichage ou de suppression selon l'invention dans un système tel qu'illustré en figure 1 ; la figure 5 illustre un exemple de mise en œuvre de l'invention, dans une région d'un environnement virtuel représentant une rue et un magasin ; la figure 6 présente la structure d'un dispositif de gestion de l'affichage et/ou de la suppression d'une représentation d'un utilisateur selon un mode de réalisation particulier de l'invention
5. Description d'un mode de réalisation de l'invention L'invention propose une nouvelle solution pour la gestion de l'affichage et/ou la suppression d'une représentation d'un utilisateur dans un environnement virtuel, permettant de faire apparaître ou disparaître cette représentation virtuelle (ou avatar) de manière naturelle dans un environnement virtuel, c'est-à-dire d'une manière proche de la réalité (dans un environnement réel).
Cette solution peut être mise en œuvre lorsque l'avatar représentant un utilisateur arrive dans le monde virtuel, se déplace dans le monde virtuel, change de monde virtuel, ou encore quitte le monde virtuel. La figure 1 illustre plus précisément un exemple de système dans lequel cette nouvelle technique de gestion de l' affichage/suppression d'un avatar peut être mise en œuvre.
Dans le monde réel 10, un utilisateur 12 peut accéder à un monde virtuel 20, par l'intermédiaire d'un terminal d'utilisateur 11 (tel qu'un ordinateur ou tout autre système d'immersion, par exemple un téléphone, un PDA, etc). Chaque monde virtuel 20 comprend : un ou plusieurs espaces virtuels 21, représentant par exemple un quartier, une ville, un pays, existant ou imaginaire ; des représentations d'utilisateurs, ou avatars, 22 représentant les utilisateurs 12 du monde réel.
Un tel système comprend également : un réseau 30 de communication permettant aux terminaux d'immersion 11 de communiquer entre eux ainsi qu'avec des serveurs 40 ; - des serveurs 40, ou des entités de contrôle ou de gestion sur des serveurs, assurant un rôle de coordination, de diffusion et de mémorisation.
L'utilisateur 12 du monde réel 10 est représenté par son avatar 22 dans le monde virtuel 20. Dans le monde réel 10, l'utilisateur 12 pilote sa représentation 22 et voit le champ visuel vu par cet avatar 22 à l'aide du terminal d'utilisateur (encore appelé terminal d'immersion) 11.
Plus précisément, on cherche selon l'invention à rendre l'apparition, les déplacements, et la disparition des avatars dans le monde virtuel le plus naturel possible, c'est-à-dire proche de ce qui pourrait effectivement se produire dans la réalité, pour que les utilisateurs s'identifient à ces avatars et apprécient leur immersion dans ce monde virtuel
En effet, pour que les rencontres dans le monde virtuel soient proches de la réalité, par exemple dans une application de site de rencontre tridimensionnel, il est nécessaire que les mouvements et les déplacements des avatars soient naturels, notamment lorsque l'avatar d'un premier utilisateur décide de rejoindre l'avatar d'un deuxième utilisateur, pour faire plus amplement connaissance
La figure 2 illustre les principales étapes du procédé d'affichage d'une représentation d'un utilisateur dans un environnement virtuel dans lequel une pluralité de représentations d'utilisateurs évolue. Un tel procédé peut être mis en œuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle
Au cours d'une première étape 51, on détermine, pour un utilisateur donné, encore appelé premier utilisateur, une zone de destination dans l'environnement virtuel dans laquelle la représentation de l'utilisateur doit se rendre. Les données d'identification de cette zone sont stockées, au moins temporairement, dans une mémoire
Par exemple, cette zone de destination correspond à un lieu de rendez-vous avec l'avatar d'un deuxième utilisateur, ou à un lieu défini par défaut lors de la création de l'environnement virtuel (comme le centre du village par exemple). Ensuite, au cours d'une deuxième étape 52, on détermine une zone d'apparition dans l'environnement virtuel Cette zone d'apparition est préférentiellement localisée à proximité de la zone de destination. En particulier, cette zone peut être choisie parmi un groupe comprenant au moins une zone d'apparition prédéfinie dans l'environnement virtuel. Les données d'identification de cette deuxième zone sont également stockées, au moins temporairement
Au cours d'une troisième étape 53, la représentation du premier utilisateur est affichée dans la zone d'apparition En particulier, cet affichage est visible sur le terminal du premier utilisateur, mais pas forcément visible sur les terminaux des autres utilisateurs En effet, la zone d'apparition peut être située hors du champ de vision des représentations des avatars des autres utilisateurs dans l'environnement virtuel.
Plus précisément, un traitement peut être effectué, dans chaque terminal d'utilisateur, pour introduire, si nécessaire, l'avatar concerné dans l'image restitué à l'utilisateur, en tenant compte des données d'identification de la zone d'apparition. Selon une autre approche, ce traitement peut être effectué par un serveur, ou entité de gestion, qui délivre ensuite aux différents terminaux les informations nécessaires pour adapter les images restituées.
Finalement, au cours d'une quatrième étape 54, la représentation du premier utilisateur est automatiquement déplacée, c'est-à-dire sans intervention de l'utilisateur, de la zone d'apparition vers la zone de destination.
Pendant cette étape 54, un traitement de calcul et de mise à jour des coordonnées de l'avatar en mouvement est mis en œuvre, en fonction des coordonnées mémorisées des points d'apparition et de destination, et le cas échéant d'autres informations, comme détaillé ci-après. En particulier, les étapes de détermination de la zone de destination 51 et de détermination de la zone d'apparition 52 peuvent être mise en œuvre par un serveur ou une entité de gestion tels que décrits en relation avec la figure 1. Ces étapes peuvent également être mises en œuvre par le terminal, si ses capacités le permettent. Les étapes d'affichage 53 et de déplacement 54, moins coûteuses en termes de ressources, peuvent être mises en œuvre par le terminal de l'utilisateur.
La figure 3 illustre quant à elle les principales étapes du procédé de suppression d'une représentation d'un utilisateur dans un environnement virtuel dans lequel une pluralité de représentations d'utilisateurs évolue. Un tel procédé peut être mis en œuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle.
Plus précisément, au cours d'une première étape 55, on détermine une zone de disparition dans l'environnement virtuel. Cette zone de disparition est préférentiellement localisée à proximité l'avatar. En particulier, cette zone peut être choisie parmi un groupe comprenant au moins une zone de disparition prédéfinie dans l'environnement virtuel. Au cours d'une deuxième étape 56, la représentation de l'utilisateur est automatiquement déplacée, c'est-à-dire sans intervention de l'utilisateur, de sa position d'origine vers la zone de disparition.
Finalement, au cours d'une troisième étape 57, la représentation est supprimée lorsqu'elle entre (ou qu'elle reste un certain temps) dans la zone de disparition.
On présente désormais, en relation avec la figure 4, un exemple particulier de mise en œuvre du procédé d'affichage ou de suppression selon l'invention dans un système tel qu'illustré en figure 1. On considère par exemple qu'un avatar 200 peut se déplacer, effectuer des mouvements, communiquer, ... dans le monde virtuel 20. Cet avatar 200 est piloté par l'utilisateur 12 dans le monde réel 10.
Dans le monde réel 10, la réception par le terminal 11 d'une nouvelle position finale d'un avatar, c'est-à-dire d'une nouvelle zone de destination, déclenche des opérations de calcul 102 du positionnement initial de l'avatar dans la nouvelle région ou le nouvel environnement, et de suppression de l'avatar dans la région ou l'environnement d'origine.
Selon cet exemple particulier, les opérations de calcul 102 permettent de déterminer une zone d'apparition 402 (respectivement de disparition), localisée à proximité de la zone de destination (respectivement de la position courante de l'avatar), et située en dehors des champs de vision des avatars présents dans le monde virtuel.
Pour déterminer cette zone d'apparition 402 (ou de disparition), le terminal
11 de l'utilisateur 12 tient compte d'informations mémorisées dans un conteneur 300. Plus précisément, ce conteneur 300, par exemple un fichier ou une base de données, mémorise les positions et les champs de vision 401 des avatars dans le monde virtuel, à un instant donné. On détermine ainsi la zone d'apparition (ou de disparition) en comparant les champs de vision des représentations d'un ou plusieurs autres utilisateurs de l'environnement virtuel, et en extrayant de cette comparaison les zones de l'environnement virtuel qui ne sont présentes dans aucun de ces champs de vision
Si cela est possible, on tient compte du champ de vision de tous les avatars présents dans le monde.
Sinon, on peut par exemple choisir de ne pas tenir compte du champ visuel des avatars qui sont en tram de discuter entre eux, et qui ne prêteront pas attention à l'apparition (ou la disparition) d'un autre avatar dans leur champ de vision
II est ensuite possible de sélectionner la zone d'apparition la plus proche de la zone de destination dans laquelle la représentation du premier utilisateur doit se rendre, ou la zone de disparition la plus proche de la localisation courante de l'avatar.
Par exemple, la zone d'apparition 402 est choisie parmi les zones d'apparition prédéfinies (derrière un arbre, derrière une statue, derrière un restaurant, dans le sas entre un magasin et la rue, etc ) en calculant la distance entre chaque zone d'apparition prédéfinie et la zone de destination. La zone d'apparition sélectionnée correspond alors à la zone d'apparition prédéfinie présentant la plus petite distance à la zone de destination
Selon un autre exemple, on détermine pour chaque avatar son axe de vision comme étant l'intersection entre les plans bissecteurs horizontal et vertical de son champ de vision 401, dans l'environnement virtuel 20 A partir de cet axe de vision, et si on considère un environnement virtuel
20 tridimensionnel, il est possible de déterminer le « demi-espace de non- vision » d'un avatar 200 comme étant le demi-espace porté par le plan normal à cet axe de vision passant par la position de l'avatar 200 et ne contenant pas cet axe de vision (autrement dit, il s'agit du demi-espace situé derrière l'avatar) Une zone d'apparition possible se situe alors à l'intersection des demi-espaces de non-vision de tous les avatars présents dans l'environnement virtuel.
Au cours d'une étape suivante 103, l'avatar 200 est affiché, ou « positionné », dans cette zone d'apparition 402 du monde virtuel Respectivement, l'avatar est supprimé de la zone de disparition Pour ce faire, des commandes de déplacement 403 sont transmises à une interface de pilotage 104 du terminal d'immersion 11 dans le monde réel 10, qui traduit ces commandes de déplacement 403 dans le monde virtuel 20 pour déplacer l'avatar jusqu'à la position finale désirée.
Plus précisément, l'interface de pilotage 104 contrôle les mouvements de l'avatar 200 dans le monde virtuel 20.
Par exemple, si l'avatar 200 du premier utilisateur se déplace pour se rapprocher de l'avatar d'un deuxième utilisateur, l'avatar 200 peut courir vers l'avatar du deuxième utilisateur en écartant les bras, ou lui faire un signe de la main, pour lui montrer son affection. Si l'avatar 200 cherche à quitter la scène, il peut partir en faisant au revoir de la main.
L'interface de pilotage 104 contrôle également les déplacements de l'avatar 200 dans le monde virtuel 20. Par exemple, elle détermine une trajectoire à suivre par la représentation pour atteindre la zone de destination.
Par exemple, cette trajectoire est choisie de façon à s'approcher de la zone de destination par un côté du champ visuel de l'avatar du deuxième utilisateur, ou bien face à l'avatar de ce deuxième utilisateur. Autrement dit, on peut tenir compte de l'orientation de la représentation du deuxième utilisateur pour déterminer la trajectoire à suivre pour le rejoindre. De cette façon, l'avatar du premier utilisateur peut arriver face à l'avatar du deuxième utilisateur ou par un côté, et non par derrière, ce qui permet d'optimiser une apparition progressive et naturelle de l'avatar du premier utilisateur dans le champ de vision de l'avatar du deuxième utilisateur. Ainsi, ce deuxième utilisateur comprend que le premier utilisateur cherche à entrer en contact avec lui.
En particulier, il est possible que l'avatar du deuxième utilisateur continue à se déplacer, alors que l'avatar 200 du premier utilisateur cherche à le rencontrer. La zone de destination est alors déterminée en fonction de la localisation de l'avatar du deuxième utilisateur, et mise à jour en fonction des déplacements du deuxième utilisateur. L'avatar du premier utilisateur peut ainsi poursuivre son déplacement jusqu'à ce qu'il réussisse à rejoindre l'avatar du deuxième utilisateur. La figure 5 illustre un exemple de mise en œuvre de l'invention, dans une région d'un environnement virtuel représentant une rue 61 et un magasin 62
On considère par exemple que l'avatar d'un premier utilisateur cherche à entrer en relation avec l'avatar 64 d'un deuxième utilisateur. On considère également que l'avatar 64 est présent dans le magasin 62, et que la porte 63 du magasin est fermée Quelle que soit la direction vers laquelle regarde l'avatar 64, son champ de vision est limité à l'intérieur du magasin (en faisant l'hypothèse qu'il n'y a pas de fenêtre, ou qu'il y a des stores occultants).
A partir d'une information de localisation de l'avatar 64 dans l'environnement virtuel, on détermine la zone de destination 66 dans laquelle l'avatar du premier utilisateur doit se rendre pour rencontrer l'avatar 64 du deuxième utilisateur. Cette zone de destination 66 définit un périmètre autour de l'avatar 64 à l'intérieur du magasin 62. Elle pourrait également correspondre à l'ensemble du magasin 62 On détermine ensuite une zone d'apparition dans laquelle l'avatar du premier utilisateur pourra être affiché
Par exemple, on sélectionne la zone d'apparition 65 parmi un ensemble de zones d'apparition prédéfinies dans l'environnement virtuel. On note que la portion de la zone d'apparition 65 située côté rue 61 est hors du champ de vue de l'avatar 64.
L'avatar du premier utilisateur peut donc apparaître dans la portion de la zone d'apparition 65 située côté rue 61, et franchir la porte 63 pour entrer dans le magasin 62 et rejoindre l'avatar 64.
A l'inverse, si l'avatar 64 du deuxième utilisateur est situé dans la rue 61, alors la zone de destination correspond à une portion de la rue 61, localisée à proximité de l'avatar 64
L'avatar du premier utilisateur peut alors apparaître dans la portion de la zone d'apparition 65 située côté magasin 62, et franchir la porte 63 pour sortir du magasin 62 et rejoindre l'avatar 64 dans la rue 61 Autrement dit, la direction de sortie de la zone d'apparition tient compte de la position et/ou du champ de vision de l'avatar d'au moins un autre utilisateur.
On présente finalement, en relation avec la figure 6, la structure simplifiée d'un dispositif de gestion de l'affichage et/ou de la suppression d'une représentation d'un utilisateur selon un mode de réalisation particulier de l'invention.
Plus précisément, on rappelle qu'un avatar supprimé dans une région d'un environnement virtuel peut être affiché dans une autre région du même environnement, ou dans une région d'un autre environnement virtuel. Par conséquent, un même dispositif peut gérer à la fois l'affichage, c'est-à-dire l'apparition, d'un avatar dans une nouvelle région, et la suppression, c'est-à-dire la disparition, de l'avatar dans sa région d'origine.
Il s'agit par exemple d'une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, ou d'un terminal d'utilisateur. Un tel dispositif comprend une mémoire 71 constituée d'une mémoire tampon, une unité de traitement 72, équipée par exemple d'un microprocesseur μP, et pilotée par le programme d'ordinateur 73, mettant en œuvre les étapes du procédé d'affichage et/ou de suppression selon l'invention.
A l'initialisation, les instructions de code du programme d'ordinateur 73 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 72. L'unité de traitement 72 reçoit en entrée des informations représentatives d'une localisation courante d'une représentation de l'utilisateur et, si l'avatar doit se déplacer dans le monde, d'une zone dans laquelle la représentation de l'utilisateur doit se rendre. Le microprocesseur de l'unité de traitement 72 met en œuvre les étapes des procédés d'affichage ou de suppression décrits précédemment, selon les instructions du programme d'ordinateur 73, pour déterminer une zone d'apparition, une zone de destination et déplacer automatiquement l'avatar vers cette zone, ou pour déterminer une zone de disparition et déplacer automatiquement l'avatar de sa localisation d'origine vers cette zone. Pour cela, le dispositif d'affichage et/ou de suppression comprend, outre la mémoire tampon 71 :
- des moyens de détermination d'une zone de destination dans un des environnements virtuels, des moyens de détermination d'une zone d'apparition dans l'environnement virtuel, des moyens de gestion de l'affichage de la représentation dans la zone d'apparition, et des moyens de déplacement automatique de la représentation de la zone d'apparition vers la zone de destination ; et/ou
- des moyens de détermination d'une zone de disparition dans l'environnement virtuel, des moyens de déplacement automatique d'une représentation d'un utilisateur vers la zone de disparition, et des moyens de gestion de la suppression de la représentation lorsqu'elle est dans la zone de disparition.
Ces moyens sont pilotés par le microprocesseur de l'unité de traitement 72.

Claims

REVENDICATIONS
1. Procédé de gestion de l'affichage d'une représentation (22) d'un utilisateur (12) dans un environnement virtuel (20) dans lequel une pluralité de représentations d'utilisateurs évolue, caractérisé en ce qu'il comprend les étapes suivantes, pour un utilisateur donné : détermination (51) d'une zone de destination dans ledit environnement virtuel dans laquelle la représentation dudit utilisateur doit se rendre ; détermination (52) d'une zone d'apparition de ladite représentation dans ledit environnement virtuel ; - affichage (53) de ladite représentation dans ladite zone d'apparition ; et déplacement automatique (54) de ladite représentation de ladite zone d'apparition vers ladite zone de destination.
2. Procédé selon la revendication 1, caractérisé en ce que ladite étape de détermination (52) d'une zone d'apparition sélectionne une zone d'apparition parmi un groupe d'au moins une zone d'apparition prédéfinie dans ledit environnement virtuel.
3. Procédé selon l'une quelconque des revendications 1 et 2, caractérisé en ce que ladite étape de détermination (52) d'une zone d'apparition sélectionne une zone d'apparition située en dehors du champ de vision de la représentation d'au moins un autre utilisateur dans ledit environnement virtuel.
4. Procédé selon la revendication 3, caractérisé en ce que ladite étape de détermination (52) d'une zone d'apparition comprend une étape préalable de stockage des positions et des champs de vision des représentations desdits autres utilisateurs dans ledit environnement virtuel.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ladite étape de détermination (51) d'une zone de destination met en œuvre : une étape d'obtention d'une information de localisation d'une représentation d'un deuxième utilisateur dans ledit environnement virtuel ; une étape d'obtention de ladite zone de destination à partir de ladite information de localisation.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ladite étape de déplacement automatique (54) comprend une étape préalable de mise à jour de ladite zone de destination.
7. Procédé selon l'une quelconque des revendications 1 à 6, caractérisé en ce que ladite étape de déplacement automatique (54) comprend une étape de détermination d'une trajectoire à suivre par ladite représentation pour atteindre ladite zone de destination.
8. Procédé selon la revendication 7, caractérisé en ce que ladite trajectoire définit une direction de sortie de ladite zone d'apparition, en tenant compte de la position et/ou du champ de vision d'une représentation d'au moins un autre utilisateur.
9. Procédé selon l'une quelconque des revendications 5 et 6, et l'une quelconque des revendications 7 et 8, caractérisé en ce que ladite trajectoire est choisie de façon à s'approcher de ladite zone de destination par un côté du champ visuel de la représentation dudit deuxième utilisateur.
10. Procédé selon l'une quelconque des revendications 1 à 9, caractérisé en ce que lors de ladite étape de déplacement automatique, ladite représentation effectue des mouvements prédéterminés.
11. Procédé de gestion de la suppression d'une représentation (22) d'un utilisateur (12) dans un environnement virtuel (20) dans lequel une pluralité de représentations d'utilisateurs évolue, caractérisé en ce qu'il comprend les étapes suivantes, pour un utilisateur donné : détermination (55) d'une zone de disparition dans ledit environnement virtuel ; - déplacement automatique (56) de la représentation dudit utilisateur vers ladite zone de disparition ; suppression (57) de ladite représentation lorsqu'elle est dans ladite zone de disparition.
12. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution du procédé de gestion de l'affichage ou de la suppression d'une représentation d'un utilisateur selon l'une au moins des revendications 1 à 11, lorsque ledit programme est exécuté sur un ordinateur.
13. Entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, caractérisé en ce qu'elle comprend : des moyens de détermination d'une zone de destination dans un desdits environnements virtuels, dans laquelle une représentation d'un utilisateur doit se rendre ; des moyens de détermination d'une zone d'apparition de ladite représentation dans ledit environnement virtuel ; des moyens de gestion de l'affichage de ladite représentation dans ladite zone d'apparition ; - des moyens de déplacement automatique de ladite représentation de ladite zone d'apparition vers ladite zone de destination.
14. Terminal d'utilisateur connecté à une entité de gestion des représentations d'utilisateurs dans au moins un environnement virtuel, caractérisé en ce qu'il comprend : - des moyens de gestion de l'affichage d'une représentation d'un utilisateur dans une zone d'apparition dans un environnement virtuel, déterminée par ladite entité de gestion ; des moyens de déplacement automatique de ladite représentation de ladite zone d'apparition vers une zone de destination dudit environnement virtuel, dans laquelle ladite représentation doit se rendre.
EP08864905A 2007-12-14 2008-12-11 Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel Ceased EP2219749A2 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0759854 2007-12-14
PCT/FR2008/052276 WO2009080995A2 (fr) 2007-12-14 2008-12-11 Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel

Publications (1)

Publication Number Publication Date
EP2219749A2 true EP2219749A2 (fr) 2010-08-25

Family

ID=39590237

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08864905A Ceased EP2219749A2 (fr) 2007-12-14 2008-12-11 Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel

Country Status (4)

Country Link
US (1) US9108109B2 (fr)
EP (1) EP2219749A2 (fr)
CA (1) CA2708958A1 (fr)
WO (1) WO2009080995A2 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8694734B2 (en) * 2009-01-31 2014-04-08 International Business Machines Corporation Expiring virtual content from a cache in a virtual universe
US20100281433A1 (en) * 2009-04-29 2010-11-04 International Business Machines Corporation Computer Method and Apparatus Specifying Avatar Entrance and Exit

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6217446B1 (en) * 1996-12-06 2001-04-17 Kabushi Kaisha Sega Enterprises Game device and picture processing device
US7181690B1 (en) * 1995-11-13 2007-02-20 Worlds. Com Inc. System and method for enabling users to interact in a virtual space

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US6154211A (en) * 1996-09-30 2000-11-28 Sony Corporation Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium
US6396509B1 (en) * 1998-02-21 2002-05-28 Koninklijke Philips Electronics N.V. Attention-based interaction in a virtual environment
KR100374465B1 (ko) 1998-07-02 2003-03-04 가부시키가이샤 세가 게임을 실행하는 방법 및, 이것을 실시하는 게임 장치
GB9817834D0 (en) * 1998-08-14 1998-10-14 British Telecomm Predicting avatar movement in a distributed virtual environment
US7143358B1 (en) * 1998-12-23 2006-11-28 Yuen Henry C Virtual world internet web site using common and user-specific metrics
JP3368226B2 (ja) * 1999-03-26 2003-01-20 キヤノン株式会社 情報処理方法及び情報処理装置
US7925703B2 (en) * 2000-12-26 2011-04-12 Numedeon, Inc. Graphical interactive interface for immersive online communities
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
US7225399B2 (en) * 2001-10-31 2007-05-29 Engineered Support System, Inc. Systems and methods for generating interactive electronic reference materials
JP3931796B2 (ja) * 2002-11-28 2007-06-20 株式会社セガ アクションゲームの制御プログラム
US7396281B2 (en) * 2005-06-24 2008-07-08 Disney Enterprises, Inc. Participant interaction with entertainment in real and virtual environments
US9630104B2 (en) * 2006-10-23 2017-04-25 Konrad V. Sherinian Systems, methods, and apparatus for transmitting virtual world content from a server system to a client
US20080252637A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Virtual reality-based teleconferencing
US20080268418A1 (en) * 2007-04-25 2008-10-30 Tashner John H Virtual education system and method of instruction
US20090113314A1 (en) * 2007-10-30 2009-04-30 Dawson Christopher J Location and placement of avatars in virtual worlds

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181690B1 (en) * 1995-11-13 2007-02-20 Worlds. Com Inc. System and method for enabling users to interact in a virtual space
US20070050716A1 (en) * 1995-11-13 2007-03-01 Dave Leahy System and method for enabling users to interact in a virtual space
US6217446B1 (en) * 1996-12-06 2001-04-17 Kabushi Kaisha Sega Enterprises Game device and picture processing device

Also Published As

Publication number Publication date
US20100293477A1 (en) 2010-11-18
US9108109B2 (en) 2015-08-18
WO2009080995A3 (fr) 2009-09-24
WO2009080995A2 (fr) 2009-07-02
CA2708958A1 (fr) 2009-07-02

Similar Documents

Publication Publication Date Title
US20210023445A1 (en) Coordinating multiple virtual environments
US9769048B2 (en) Providing alternative representations of virtual content in a virtual universe
US8365076B2 (en) System for concurrently managing multiple avatars
US8184116B2 (en) Object based avatar tracking
US8233005B2 (en) Object size modifications based on avatar distance
US20090286605A1 (en) Event determination in a virtual universe
US11716446B2 (en) Virtual environments associated with processed video streams
US20100177117A1 (en) Contextual templates for modifying objects in a virtual universe
US10467808B2 (en) Systems and methods to provide narrative experiences for users of a virtual space
US8864583B1 (en) Computing device independent and transferable game level design and other objects
DE112013002794T5 (de) Anzeigen einer Ortsvorschau
US11004121B2 (en) Managing ephemeral locations in a virtual universe
US11494980B2 (en) Virtual asset map and index generation systems and methods
US9024977B2 (en) Resizing objects in regions of virtual universes
EP2219749A2 (fr) Procede de gestion de l'affichage ou de la suppression d'une representation d'un utilisateur dans un environnement virtuel
BE1022580B1 (fr) Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
US10888777B2 (en) Deep learning from real world and digital exemplars
WO2009080945A2 (fr) Procédé de gestion de représentations d'utilisateurs, entité de gestion, terminal et programme d'ordinateur correspondants
US10967267B2 (en) Changing a camera view in an electronic game
WO2023249918A1 (fr) Interface personnelle virtuelle pour la commande et le déplacement entre des mondes virtuels
Matharasi et al. A Novel Framework To Create More Realistic Augmented Reality Applications Using Images In Mobile Phones

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100609

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20170112

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20191004