WO2024029190A1 - 仮想オブジェクト生成装置 - Google Patents

仮想オブジェクト生成装置 Download PDF

Info

Publication number
WO2024029190A1
WO2024029190A1 PCT/JP2023/021032 JP2023021032W WO2024029190A1 WO 2024029190 A1 WO2024029190 A1 WO 2024029190A1 JP 2023021032 W JP2023021032 W JP 2023021032W WO 2024029190 A1 WO2024029190 A1 WO 2024029190A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
service
avatar
services
unit
Prior art date
Application number
PCT/JP2023/021032
Other languages
English (en)
French (fr)
Inventor
晃平 大山
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2024029190A1 publication Critical patent/WO2024029190A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Definitions

  • One aspect of the present invention relates to a virtual object generation device.
  • Non-Patent Document 1 states that it is possible to generate avatars that can be commonly used in each of multiple services, and to manage the generated avatars by linking them to user accounts.
  • a system Docomo Avatar Portal
  • Non-Patent Document 1 the user is freed from the trouble of individually generating an avatar for each service using XR.
  • the drawing conditions e.g. conditions for shaders, lights, etc.
  • the appearance (how it looks) of the virtual object confirmed by the preview display function provided by the virtual object generation environment may differ from the appearance applied when the virtual object is actually used in each service. be.
  • the user may feel dissatisfied.
  • one aspect of the present invention is to provide a virtual object that can improve the quality of a user's service experience by preventing the appearance of the virtual object in a service that provides a virtual space from becoming an appearance that is contrary to the user's intention.
  • the purpose is to provide a generation device.
  • a virtual object generation device includes a generation unit that generates a virtual object that can be used in a plurality of services that provide a virtual space to a user, and a generation unit that generates a virtual object that can be used in a plurality of services that provide a virtual space to a user.
  • a determination unit that makes a decision;
  • a parameter acquisition unit that acquires a drawing parameter indicating a rendering condition to be applied to a virtual object in the target service; and a parameter acquisition unit that applies the drawing parameter acquired by the parameter acquisition unit to the virtual object generated by the generation unit.
  • the display unit includes a display unit that generates and displays a preview image showing a virtual object corresponding to the target service.
  • the user is provided with a generation environment for generating virtual objects as well as a function to display a preview of the generated virtual objects. Furthermore, when displaying a preview, a virtual object to which drawing parameters used in one service (target service) included in multiple services that provide a virtual space are applied, rather than drawing parameters prepared in advance in the generation environment. is displayed.
  • target service drawing parameters used in one service
  • the user can check the appearance that will be applied when the virtual object is used in the target service. It becomes possible to confirm.
  • the user when a user actually uses a virtual object generated in the generation environment in a target service, it is possible to avoid the virtual object from having an appearance that is contrary to the user's intention. The quality of the experience can be improved.
  • a virtual object that can improve the quality of a user's service experience by preventing the appearance of the virtual object in a service that provides a virtual space from having an appearance that is contrary to the user's intention.
  • a generator can be provided.
  • FIG. 1 is a diagram illustrating an example of the configuration of an information system including an avatar generation device according to an embodiment.
  • FIG. 2 is a diagram showing an example of an avatar generation environment provided by an avatar generation device and a generated avatar.
  • FIG. 2 is a diagram showing the appearance of an avatar generated by an avatar generation device when it is used in one service (service A).
  • FIG. 2 is a block diagram showing an example of a functional configuration of an avatar generation device. It is a figure which shows an example of the preview display process of an avatar generation device.
  • FIG. 3 is a diagram schematically showing two usage patterns of an avatar generation environment. It is a flowchart which shows an example of operation of an avatar generation device. 8 is a flowchart showing a first example of the process of step S2 in FIG. 7.
  • FIG. 2 is a diagram showing an example of an avatar generation environment provided by an avatar generation device and a generated avatar.
  • FIG. 2 is a diagram showing the appearance of an avatar generated by an avatar generation device when it is used in one service (
  • FIG. 8 is a flowchart showing a second example of the process of step S2 in FIG. 7.
  • FIG. 10 is a diagram showing an example of a menu screen presented to the user in step S22 of FIG. 9.
  • FIG. 8 is a flowchart showing a third example of the process of step S2 in FIG. 7.
  • FIG. 12 is a diagram showing an example of history information acquired in step S31 of FIG. 11.
  • FIG. It is a diagram showing an example of the hardware configuration of an avatar generation device.
  • FIG. 1 is a diagram showing an example of an information system 1 including an avatar generation device 10 (virtual object generation device) according to an embodiment.
  • the information system 1 includes an avatar generation device 10, a user terminal 20, and a plurality of servers 30.
  • the avatar generation device 10, the user terminal 20, and the plurality of servers 30 are connected to each other via a wired or wireless communication network N so as to be capable of data communication. Note that it is sufficient that communication is possible at least between the avatar generation device 10 and the user terminal 20 and between the user terminal 20 and each server 30, and the avatar generation device 10 and each server 30 are capable of communication. It does not have to be configured as .
  • the avatar generation device 10 is a device that provides a user with an avatar generation environment (object generation environment) for generating an avatar.
  • An avatar is an example of a virtual object.
  • a virtual object is an object that does not exist in the real world but is represented on a computer system.
  • a virtual object may be represented by two-dimensional or three-dimensional computer graphics (CG), for example.
  • CG three-dimensional computer graphics
  • the method of representing the virtual object is not limited.
  • the virtual object may be expressed using animation materials, or may be expressed based on a live-action image to appear close to the real thing. Details of the functions of the avatar generation device 10 will be described later.
  • the user terminal 20 is a computer terminal used by a user.
  • the type of user terminal 20 is not limited.
  • the user terminal 20 may be a personal computer such as a desktop PC or a laptop PC, or may be a terminal device such as a smartphone or tablet held in the user's hand, or may be a terminal device such as a user's head or the like. It may also be a wearable device that is worn on a part of the body. Examples of wearable devices include head-mounted displays such as goggle-type, glass-type (glasses-type), and hat-type displays.
  • the user terminal 20 is configured to display an avatar creation screen SC1 and a preview screen SC2 (see FIG. 2) provided by the avatar generation device 10, service screens (virtual space images including avatars) provided by each server 30, etc. It includes a display section 20a.
  • the display unit 20a may be configured by a display monitor.
  • the display section 20a may be configured with a touch panel display.
  • the display unit 20a may be configured by a display placed in front of both eyes of the user.
  • the user terminal 20 is equipped with an operation interface that accepts input operations from the user.
  • the operation interface is an input device such as a mouse or a keyboard.
  • the touch panel display functions as the display section 20a described above and also functions as an operation interface.
  • a dedicated controller held in the user's hand may be used as an operation interface.
  • the user terminal 20 may be provided with an operation interface other than the above (for example, a voice input device, etc.).
  • the server 30 is a device that provides a virtual space to users. More specifically, the server 30 provides the user with an avatar usage service (service) that displays an avatar generated in the avatar generation environment in a virtual space.
  • the virtual space provided by the server 30 may be a virtual reality (VR) space, an augmented reality (AR) space, or a mixed reality (MR) space. It may be space.
  • the avatar usage service is an XR service in which an avatar can be used in XR (Extended Reality) such as VR, AR, and MR.
  • a server 30A that provides service A, a server 30B that provides service B, and a server 30C that provides service C are illustrated as examples of the plurality of servers 30.
  • 30 may include one or more other servers that provide avatar-based services other than services A, B, and C.
  • FIG. 2 is a diagram showing an example of the avatar generation environment provided by the avatar generation device 10 and the generated avatar 50.
  • the avatar generation device 10 provides the user with an avatar generation environment in which the appearance of the avatar is determined (edited) based on the user's operation details.
  • the avatar generation device 10 displays the avatar creation screen SC1 on the user terminal 20, receives a user operation (user input) on the avatar creation screen SC1, and generates an avatar based on the content of the received user operation.
  • the user can input various information for determining the appearance of the avatar via the avatar creation screen SC1.
  • the user is configured to be able to upload a photograph of his or her own face, input an avatar name, and input his or her height and body type. Note that these input information are merely examples, and the avatar creation screen SC1 may be configured to accept input information other than these.
  • the user can see the appearance of the avatar generated based on the information input by the user as described above.
  • a preview screen SC2 can be opened for checking.
  • the appearance of the generated avatar 50 is displayed on the preview screen SC2.
  • predetermined drawing conditions include various drawing parameters used to express the appearance of the avatar in the virtual space, such as avatar shader conditions (how shadows are cast, etc.), light conditions (how light is reflected, etc.), and the like.
  • avatar shader conditions how shadows are cast, etc.
  • light conditions how light is reflected, etc.
  • a drawing parameter R indicating a drawing condition predetermined in the avatar generation environment is applied to the avatar 50 displayed on the preview screen SC2.
  • the drawing parameter R includes parameters indicating a shader condition: "Apply an Unlit shader (shader not affected by light)" and a light condition: "With light.”
  • FIG. 3 is a diagram showing the appearance of the avatar 50A when the avatar 50 generated by the avatar generation device 10 (avatar generation environment) is used in one service (here, service A provided by the server 30A as an example). It is. As shown in FIG. 3, when the user uses the service A, a virtual space image including the avatar 50A drawn by the service A is displayed on the display unit 20a of the user terminal 20. Further, a drawing parameter Ra indicating a predetermined drawing condition in the service A is applied to the avatar 50A. This drawing parameter Ra may be different from the drawing parameter R defined in the avatar generation environment described above. In this embodiment, the drawing parameter Ra includes parameters indicating a shader condition "apply a monochrome shader" and a light condition "no light".
  • the appearance of the avatar 50 confirmed on the preview screen SC2 of the avatar generation environment may deviate from the appearance of the avatar 50A when actually used in the service A (see FIG. 3), and the user may feel dissatisfied.
  • the avatar generation device 10 has a function to avoid the user's dissatisfaction as described above. Each function of the avatar generation device 10 will be described below with reference to FIG. 4.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the avatar generation device 10.
  • the avatar generation device 10 includes a storage section 11 (parameter storage section, list information storage section, history information storage section), a generation section 12, a determination section 13, a parameter acquisition section 14, It has a display section 15.
  • the storage unit 11 stores various data used in the avatar generation device 10.
  • the storage unit 11 stores drawing parameters corresponding to each of a plurality of avatar-using services (in this embodiment, services A, B, C, etc. in FIG. 1) in association with each of the plurality of services. There is. That is, the storage unit 11 holds in advance the drawing parameters Rb and Rc corresponding to the other services B and C, as well as the drawing parameter Ra corresponding to the service A described above.
  • the storage unit 11 stores list information indicating a list of services that can be used by the user among a plurality of services.
  • the user of the user terminal 20 has completed usage registration (account registration) for services A, B, and C, and is now able to use services A, B, and C.
  • the list information stores services A, B, and C as a list of services available to the user.
  • the storage unit 11 stores history information (see FIG. 12) regarding the user's usage history of a plurality of services.
  • the history information is information that accumulates used services and information regarding the usage period during which each service was used (for example, login time and logoff time). By referring to the history information, it is possible to identify the service that was most recently used by the user, the service that was used the most times in the most recent predetermined period, the service that was used for the longest time in the most recent predetermined period, and the like.
  • the storage unit 11 may store the above-mentioned list information and history information for each user (user account).
  • the generation unit 12 generates avatars that can be used in multiple services that provide virtual spaces to users (for example, services A, B, and C in FIG. 1).
  • the generation unit 12 provides the user with an avatar generation environment (see FIG. 2) that determines the appearance of the avatar based on the content of the user's operation.
  • the generation unit 12 allows the user to use the avatar generation environment in response to receiving a request to use the avatar generation environment from the user (user terminal 20). That is, upon receiving a usage request from a user, the generation unit 12 displays the avatar creation screen SC1 on the display unit 20a of the user terminal 20, and receives an operation from the user to input information for determining the appearance of the avatar. The generation unit 12 then determines the appearance of the avatar based on the information input by the user.
  • the determining unit 13 determines a target service that is one service included in a plurality of services. The details of the processing of the determining unit 13 will be explained together with the explanation of the processing flow described later.
  • the parameter acquisition unit 14 acquires a drawing parameter indicating the drawing condition applied to the avatar in the target service determined by the determination unit 13.
  • the parameter acquisition unit 14 acquires the drawing parameters corresponding to the target service from the storage unit 11 by referring to the storage unit 11 using the target service as key information. For example, when "service A" is determined as the target service by the determination unit 13, the parameter acquisition unit 14 draws a drawing corresponding to service A by referring to the storage unit 11 using "service A" as key information. Obtain the parameter Ra.
  • the display unit 15 generates a preview image showing the avatar generated by the generation unit 12 (that is, the image of the avatar displayed on the preview screen SC2).
  • FIG. 5 is a diagram illustrating an example of preview display processing by the display unit 15.
  • the display unit 15 displays an avatar 50 (that is, an avatar having an appearance to which a predetermined drawing parameter R is applied in the avatar generation environment) generated by the generation unit 12 (avatar creation screen SC1). ), the drawing parameters acquired by the parameter acquisition unit 14 are applied.
  • the drawing parameter Ra corresponding to the service A determined as the target service to the avatar 50
  • the display unit 15 displays the avatar 50A corresponding to the target service (that is, the drawing parameter Ra is applied).
  • a preview image showing an avatar (with external appearance) is generated, and a preview screen SC2 including the preview image is displayed.
  • the user when checking the appearance of the avatar generated in the avatar generation environment, the user can check the appearance of the avatar that will be applied when the avatar is actually used in the target service. becomes possible.
  • FIG. 6 is a diagram schematically showing two usage patterns of the avatar generation environment provided by the avatar generation device 10.
  • the first pattern is a pattern in which the user accesses the avatar generation environment while using the avatar utilization service (any of services A, B, or C).
  • a pattern in which a user accesses the avatar generation environment in order to change the appearance of the avatar while using the avatar in an avatar usage service may correspond to the first pattern.
  • a link button labeled "Create (edit) an avatar” or the like may be placed in the virtual space provided by the avatar usage service.
  • the user can transmit a request to use the avatar generation environment to the avatar generation device 10 and transition to the avatar generation environment by performing an operation of selecting the link button.
  • the second pattern is a pattern in which the user accesses the avatar generation environment before using the avatar-using service (that is, while not using the avatar-using service). That is, the second pattern is a pattern in which an avatar is first prepared on the premise that the user will use the avatar in any of the avatar usage services.
  • the mechanism of the avatar generation device 10 described above can be used in both the first pattern and the second pattern.
  • the operation of the avatar generation device 10 in each pattern will be explained together with the explanation of the processing flow described later.
  • step S1 the generation unit 12 provides the user with an avatar generation environment (see FIG. 2).
  • the generation unit 12 provides the avatar generation environment to the user in response to receiving a request to use the avatar generation environment from the user (user terminal 20).
  • the generation unit 12 sends the avatar usage service that the user was using before accessing the avatar generation environment (that is, the transition source avatar usage service) together with the usage request.
  • Get the service information shown For example, if the avatar-based service used by the user is "Service A," the service information is information for specifying Service A.
  • the service information may be any information that can uniquely identify the service A, and is not limited to a specific form of information. Examples of service information include information indicating a service name and an access destination of service A (eg, URI, etc.).
  • step S2 the determining unit 13 determines a target service from among a plurality of avatar-based services.
  • FIG. 8 is a flowchart showing a first example of the process of step S2.
  • the first example corresponds to the first pattern described above. That is, the first example corresponds to a case where a transition occurs from a first state in which one of a plurality of avatar-using services is being used by a user to a second state in which the avatar generation environment is being used by the user. .
  • the determining unit 13 acquires service information indicating one service that the user was using in the first state, and determines the one service indicated in the service information as the target service. An example of the operation related to the above processing will be described below.
  • step S11 the determining unit 13 acquires service information indicating the transition source avatar-using service (that is, the one service that the user was using in the first state).
  • service information indicating service A is acquired in step S1. Therefore, the determining unit 13 only needs to acquire the service information acquired by the generating unit 12 in step S1.
  • step S12 the determining unit 13 determines one service (here, "service A") indicated by the service information acquired in step S11 as the target service.
  • service A one service indicated by the service information acquired in step S11 as the target service.
  • FIG. 9 is a flowchart showing a second example of the process of step S2.
  • the second example corresponds to the second pattern described above.
  • the determining unit 13 causes the user to specify one service from among the services included in the list information stored in the storage unit 11, and selects the one service specified by the user as the target service. Determine as.
  • An example of the operation related to the above processing will be described below.
  • the determining unit 13 acquires list information indicating a list of services available to the user.
  • the determining unit 13 obtains list information corresponding to the user of the user terminal 20 who has accessed the avatar generation environment by referring to the storage unit 11.
  • the usage request acquired by the generation unit 12 in step S1 may include user information (for example, account information) that identifies the user.
  • the determining unit 13 can obtain list information of the users indicated by the user information by referring to the storage unit 11 using the user information as key information.
  • step S22 the determining unit 13 allows the user to specify one service from among the services included in the list information.
  • the determining unit 13 displays a service selection screen SC3 shown in FIG. 10 on the display unit 20a of the user terminal 20, and allows the user to select one of the services.
  • the determining unit 13 determines the service specified by the user as the target service. For example, as shown in FIG. 10, the determining unit 13 selects a selection button B2 corresponding to each of the services included in the list information (here, as an example, services A, B, and C) on the service selection screen SC3. Place it in In this case, the determining unit 13 may determine the service corresponding to the selection button B2 selected by the user as the target service.
  • the list information here, as an example, services A, B, and C
  • FIG. 11 is a flowchart showing a third example of the process of step S2.
  • the third example corresponds to the second pattern described above.
  • the determining unit 13 determines the target service based on the history information stored in the storage unit 11.
  • FIG. 12 is a diagram showing an example of history information. An example of the operation related to the above processing will be described below.
  • the determining unit 13 acquires history information (see FIG. 12) regarding the user's usage history for a plurality of avatar-based services from the storage unit 11.
  • the usage request acquired by the generation unit 12 in step S1 may include user information (for example, account information) that identifies the user.
  • the determining unit 13 can obtain history information of the user indicated by the user information by referring to the storage unit 11 using the user information as key information.
  • step S32 the determining unit 13 extracts services that meet predetermined conditions based on the history information.
  • predetermined conditions for example, if the current time is "0:00 on August 1, 2022" and the predetermined condition is "service used most recently by the user", service C is extracted. Ru. Further, if the predetermined condition is "a service that has been used the most times in the most recent predetermined period (for example, 5 days)", then the service A that has the highest total number of uses (number of logins) is extracted. Further, if the predetermined condition is "service used for the longest time in the most recent predetermined period (for example, 5 days)", service B with the longest total usage time is extracted.
  • step S33 the determining unit 13 determines the service extracted in step S32 as the target service.
  • the parameter acquisition unit 14 acquires a drawing parameter indicating the drawing condition applied to the avatar in the target service.
  • the parameter acquisition unit 14 acquires the drawing parameters corresponding to the target service from the storage unit 11 by referring to the storage unit 11 using the target service as key information.
  • the drawing parameter Ra corresponding to service A is obtained.
  • step S4 the display unit 15 uses the acquired drawing parameters Ra to generate and display a preview image.
  • the display unit 15 does not display the avatar 50 to which the drawing parameter R prepared in advance in the avatar generation environment is applied, but to which the drawing parameter Ra used in the target service (service A) is applied.
  • a preview screen SC2 including a preview image showing the avatar 50A is generated and displayed.
  • the user is provided with an avatar generation environment (object generation environment) for generating avatars (virtual objects), as well as a function to display a preview of the generated avatar. Furthermore, when displaying a preview, instead of using the drawing parameters R prepared in advance in the avatar generation environment, the drawing parameters used in one service (target service) included in a plurality of avatar-using services that provide a virtual space (e.g. , an avatar 50A to which the drawing parameter Ra) of the service A, which is the target service, is applied is displayed (see FIG. 5).
  • the user can preview the appearance (avatar) that will be applied when the avatar is used in the target service. 50A).
  • avatar appearance
  • the user actually uses the avatar generated in the avatar generation environment in the target service it is possible to avoid the appearance of the avatar from being contrary to the user's intention, which improves the user's service experience. can improve the quality of
  • the avatar generation device 10 also includes a storage unit 11 that stores drawing parameters corresponding to each of the plurality of services in association with each of the plurality of services, and the parameter acquisition unit 14 uses the target service as key information.
  • the drawing parameters corresponding to the target service are acquired from the storage unit 11.
  • the avatar generation device 10 (mainly the determining unit 13) is configured to be able to execute the process of the first example described above (see FIG. 8). According to the above configuration, by determining the transition source avatar usage service as the target service, the appearance of the avatar displayed in the avatar usage service where the avatar generated in the avatar generation environment is likely to be used soon thereafter. It becomes possible to have the user confirm the information. Further, since the user does not need to perform an explicit designation operation to determine the target service, it is possible to reduce the user's effort when determining the target service.
  • the avatar generation device 10 (mainly the determining unit 13) is configured to be able to execute the process of the second example described above (see FIG. 9).
  • the user by having the user specify the target service, it is possible to reliably determine the service desired by the user as the target service. Further, for example, according to a configuration in which a list of services available to the user is presented to the user and the user is asked to specify one service from the presented service list, the user when specifying (selecting) the target service. Convenience can be improved.
  • the avatar generation device 10 (mainly the determining unit 13) is configured to be able to execute the process of the third example described above (see FIG. 11).
  • an appropriate target service i.e., a service for which the user is considered to have a high degree of desire to check the appearance of the avatar while using the service
  • an appropriate target service is determined based on the user's usage history for multiple services. be able to.
  • the user since the user does not need to perform an explicit designation operation to determine the target service, it is possible to reduce the user's effort when determining the target service.
  • the avatar generation device 10 that generates an avatar, which is an example of a virtual object, has been described, but the avatar generation device 10 described above may be configured as a device that generates virtual objects other than avatars. In this case as well, the same effects as those of the avatar generation device 10 described above can be obtained.
  • the virtual object when a user actually uses a virtual object generated by the generation environment in a target service, it is possible to prevent the virtual object from having an appearance that is contrary to the user's intention, thereby improving the user's service experience. can improve the quality of
  • the avatar generation device 10 is configured as a separate device from the user terminal 20, but the avatar generation device 10 may be the same as the user terminal 20. That is, each function of the avatar generation device 10 described above (see FIG. 4) may be incorporated into the user terminal 20. In other words, the user terminal 20 may function as the avatar generation device 10 described above. Alternatively, some of the functions of the avatar generation device 10 described above may be incorporated into the user terminal 20. For example, each function other than the storage unit 11 described above may be implemented in the user terminal 20. In this case, the determination unit 13 and parameter acquisition unit 14 incorporated in the user terminal 20 are configured to access the storage unit 11 held by the avatar generation device 10 and acquire necessary data.
  • the avatar generation device 10 is a device different from the user terminal 20 (that is, the user terminal of each of the plurality of users). It is preferable that the device be configured as a device capable of providing an avatar generation environment for 20.
  • the virtual object generation device (avatar generation device 10 in the above embodiment) of the present disclosure has the following configuration.
  • a generation unit that generates virtual objects that can be used in multiple services that provide virtual spaces to users; a determining unit that determines a target service that is one service included in the plurality of services; a parameter acquisition unit that acquires a drawing parameter indicating a drawing condition applied to the virtual object in the target service; a display unit that generates and displays a preview image showing the virtual object corresponding to the target service by applying the drawing parameter acquired by the parameter acquisition unit to the virtual object generated by the generation unit;
  • a virtual object generation device comprising:
  • the generation unit provides the user with an object generation environment that determines the appearance of the virtual object based on the content of the operation by the user;
  • the determining unit is configured to determine whether the determining unit determines whether the object generation environment is used in the first state, in which the object generation environment is used by the user, or from a first state in which one of the plurality of services is used by the user, to a second state in which the object generation environment is used by the user.
  • the virtual object generation device according to [1] or [2].
  • [4] Further comprising a list information storage unit that stores list information indicating a list of services that can be used by the user among the plurality of services,
  • the determining unit causes the user to specify one service from among the services included in the list information stored in the list information storage unit, and selects the one service specified by the user as the target service. decide as, The virtual object generation device according to [1] or [2].
  • [5] further comprising a history information storage unit that stores history information regarding the user's usage history for the plurality of services;
  • the determining unit determines the target service based on the historical information stored in the historical information storage unit.
  • each functional block may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g. , wired, wireless, etc.) and may be realized using a plurality of these devices.
  • the functional block may be realized by combining software with the one device or the plurality of devices.
  • Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, exploration, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, consideration, These include, but are not limited to, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, and assigning. I can't.
  • the avatar generation device 10 in one embodiment of the present disclosure may function as a computer that performs the information processing method of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of the hardware configuration of the avatar generation device 10 according to an embodiment of the present disclosure.
  • the avatar generation device 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.
  • the user terminal 20 may also have the same hardware configuration as the avatar generation device 10.
  • the word “apparatus” can be read as a circuit, a device, a unit, etc.
  • the hardware configuration of the avatar generation device 10 may be configured to include one or more of each device shown in FIG. 13, or may be configured not to include some of the devices.
  • Each function in the avatar generation device 10 is performed by loading predetermined software (programs) onto hardware such as the processor 1001 and memory 1002, so that the processor 1001 performs calculations, controls communication by the communication device 1004, and controls communication by the communication device 1004. This is realized by controlling at least one of reading and writing data in the storage 1002 and the storage 1003.
  • the processor 1001 for example, operates an operating system to control the entire computer.
  • the processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic unit, registers, and the like.
  • CPU central processing unit
  • the processor 1001 reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes in accordance with these.
  • programs program codes
  • software modules software modules
  • data etc.
  • the program a program that causes a computer to execute at least part of the operations described in the above embodiments is used.
  • each functional unit for example, the display unit 15, etc.
  • each functional unit for example, the display unit 15, etc.
  • the avatar generation device 10 may be realized by a control program stored in the memory 1002 and operated in the processor 1001, and other functional blocks may also be realized in the same way. You can.
  • Processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunications line.
  • the memory 1002 is a computer-readable recording medium, and includes at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), etc. may be done.
  • Memory 1002 may be called a register, cache, main memory, or the like.
  • the memory 1002 can store executable programs (program codes), software modules, and the like to implement an information processing method according to an embodiment of the present disclosure.
  • the storage 1003 is a computer-readable recording medium, such as an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, or a magneto-optical disk (for example, a compact disk, a digital versatile disk, or a Blu-ray disk). (registered trademark disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, etc.
  • Storage 1003 may also be called an auxiliary storage device.
  • the storage medium mentioned above may be, for example, a database including at least one of memory 1002 and storage 1003, a server, or other suitable medium.
  • the communication device 1004 is hardware (transmission/reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as a network device, network controller, network card, communication module, etc., for example.
  • the input device 1005 is an input device (eg, keyboard, mouse, microphone, switch, button, sensor, etc.) that accepts input from the outside.
  • the output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).
  • each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured using a single bus, or may be configured using different buses for each device.
  • the avatar generation device 10 also includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA).
  • DSP digital signal processor
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • a part or all of each functional block may be realized by the hardware.
  • processor 1001 may be implemented using at least one of these hardwares.
  • the input/output information may be stored in a specific location (for example, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
  • Judgment may be made using a value expressed by 1 bit (0 or 1), a truth value (Boolean: true or false), or a comparison of numerical values (for example, a predetermined value). (comparison with a value).
  • notification of prescribed information is not limited to being done explicitly, but may also be done implicitly (for example, not notifying the prescribed information). Good too.
  • Software includes instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name. , should be broadly construed to mean an application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc.
  • software, instructions, information, etc. may be sent and received via a transmission medium.
  • a transmission medium For example, if the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create a website, When transmitted from a server or other remote source, these wired and/or wireless technologies are included within the definition of transmission medium.
  • wired technology coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of
  • information, parameters, etc. described in this disclosure may be expressed using absolute values, relative values from a predetermined value, or using other corresponding information. may be expressed.
  • the phrase “based on” does not mean “based solely on” unless explicitly stated otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • any reference to elements using the designations "first,” “second,” etc. does not generally limit the amount or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.
  • a and B are different may mean “A and B are different from each other.” Note that the term may also mean that "A and B are each different from C”. Terms such as “separate” and “coupled” may also be interpreted similarly to “different.”
  • Avatar generation device virtual object generation device
  • 11... Storage section parameter storage section, list information storage section
  • 12... Generation section 13... Determination section
  • 14... Parameter acquisition section 15... Display section, 20... User terminal, 30... Server, 50, 50A... Avatar (virtual object), A, B, C... Service, R, Ra... Drawing parameter.

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一実施形態のアバター生成装置10は、ユーザに仮想空間を提供する複数のサービスで利用可能なアバターを生成する生成部12と、複数のサービスに含まれる一のサービスである対象サービスを決定する決定部13と、対象サービスにおいてアバターに適用される描画条件を示す描画パラメータを取得するパラメータ取得部14と、生成部12により生成されたアバターにパラメータ取得部14により取得された描画パラメータを適用することにより、対象サービスに対応するアバターを示すプレビュー画像を生成及び表示する表示部15と、を備える。

Description

仮想オブジェクト生成装置
 本発明の一側面は、仮想オブジェクト生成装置に関する。
 仮想現実(VR)、拡張現実(AR)、複合現実(MR)等の仮想空間をユーザに提供するサービスが知られている。このようなサービスでは、例えば、ユーザは、自身の分身であるアバター(仮想オブジェクト)を操作することによって、仮想空間を楽しむことができる。ところで、VR,AR,MR等のXR(Extended Reality)を利用するサービスは複数存在しているが、アバターを作成するシステムがサービス毎にそれぞれ異なるため、ユーザがサービス毎にアバターを作る必要があるという課題があった。非特許文献1には、このような課題を解決するために、複数のサービスの各々で共通に利用可能なアバターを生成し、生成されたアバターをユーザのアカウントに紐付けて管理することを可能としたシステム(ドコモ・アバターポータル)が開示されている。
"XR空間におけるお客さまのアバターを作成・管理できる「ドコモ・アバターポータル」を開発"、2022年1月20日、[online]、[2022年7月28日検索]、インターネット<https://www.docomo.ne.jp/info/news_release/2022/01/11_00.html>
 非特許文献1に開示されたシステムによれば、ユーザは、XRを用いたサービス毎に個別にアバターを生成する手間から解放される。しかし、仮想空間内に仮想オブジェクト(アバター)を描画する際に適用される描画条件(例えば、シェーダ、ライト等の条件)は、仮想オブジェクトの生成(編集)を行う生成環境(例えば、非特許文献1に開示されたシステムにより提供される環境)と各サービスとの間で異なる場合がある。この場合、仮想オブジェクトの生成環境が提供するプレビュー表示機能によって確認された仮想オブジェクトの外観(見え方)が、当該仮想オブジェクトが各サービスで実際に利用される際に適用される外観と異なる場合がある。また、このような仮想オブジェクトの外観の乖離が大きいと、ユーザが不満に感じるおそれがある。
 そこで、本発明の一側面は、仮想空間を提供するサービスにおける仮想オブジェクトの外観がユーザの意図に反する外観になることを回避することにより、ユーザのサービス体験の品質を向上させることができる仮想オブジェクト生成装置を提供することを目的とする。
 本発明の一側面に係る仮想オブジェクト生成装置は、ユーザに仮想空間を提供する複数のサービスで利用可能な仮想オブジェクトを生成する生成部と、複数のサービスに含まれる一のサービスである対象サービスを決定する決定部と、対象サービスにおいて仮想オブジェクトに適用される描画条件を示す描画パラメータを取得するパラメータ取得部と、生成部により生成された仮想オブジェクトにパラメータ取得部により取得された描画パラメータを適用することにより、対象サービスに対応する仮想オブジェクトを示すプレビュー画像を生成及び表示する表示部と、を備える。
 本発明の一側面に係る仮想オブジェクト生成装置においては、仮想オブジェクトを生成する生成環境と共に、生成された仮想オブジェクトをプレビュー表示する機能がユーザに提供される。さらに、プレビュー表示の際に、生成環境において予め用意されている描画パラメータではなく、仮想空間を提供する複数のサービスに含まれる一のサービス(対象サービス)において用いられる描画パラメータが適用された仮想オブジェクトが表示される。上記構成によれば、ユーザは、プレビュー表示の時点(すなわち、実際にユーザが対象サービスで仮想オブジェクトを利用する前の時点)で、当該仮想オブジェクトが対象サービスで利用される際に適用される外観を確認することが可能となる。その結果、生成環境で生成された仮想オブジェクトを実際にユーザが対象サービスで利用する際に、当該仮想オブジェクトの外観がユーザの意図に反する外観になることを回避することができるため、ユーザのサービス体験の品質を向上させることができる。
 本発明の一側面によれば、仮想空間を提供するサービスにおける仮想オブジェクトの外観がユーザの意図に反する外観になることを回避することにより、ユーザのサービス体験の品質を向上させることができる仮想オブジェクト生成装置を提供することができる。
一実施形態に係るアバター生成装置を含む情報システムの構成の一例を示す図である。 アバター生成装置が提供するアバター生成環境と生成されたアバターの一例とを示す図である。 アバター生成装置によって生成されたアバターが一のサービス(サービスA)で利用される際のアバターの外観を示す図である。 アバター生成装置の機能構成の一例を示すブロック図である。 アバター生成装置のプレビュー表示処理の一例を示す図である。 アバター生成環境の2つの利用パターンを模式的に示す図である。 アバター生成装置の動作の一例を示すフローチャートである。 図7のステップS2の処理の第1例を示すフローチャートである。 図7のステップS2の処理の第2例を示すフローチャートである。 図9のステップS22においてユーザに提示されるメニュー画面の一例を示す図である。 図7のステップS2の処理の第3例を示すフローチャートである。 図11のステップS31において取得される履歴情報の一例を示す図である。 アバター生成装置のハードウェア構成の一例を示す図である。
 以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。
 図1は、一実施形態に係るアバター生成装置10(仮想オブジェクト生成装置)を含む情報システム1の一例を示す図である。情報システム1は、アバター生成装置10と、ユーザ端末20と、複数のサーバ30と、を含んでいる。アバター生成装置10、ユーザ端末20、及び複数のサーバ30は、有線又は無線の通信ネットワークNを介して、互いにデータ通信可能に接続されている。なお、少なくともアバター生成装置10とユーザ端末20との間、及び、ユーザ端末20と各サーバ30との間において通信可能となっていればよく、アバター生成装置10と各サーバ30とは、通信可能に構成されていなくてもよい。
 アバター生成装置10は、アバターを生成するためのアバター生成環境(オブジェクト生成環境)をユーザに提供する装置である。アバターは、仮想オブジェクトの一例である。仮想オブジェクトとは、現実世界には存在せず、コンピュータシステム上で表現される物体である。仮想オブジェクトは、例えば、2次元又は3次元のコンピュータグラフィックス(CG)によって表現され得る。ただし、仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。アバター生成装置10の機能の詳細は後述する。
ユーザ端末20は、ユーザにより使用されるコンピュータ端末である。ユーザ端末20の種類は限定されない。例えば、ユーザ端末20は、デスクトップPC、ラップトップPC等のパーソナルコンピュータであってもよいし、ユーザの手に保持されるスマートフォン、タブレット等の端末装置であってもよいし、ユーザの頭部等の身体の一部に装着されるウェアラブルデバイスであってもよい。ウェアラブルデバイスの例としては、ゴーグル型、グラス型(眼鏡型)、帽子型等のヘットマウントディスプレイ等が挙げられる。
 ユーザ端末20は、アバター生成装置10により提供されるアバター作成画面SC1及びプレビュー画面SC2(図2参照)、各サーバ30により提供されるサービス画面(アバターを含む仮想空間画像)等を表示するための表示部20aを備えている。ユーザ端末20がPCである場合には、表示部20aは、ディスプレイモニタによって構成され得る。ユーザ端末20がスマートフォン等の携帯端末である場合には、表示部20aは、タッチパネルディスプレイによって構成され得る。ユーザ端末20がヘッドマウントディスプレイである場合には、表示部20aは、ユーザの両目の前方に配置されるディスプレイによって構成され得る。
 ユーザ端末20は、ユーザからの入力操作を受け付ける操作インターフェースを備えている。ユーザ端末20がPCである場合には、操作インターフェースは、マウス、キーボード等の入力デバイスである。ユーザ端末20がスマートフォン等の携帯端末である場合には、タッチパネルディスプレイが上述した表示部20aとして機能すると共に操作インターフェースとして機能する。ユーザ端末20がヘッドマウントディスプレイである場合には、ユーザの手に握られる専用のコントローラ等が操作インターフェースとして利用され得る。ただし、上記は一例であり、ユーザ端末20は、上記以外の操作インターフェース(例えば、音声入力デバイス等)を備えてもよい。
 サーバ30は、ユーザに仮想空間を提供する装置である。より具体的には、サーバ30は、アバター生成環境において生成されたアバターを仮想空間に表示するアバター利用サービス(サービス)をユーザに提供する。サーバ30により提供される仮想空間は、仮想現実(VR:Virtual Reality)空間であってもよいし、拡張現実(AR:Augmented Reality)空間であってもよいし、複合現実(MR:Mixed Reality)空間であってもよい。すなわち、アバター利用サービスは、VR,AR,MR等のXR(Extended Reality)においてアバターを利用可能なXRサービスである。図1には、複数のサーバ30の例として、サービスAを提供するサーバ30Aと、サービスBを提供するサーバ30Bと、サービスCを提供するサーバ30Cと、が図示されているが、複数のサーバ30は、サービスA,B,C以外のアバター利用サービスを提供する他の一以上のサーバを含み得る。
 図2は、アバター生成装置10が提供するアバター生成環境と生成されたアバター50の一例とを示す図である。図2に示されるように、本実施形態では、アバター生成装置10は、ユーザの操作内容に基づいてアバターの外観を決定(編集)するアバター生成環境をユーザに提供する。一例として、アバター生成装置10は、アバター作成画面SC1をユーザ端末20に表示させ、アバター作成画面SC1に対するユーザ操作(ユーザ入力)を受け付け、受け付けたユーザ操作の内容に基づいて、アバターを生成する。ユーザは、アバター作成画面SC1を介して、アバターの外観を決定するための種々の情報を入力することができる。図2の例では、ユーザは、自身の顔写真をアップロードしたり、アバター名を入力したり、自身の身長及び体型を入力したりすることが可能に構成されている。なお、これらの入力情報は一例であり、アバター作成画面SC1は、これら以外の入力情報を受け付けるように構成されてもよい。
 ユーザは、アバター作成画面SC1に配置された、プレビュー表示を行うためのリンクボタンB1を選択する操作を実行することにより、上記のようにユーザによって入力された情報に基づいて生成されたアバターの外観を確認するためのプレビュー画面SC2を開くことができる。プレビュー画面SC2には、生成されたアバター50の外観が表示される。ここで、仮想空間内にアバターを表示(描画)する際には、アバターに対して所定の描画条件(レンダリング条件)が適用される。描画条件は、アバターのシェーダ条件(影の付き方等)、ライト条件(光の反射具合等)等、仮想空間内でアバターの外観を表現する際に用いられる種々の描画パラメータを含んでいる。図2の例では、プレビュー画面SC2に表示されたアバター50には、アバター生成環境において予め定められた描画条件を示す描画パラメータRが適用されている。この例では、描画パラメータRは、シェーダ条件「Unlitシェーダ(ライトの影響を受けないシェーダ)を適用する」と、ライト条件「ライトあり」と、を示すパラメータを含んでいる。
 図3は、アバター生成装置10(アバター生成環境)によって生成されたアバター50が一のサービス(ここでは一例としてサーバ30Aによって提供されるサービスA)で利用される際のアバター50Aの外観を示す図である。図3に示されるように、ユーザがサービスAを利用する際には、ユーザ端末20の表示部20aに、サービスAによって描画されるアバター50Aを含む仮想空間画像が表示される。また、アバター50Aには、サービスAにおいて予め定められた描画条件を示す描画パラメータRaが適用される。この描画パラメータRaは、上述したアバター生成環境において定められた描画パラメータRとは異なっている場合がある。本実施形態では、描画パラメータRaは、シェーダ条件「モノクロのシェーダを適用する」と、ライト条件「ライトなし」と、を示すパラメータを含んでいる。このように、アバター生成環境において用意されている描画パラメータRが、サービスAにおいて用意されている描画パラメータRaと異なっている場合、アバター生成環境のプレビュー画面SC2で確認されたアバター50の外観(図2参照)が、実際にサービスAで利用される際のアバター50Aの外観(図3参照)から乖離してしまい、ユーザが不満に感じるおそれがある。特に、ユーザがアバター生成環境においてこだわりを持って相応の時間をかけてアバターを作成した場合には、上記の外観の乖離によるユーザの不満が大きくなるおそれがある。そこで、アバター生成装置10は、上記のようなユーザの不満の発生を回避するための機能を有している。以下、図4を参照して、アバター生成装置10の各機能について説明する。
 図4は、アバター生成装置10の機能構成の一例を示すブロック図である。図4に示されるように、アバター生成装置10は、記憶部11(パラメータ記憶部、リスト情報記憶部、履歴情報記憶部)と、生成部12と、決定部13と、パラメータ取得部14と、表示部15と、を有する。
 記憶部11は、アバター生成装置10において利用される各種データを記憶している。一例として、記憶部11は、複数のアバター利用サービス(本実施形態では、図1のサービスA,B,C等)の各々に対応する描画パラメータを、複数のサービスの各々に関連付けて記憶している。すなわち、記憶部11は、上述したサービスAに対応する描画パラメータRaと共に、他のサービスB,Cに対応する描画パラメータRb,Rcについても予め保持している。
 また、記憶部11は、複数のサービスのうちユーザによって利用可能なサービスの一覧を示すリスト情報を記憶している。本実施形態では、一例として、ユーザ端末20のユーザは、サービスA,B,Cの利用登録(アカウント登録)を完了しており、サービスA,B,Cを利用可能となっている。この場合、リスト情報は、サービスA,B,Cをユーザによって利用可能なサービス一覧として記憶している。
 また、記憶部11は、複数のサービスに対するユーザの利用履歴に関する履歴情報(図12参照)を記憶している。一例として、履歴情報は、利用されたサービスと、各サービスが利用された利用期間に関する情報(例えば、ログイン時刻及びログオフ時刻)と、を蓄積した情報である。履歴情報を参照することにより、直近でユーザによって利用されたサービス、直近の所定期間で最も多い利用回数を有するサービス、直近の所定期間で最も長時間利用されたサービス等を特定することができる。
 なお、アバター生成装置10によるアバター生成環境を利用可能なユーザが複数存在する場合(すなわち、アバター生成装置10が複数のユーザに対してアバター生成環境を提供可能に構成されている場合)には、記憶部11は、ユーザ(ユーザアカウント)毎に、上述したリスト情報及び履歴情報を記憶してもよい。
 生成部12は、ユーザに仮想空間を提供する複数のサービス(例えば図1のサービスA,B,C等)で利用可能なアバターを生成する。本実施形態では、生成部12は、ユーザによる操作の内容に基づいてアバターの外観を決定するアバター生成環境(図2参照)をユーザに提供する。一例として、生成部12は、ユーザ(ユーザ端末20)からのアバター生成環境の利用要求を受け付けたことに応じて、ユーザにアバター生成環境を利用させる。すなわち、生成部12は、ユーザから利用要求を受け付けると、ユーザ端末20の表示部20aにアバター作成画面SC1を表示させ、アバターの外観を決定するための情報を入力する操作をユーザから受け付ける。そして、生成部12は、ユーザによって入力された情報に基づいてアバターの外観を決定する。
 決定部13は、複数のサービスに含まれる一のサービスである対象サービスを決定する。決定部13の処理の詳細については、後述する処理フローの説明と併せて説明する。
 パラメータ取得部14は、決定部13により決定された対象サービスにおいてアバターに適用される描画条件を示す描画パラメータを取得する。一例として、パラメータ取得部14は、対象サービスをキー情報として用いて記憶部11を参照することにより、記憶部11から対象サービスに対応する描画パラメータを取得する。例えば、決定部13によって「サービスA」が対象サービスとして決定された場合には、パラメータ取得部14は、「サービスA」をキー情報として記憶部11を参照することにより、サービスAに対応する描画パラメータRaを取得する。
 表示部15は、生成部12により生成されたアバターを示すプレビュー画像(すなわち、プレビュー画面SC2に表示されるアバターの画像)を生成する。図5は、表示部15によるプレビュー表示処理の一例を示す図である。図5に示されるように、表示部15は、生成部12(アバター作成画面SC1)により生成されたアバター50(すなわち、アバター生成環境において予め定められた描画パラメータRが適用された外観を有するアバター)に、パラメータ取得部14により取得された描画パラメータを適用する。ここでは一例として、表示部15は、対象サービスとして決定されたサービスAに対応する描画パラメータRaをアバター50に適用することにより、対象サービスに対応するアバター50A(すなわち、描画パラメータRaが適用された外観を有するアバター)を示すプレビュー画像を生成し、当該プレビュー画像を含むプレビュー画面SC2を表示する。上記のプレビュー表示処理によれば、ユーザは、アバター生成環境で生成されたアバターの外観を確認する際に、実際に対象サービスでアバターが利用される際に適用されるアバターの外観を確認することが可能となる。
 図6は、アバター生成装置10により提供されるアバター生成環境の2つの利用パターンを模式的に示す図である。
 第1パターンは、ユーザがアバター利用サービス(サービスA,B,Cのいずれか)を利用している状態で、アバター生成環境にアクセスするパターンである。例えば、ユーザがアバター利用サービスでアバターを利用している際に、アバターの外観を変更したいと考え、アバター生成環境にアクセスするパターンが、第1パターンに該当し得る。例えば、アバター利用サービスによって提供される仮想空間内に「アバターを作成(編集)する」等と表示されたリンクボタンが配置されてもよい。この場合、ユーザは、当該リンクボタンを選択する操作を実行することにより、アバター生成装置10にアバター生成環境の利用要求を送信し、アバター生成環境へと遷移することができる。
 第2パターンは、ユーザがアバター利用サービスを利用する前に(すなわち、アバター利用サービスを利用していない状態で)、アバター生成環境にアクセスするパターンである。すなわち、第2パターンは、ユーザがいずれかのアバター利用サービスでアバターを利用することを前提として、先にアバターを用意するパターンである。
 上記のアバター生成装置10の仕組みは、第1パターン及び第2パターンのいずれにおいても利用可能である。各パターンにおけるアバター生成装置10の動作については、後述する処理フローの説明と併せて説明する。
 図7を参照して、アバター生成装置10の動作の一例について説明する。ステップS1において、生成部12は、アバター生成環境(図2参照)をユーザに提供する。例えば、生成部12は、ユーザ(ユーザ端末20)からのアバター生成環境の利用要求を受け付けたことに応じて、アバター生成環境をユーザに提供する。ここで、上記の第1パターンの場合には、生成部12は、利用要求と共に、アバター生成環境にアクセスする前にユーザが利用していたアバター利用サービス(すなわち、遷移元のアバター利用サービス)を示すサービス情報を取得する。例えば、ユーザが利用していたアバター利用サービスが「サービスA」である場合、サービス情報は、サービスAを特定するための情報である。サービス情報は、サービスAを一意に識別可能な情報であればよく、特定の形態の情報に限られない。サービス情報の例としては、サービス名、サービスAのアクセス先(例えばURI等)を示す情報が挙げられる。
 ステップS2において、決定部13は、複数のアバター利用サービスのうちから対象サービスを決定する。以下、ステップS2の処理のいくつかの例(第1例~第3例)について説明する。
(第1例)
 図8は、ステップS2の処理の第1例を示すフローチャートである。第1例は、上述した第1パターンに該当する。すなわち、第1例は、複数のアバター利用サービスのうちの一のサービスがユーザに利用されている第1状態から、アバター生成環境がユーザに利用される第2状態へと遷移した場合に該当する。第1例においては、決定部13は、第1状態においてユーザが利用していた一のサービスを示すサービス情報を取得し、当該サービス情報に示される当該一のサービスを対象サービスとして決定する。以下、上記処理に係る動作の一例について説明する。
 ステップS11において、決定部13は、遷移元のアバター利用サービス(すなわち、第1状態においてユーザが利用していた一のサービス)を示すサービス情報を取得する。ここでは一例として、ユーザがサービスAを利用している状態でアバター生成環境にアクセスしたとする。この場合、本実施形態では、ステップS1において、サービスAを示すサービス情報が取得されている。従って、決定部13は、ステップS1において生成部12によって取得されたサービス情報を取得すればよい。
 ステップS12において、決定部13は、ステップS11において取得されたサービス情報が示す一のサービス(ここでは「サービスA」)を対象サービスとして決定する。
(第2例)
 図9は、ステップS2の処理の第2例を示すフローチャートである。第2例は、上述した第2パターンに該当する。第2例においては、決定部13は、記憶部11に記憶されたリスト情報に含まれているサービスの中から一のサービスをユーザに指定させ、ユーザによって指定された当該一のサービスを対象サービスとして決定する。以下、上記処理に係る動作の一例について説明する。
 ステップS21において、決定部13は、ユーザが利用可能なサービスの一覧を示すリスト情報を取得する。本実施形態では、決定部13は、記憶部11を参照することにより、アバター生成環境にアクセスしたユーザ端末20のユーザに対応するリスト情報を取得する。例えば、ステップS1において生成部12が取得する利用要求には、ユーザを識別するユーザ情報(例えばアカウント情報等)が含まれてもよい。この場合、決定部13は、当該ユーザ情報をキー情報として記憶部11を参照することにより、当該ユーザ情報に示されるユーザのリスト情報を取得することができる。
 ステップS22において、決定部13は、リスト情報に含まれているサービスの中から一のサービスをユーザに指定させる。一例として、決定部13は、図10に示されるサービス選択画面SC3をユーザ端末20の表示部20aに表示させ、ユーザにいずれかのサービスを選択させる。
 ステップS23において、決定部13は、ユーザによって指定されたサービスを対象サービスとして決定する。例えば、図10に示されるように、決定部13は、リスト情報に含まれているサービス(ここでは一例として、サービスA,B,C)のそれぞれに対応する選択ボタンB2をサービス選択画面SC3中に配置する。この場合、決定部13は、ユーザによって選択された選択ボタンB2に対応するサービスを対象サービスとして決定すればよい。
(第3例)
 図11は、ステップS2の処理の第3例を示すフローチャートである。第3例は、上述した第2パターンに該当する。第3例においては、決定部13は、記憶部11に記憶された履歴情報に基づいて、対象サービスを決定する。図12は、履歴情報の一例を示す図である。以下、上記処理に係る動作の一例について説明する。
 ステップS31において、決定部13は、複数のアバター利用サービスに対するユーザの利用履歴に関する履歴情報(図12参照)を記憶部11から取得する。例えば、ステップS1において生成部12が取得する利用要求には、ユーザを識別するユーザ情報(例えばアカウント情報等)が含まれてもよい。この場合、決定部13は、当該ユーザ情報をキー情報として記憶部11を参照することにより、当該ユーザ情報に示されるユーザの履歴情報を取得することができる。
 ステップS32において、決定部13は、履歴情報に基づいて、所定の条件に該当するサービスを抽出する。図12の例では、例えば、現時点が「2022年8月1日0時00分」であり、所定の条件が「直近でユーザによって利用されたサービス」である場合には、サービスCが抽出される。また、所定の条件が「直近の所定期間(例えば5日間)で最も多い利用回数を有するサービス」である場合には、トータルの利用回数(ログイン回数)が最も多いサービスAが抽出される。また、所定の条件が「直近の所定期間(例えば5日間)で最も長時間利用されたサービス」である場合には、トータルの利用時間が最も長いサービスBが抽出される。
 ステップS33において、決定部13は、ステップS32において抽出されたサービスを対象サービスとして決定する。
 図7に戻り、ステップS3において、パラメータ取得部14は、対象サービスにおいてアバターに適用される描画条件を示す描画パラメータを取得する。一例として、パラメータ取得部14は、対象サービスをキー情報として用いて記憶部11を参照することにより、記憶部11から対象サービスに対応する描画パラメータを取得する。対象サービスが「サービスA」である場合、サービスAに対応する描画パラメータRaが取得される。
 ステップS4において、表示部15は、取得された描画パラメータRaを用いて、プレビュー画像を生成及び表示する。例えば、図5に示されるように、表示部15は、アバター生成環境において予め用意されている描画パラメータRが適用されたアバター50ではなく、対象サービス(サービスA)で用いられる描画パラメータRaが適用されたアバター50Aを示すプレビュー画像を含むプレビュー画面SC2を生成及び表示する。
 以上説明したアバター生成装置10においては、アバター(仮想オブジェクト)を生成するアバター生成環境(オブジェクト生成環境)と共に、生成されたアバターをプレビュー表示する機能がユーザに提供される。さらに、プレビュー表示の際に、アバター生成環境において予め用意されている描画パラメータRではなく、仮想空間を提供する複数のアバター利用サービスに含まれる一のサービス(対象サービス)において用いられる描画パラメータ(例えば、対象サービスであるサービスAの描画パラメータRa)が適用されたアバター50Aが表示される(図5参照)。上記構成によれば、ユーザは、プレビュー表示の時点(すなわち、実際にユーザが対象サービスでアバターを利用する前の時点)で、当該アバターが対象サービスで利用される際に適用される外観(アバター50A)を確認することが可能となる。その結果、アバター生成環境で生成されたアバターを実際にユーザが対象サービスで利用する際に、当該アバターの外観がユーザの意図に反する外観になることを回避することができるため、ユーザのサービス体験の品質を向上させることができる。
 また、アバター生成装置10は、複数のサービスの各々に対応する描画パラメータを、複数のサービスの各々に関連付けて記憶する記憶部11を備えており、パラメータ取得部14は、対象サービスをキー情報として用いて記憶部11を参照することにより、記憶部11から対象サービスに対応する描画パラメータを取得する。上記構成によれば、予めアバター生成装置10において、複数のサービスの各々の描画パラメータを記憶しておくことにより、対象サービスの描画パラメータを容易且つ即時に取得することができる。その結果、対象サービスに対応する描画パラメータを適用したプレビュー画像の生成及び表示を即時に行うことが可能となる。
 また、アバター生成装置10(主に決定部13)は、上述した第1例の処理(図8参照)を実行可能に構成されている。上記構成によれば、遷移元のアバター利用サービスを対象サービスとして決定することにより、アバター生成環境で生成されたアバターがその後すぐに利用される可能性が高いアバター利用サービスで表示されるアバターの外観をユーザに確認させることが可能となる。また、対象サービスを決定するためのユーザからの明示的な指定操作が不要となるため、対象サービスを決定する際のユーザの手間を削減することもできる。
 また、アバター生成装置10(主に決定部13)は、上述した第2例の処理(図9参照)を実行可能に構成されている。上記構成によれば、対象サービスをユーザに指定させることにより、ユーザが所望するサービスを確実に対象サービスとして決定することができる。また、例えば、ユーザが利用可能なサービス一覧をユーザに提示し、提示されたサービス一覧の中から一のサービスをユーザに指定させる構成によれば、対象サービスを指定(選択)する際のユーザの利便性を向上させることができる。
 また、アバター生成装置10(主に決定部13)は、上述した第3例の処理(図11参照)を実行可能に構成されている。上記構成によれば、複数のサービスに対するユーザの利用履歴に基づいて、適切な対象サービス(すなわち、ユーザがサービス利用中のアバターの外観を確認したいと考える度合いが高いと考えられるサービス)を決定することができる。また、第1例と同様に対象サービスを決定するためのユーザからの明示的な指定操作が不要となるため、対象サービスを決定する際のユーザの手間を削減することもできる。
 なお、上記実施形態では、仮想オブジェクトの一例であるアバターを生成するアバター生成装置10について説明したが、上述したアバター生成装置10は、アバター以外の仮想オブジェクトを生成する装置として構成されてもよい。この場合にも、上述したアバター生成装置10と同様の効果を得られる。すなわち、生成環境によって生成された仮想オブジェクトを実際にユーザが対象サービスで利用する際に、当該仮想オブジェクトの外観がユーザの意図に反する外観になることを回避することができるため、ユーザのサービス体験の品質を向上させることができる。
 また、上記実施形態では、アバター生成装置10はユーザ端末20とは別の装置として構成されたが、アバター生成装置10はユーザ端末20と同一であってもよい。すなわち、上述したアバター生成装置10の各機能(図4参照)は、ユーザ端末20に組み込まれてもよい。言い換えれば、ユーザ端末20が、上述したアバター生成装置10として機能してもよい。或いは、上述したアバター生成装置10の機能の一部は、ユーザ端末20に組み込まれてもよい。例えば、上述した記憶部11以外の各機能は、ユーザ端末20に実装されてもよい。この場合、ユーザ端末20に組み込まれた決定部13及びパラメータ取得部14が、アバター生成装置10が保持する記憶部11にアクセスして必要なデータを取得するように構成される。ただし、複数のユーザに対してアバター生成環境を提供する場合には、上記実施形態のように、アバター生成装置10は、ユーザ端末20とは別の装置(すなわち、複数のユーザの各々のユーザ端末20に対してアバター生成環境を提供可能な装置)として構成されることが好ましい。
 本開示の仮想オブジェクト生成装置(上記実施形態ではアバター生成装置10)は、以下の構成を有する。
[1]ユーザに仮想空間を提供する複数のサービスで利用可能な仮想オブジェクトを生成する生成部と、
 前記複数のサービスに含まれる一のサービスである対象サービスを決定する決定部と、
 前記対象サービスにおいて前記仮想オブジェクトに適用される描画条件を示す描画パラメータを取得するパラメータ取得部と、
 前記生成部により生成された前記仮想オブジェクトに前記パラメータ取得部により取得された前記描画パラメータを適用することにより、前記対象サービスに対応する前記仮想オブジェクトを示すプレビュー画像を生成及び表示する表示部と、
 を備える、仮想オブジェクト生成装置。
[2]前記複数のサービスの各々に対応する前記描画パラメータを、前記複数のサービスの各々に関連付けて記憶するパラメータ記憶部を更に備え、
 前記パラメータ取得部は、前記対象サービスをキー情報として用いて前記パラメータ記憶部を参照することにより、前記パラメータ記憶部から前記対象サービスに対応する前記描画パラメータを取得する、
 [1]の仮想オブジェクト生成装置。
[3]前記生成部は、前記ユーザによる操作の内容に基づいて前記仮想オブジェクトの外観を決定するオブジェクト生成環境を前記ユーザに提供し、
 前記決定部は、前記複数のサービスのうちの一のサービスが前記ユーザに利用されている第1状態から、前記オブジェクト生成環境が前記ユーザに利用される第2状態へと遷移した場合に、前記第1状態において前記ユーザが利用していた前記一のサービスを示すサービス情報を取得し、前記サービス情報が示す前記一のサービスを前記対象サービスとして決定する、
 [1]又は[2]の仮想オブジェクト生成装置。
[4]前記複数のサービスのうち前記ユーザによって利用可能なサービスの一覧を示すリスト情報を記憶するリスト情報記憶部を更に備え、
 前記決定部は、前記リスト情報記憶部に記憶された前記リスト情報に含まれているサービスの中から一のサービスを前記ユーザに指定させ、前記ユーザによって指定された前記一のサービスを前記対象サービスとして決定する、
 [1]又は[2]の仮想オブジェクト生成装置。
[5]前記複数のサービスに対する前記ユーザの利用履歴に関する履歴情報を記憶する履歴情報記憶部を更に備え、
 前記決定部は、前記履歴情報記憶部に記憶された前記履歴情報に基づいて、前記対象サービスを決定する、
 [1]又は[2]の仮想オブジェクト生成装置。
 また、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。
 例えば、本開示の一実施の形態におけるアバター生成装置10は、本開示の情報処理方法を行うコンピュータとして機能してもよい。図13は、本開示の一実施の形態に係るアバター生成装置10のハードウェア構成の一例を示す図である。アバター生成装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。なお、ユーザ端末20もアバター生成装置10と同様のハードウェア構成を備えてもよい。
 なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。アバター生成装置10のハードウェア構成は、図13に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 アバター生成装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、アバター生成装置10の各機能部(例えば、表示部15等)は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
 通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 また、アバター生成装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
 以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
 本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
 上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
 10…アバター生成装置(仮想オブジェクト生成装置)、11…記憶部(パラメータ記憶部、リスト情報記憶部)、12…生成部、13…決定部、14…パラメータ取得部、15…表示部、20…ユーザ端末、30…サーバ、50,50A…アバター(仮想オブジェクト)、A,B,C…サービス、R,Ra…描画パラメータ。

Claims (5)

  1.  ユーザに仮想空間を提供する複数のサービスで利用可能な仮想オブジェクトを生成する生成部と、
     前記複数のサービスに含まれる一のサービスである対象サービスを決定する決定部と、
     前記対象サービスにおいて前記仮想オブジェクトに適用される描画条件を示す描画パラメータを取得するパラメータ取得部と、
     前記生成部により生成された前記仮想オブジェクトに前記パラメータ取得部により取得された前記描画パラメータを適用することにより、前記対象サービスに対応する前記仮想オブジェクトを示すプレビュー画像を生成及び表示する表示部と、
     を備える、仮想オブジェクト生成装置。
  2.  前記複数のサービスの各々に対応する前記描画パラメータを、前記複数のサービスの各々に関連付けて記憶するパラメータ記憶部を更に備え、
     前記パラメータ取得部は、前記対象サービスをキー情報として用いて前記パラメータ記憶部を参照することにより、前記パラメータ記憶部から前記対象サービスに対応する前記描画パラメータを取得する、
     請求項1に記載の仮想オブジェクト生成装置。
  3.  前記生成部は、前記ユーザによる操作の内容に基づいて前記仮想オブジェクトの外観を決定するオブジェクト生成環境を前記ユーザに提供し、
     前記決定部は、前記複数のサービスのうちの一のサービスが前記ユーザに利用されている第1状態から、前記オブジェクト生成環境が前記ユーザに利用される第2状態へと遷移した場合に、前記第1状態において前記ユーザが利用していた前記一のサービスを示すサービス情報を取得し、前記サービス情報が示す前記一のサービスを前記対象サービスとして決定する、
     請求項1に記載の仮想オブジェクト生成装置。
  4.  前記複数のサービスのうち前記ユーザによって利用可能なサービスの一覧を示すリスト情報を記憶するリスト情報記憶部を更に備え、
     前記決定部は、前記リスト情報記憶部に記憶された前記リスト情報に含まれているサービスの中から一のサービスを前記ユーザに指定させ、前記ユーザによって指定された前記一のサービスを前記対象サービスとして決定する、
     請求項1に記載の仮想オブジェクト生成装置。
  5.  前記複数のサービスに対する前記ユーザの利用履歴に関する履歴情報を記憶する履歴情報記憶部を更に備え、
     前記決定部は、前記履歴情報記憶部に記憶された前記履歴情報に基づいて、前記対象サービスを決定する、
     請求項1に記載の仮想オブジェクト生成装置。
PCT/JP2023/021032 2022-08-05 2023-06-06 仮想オブジェクト生成装置 WO2024029190A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-125657 2022-08-05
JP2022125657 2022-08-05

Publications (1)

Publication Number Publication Date
WO2024029190A1 true WO2024029190A1 (ja) 2024-02-08

Family

ID=89849258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021032 WO2024029190A1 (ja) 2022-08-05 2023-06-06 仮想オブジェクト生成装置

Country Status (1)

Country Link
WO (1) WO2024029190A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130103755A1 (en) * 2010-06-24 2013-04-25 Korea Electronics Technology Institute Virtual world operating system and operating method
JP2017033319A (ja) * 2015-07-31 2017-02-09 凸版印刷株式会社 化粧材シミュレーションシステム、方法、及びプログラム
EP3971812A1 (en) * 2019-05-12 2022-03-23 LG Electronics Inc. Method for providing clothing fitting service by using 3d avatar, and system therefor
JP2022050777A (ja) * 2020-09-18 2022-03-31 未來市股▲ふん▼有限公司 アバターの肌色調を調整する方法及びアバター肌色調調整システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130103755A1 (en) * 2010-06-24 2013-04-25 Korea Electronics Technology Institute Virtual world operating system and operating method
JP2017033319A (ja) * 2015-07-31 2017-02-09 凸版印刷株式会社 化粧材シミュレーションシステム、方法、及びプログラム
EP3971812A1 (en) * 2019-05-12 2022-03-23 LG Electronics Inc. Method for providing clothing fitting service by using 3d avatar, and system therefor
JP2022050777A (ja) * 2020-09-18 2022-03-31 未來市股▲ふん▼有限公司 アバターの肌色調を調整する方法及びアバター肌色調調整システム

Similar Documents

Publication Publication Date Title
US9384526B2 (en) System and method for handling remote drawing commands
US9304808B2 (en) Updating a workflow when a user reaches an impasse in the workflow
EP2710559B1 (en) Rendering mode selection in graphics processing units
US8869239B2 (en) Method and system for rendering composite view of an application
US8627217B2 (en) Window display system, window display method, program development support device, and server device
US20140143305A1 (en) Apparatus and system for providing software service using software virtualization and method thereof
US20130227412A1 (en) Tooltip feedback for zoom using scroll wheel
JP5268157B2 (ja) 表示システム及び表示方法
KR20160120343A (ko) 크로스 플랫폼 렌더링 엔진
CN107430514A (zh) 使用多服务器的低延迟应用
CN111679738B (zh) 一种屏幕切换方法、装置、电子设备及存储介质
TW201222415A (en) Method and system for consistent web application presentation
CN113220118B (zh) 虚拟界面展示方法、头戴式显示设备和计算机可读介质
CN111754305A (zh) 产品定制方法、装置、设备和存储介质
WO2021128929A1 (zh) 一种全景应用中图像渲染的方法及终端设备
CN114669047A (zh) 一种图像处理方法、电子设备及存储介质
CN111399811A (zh) 可视化页面开发的方法、装置、设备以及存储介质
WO2021098306A1 (zh) 一种物品比对方法和装置
WO2024029190A1 (ja) 仮想オブジェクト生成装置
CN111309430B (zh) 一种自动缓存用户交互界面节点的方法和相关装置
JPWO2011083531A1 (ja) 表示領域制御装置、表示領域制御方法および集積回路
CN111882483B (zh) 视频渲染方法及装置
CN111913711A (zh) 视频渲染方法和装置
US7949705B1 (en) Dynamic desktop switching for thin clients
US20230251919A1 (en) Web page access system and web page access method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23849750

Country of ref document: EP

Kind code of ref document: A1