WO2024047717A1 - 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム - Google Patents

疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム Download PDF

Info

Publication number
WO2024047717A1
WO2024047717A1 PCT/JP2022/032461 JP2022032461W WO2024047717A1 WO 2024047717 A1 WO2024047717 A1 WO 2024047717A1 JP 2022032461 W JP2022032461 W JP 2022032461W WO 2024047717 A1 WO2024047717 A1 WO 2024047717A1
Authority
WO
WIPO (PCT)
Prior art keywords
player character
data
pseudo
metaverse
virtual
Prior art date
Application number
PCT/JP2022/032461
Other languages
English (en)
French (fr)
Inventor
健志 加畑
Original Assignee
有限会社アドリブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 有限会社アドリブ filed Critical 有限会社アドリブ
Priority to PCT/JP2022/032461 priority Critical patent/WO2024047717A1/ja
Priority to JP2022566398A priority patent/JP7235376B1/ja
Priority to PCT/JP2023/005508 priority patent/WO2024047899A1/ja
Publication of WO2024047717A1 publication Critical patent/WO2024047717A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention provides a player character, which is a character that has conventionally existed in a virtual three-dimensional space generated by a metaverse management device and whose motion is controlled by a human user, and whose motion is controlled by the metaverse management device.
  • the present invention relates to a technique for making a new character other than a non-player character appear and controlling its motion.
  • the metaverse generally refers to a virtual three-dimensional space constructed by a computer system or a service that provides a virtual three-dimensional space to users.
  • the virtual three-dimensional space is generated by the metaverse management device.
  • the virtual three-dimensional space in the Metaverse can be modeled after, for example, a city that exists on Earth, and the user can create a virtual three-dimensional space in the Metaverse by sending his or her own character into the virtual three-dimensional space. You can perform the actions you want within the space (or you can make the character you control perform the actions you want).
  • the motions are imitated by motions that humans can perform, such as interacting with other characters or moving within a virtual three-dimensional space.
  • Metaverse which has traditionally been an extension of play and games
  • commercial use has been put into practical use, such as a specific company promoting sales of its own products and services within the virtual three-dimensional space of the Metaverse.
  • a large number of companies have set up booths in a virtual three-dimensional space, and each company's products and services are introduced to visitors (player characters). Attempts are also being made to hold large-scale virtual exhibitions in space.
  • a character operated by each user usually exists in a virtual three-dimensional space in a conventional metaverse. Since the character operated by each user is sometimes referred to as a player character, such a character will be referred to as a "player character" in this application.
  • the player character is usually an avatar selected or created by the user. Users can download motion data for moving their player characters in three-dimensional space via the Internet from their own user terminals (desktop computers, notebook computers, smartphones, tablets, stationary game consoles, etc.). and sends it to the metaverse management device. The metaverse management device causes the player character to move based on the motion data. This allows the user to operate his/her own player character as desired.
  • non-player character is a character placed under the management of the metaverse management device.
  • the non-player character is configured to perform predetermined actions by the functions of a computer program installed in the metaverse management device.
  • the metaverse is used commercially as exemplified above.
  • the character be a player character under the control of the company that is trying to promote sales.
  • the player character operated by for example, an employee of the company can give appropriate answers to questions from the player character operated by a user who is a customer or a customer candidate.
  • a player character operated by a user who is a customer or a customer candidate to be guided to an appropriate booth at an exhibition by a player character operated by, for example, an employee of a company.
  • the above-mentioned customer service provided to the player character using the player character is not much different from person-to-person customer service, except that it is performed in a virtual three-dimensional space, and can provide detailed responses. becomes.
  • Metaverse When using the Metaverse commercially, a company's primary goal is to increase sales of products and services, but at the same time, it is also aimed at reducing costs. If the Metaverse cannot be used commercially unless a large number of personnel are secured, the meaning of using a player character operated by a company employee to provide customer service to a player character operated by a user will be diminished.
  • non-player character under the management of the metaverse management device provide customer service to the player character operated by the user. Since the non-player character is operated by the metaverse management device, there is no need to secure personnel to have the user's player character serve customers. However, the non-player characters are controlled by the functions or commands of a computer program installed in the metaverse management device in advance. Therefore, the person who creates the computer program regarding the non-player character is the administrator of the metaverse management device. However, for example, when a non-player character serves a customer, the administrator of the metaverse management device generally does not know what kind of action is preferable for the player character to perform.
  • the above-mentioned new character could be used as such a character, and if that character could provide guidance tailored to the user's preferences and mood at the time, it would be of great help to users of Metaverse services. This will lead to an increase in the number of users of the Metaverse.
  • the above-mentioned new characters can also be applied to characters that act together with the player character operated by the user in the three-dimensional space of the metaverse, or simply act as a conversation partner. Moreover, if the player character operated by the user and the new character acting behave according to the user's preferences and personality, the user's satisfaction level will increase.
  • the above-mentioned characters which are neither player characters nor non-player characters, can be applied to the various uses described above, and are expected to greatly contribute to the spread of the Metaverse.
  • the characters that can appear in the virtual three-dimensional space in the Metaverse are limited to player characters and non-player characters, and no practical method for realizing characters other than these is known.
  • a player character, a non-player character, and a person other than the administrator of the metaverse management device have a certain level of high quality of movement, and the cost for creating the character is suppressed.
  • the purpose of this project is to introduce new characters that can do the same thing and provide technology to control their movements.
  • the present invention has a function of constructing a virtual three-dimensional space in which a plurality of player characters, which are characters operated by a plurality of users, exist, and a space construction unit that constructs the virtual three-dimensional space.
  • a receiving unit that receives operation data, which is data for operating each of the plurality of player characters, from a user terminal operated by each user via the Internet; It is used in combination with a metaverse management device comprising a character control unit that causes the player character to move within the virtual three-dimensional space, and has a function of controlling the pseudo player character within the virtual three-dimensional space.
  • This is a pseudo player character control device having the following functions.
  • the pseudo player character control device includes a motion determining unit that determines an action to be performed by the pseudo player character, and a motion determining unit that causes the pseudo player character to perform the motion determined by the motion determining unit.
  • a pseudo operation data generation unit that creates pseudo operation data, which is data, in the same data format as the operation data; and a transmission unit that transmits the pseudo operation data to the receiving unit of the metaverse management device via the Internet.
  • the pseudo player character control device of the present application is used in combination with a metaverse management device.
  • the metaverse management device may be an existing one.
  • the metaverse management device includes a space construction unit that constructs a virtual three-dimensional space, and operation data that is data for operating each of a plurality of player characters, and a user terminal (desktop computer, notebook computer, It is equipped with a receiving unit that receives data from PCs, smartphones, tablets, stationary game consoles, etc. via the Internet.
  • the operation data is data for moving the player character's body, for example, to move within a virtual three-dimensional space, or for causing the player character to speak.
  • the data format of the operation data is determined by the metaverse management device or its administrator, and the operation data arranged in that data format is sent from the user terminal to the metaverse management device.
  • the metaverse management device is configured to cause each player character to operate within the virtual three-dimensional space according to the received operation data.
  • a character control section within the metaverse management device controls the actions of the player character.
  • a pseudo player character control device used in combination with such a metaverse management device includes a motion determining unit that determines the motion to be performed by the pseudo player character, and a pseudo player character control device that determines the motion to be performed by the pseudo player character determined by the motion determining unit.
  • a pseudo operation data generation unit that creates pseudo operation data, which is data for a player character to perform, in the same data format as the operation data; and transmitting the pseudo operation data to the receiving unit of the metaverse management device via the Internet. and a transmitting section.
  • the action determining unit determines an action to be performed by the pseudo player character.
  • the action determining section generally determines an action that is appropriate for the pseudo player character to perform as the action to be performed by the pseudo player character.
  • the pseudo operation data generation unit generates pseudo operation data.
  • the pseudo operation data is data for causing the pseudo player character to perform the action determined by the action determining unit, and is data in the same data format as the operation data that the user terminal sends to the Metaverse management device via the Internet. .
  • the pseudo player character control device includes a transmitter, and the pseudo operation data generated by the pseudo operation data generator is sent from the transmitter to the receiver of the metaverse management device via the Internet.
  • the metaverse management device causes the user's player character to perform an action based on the operation data sent by the user from the user terminal and received by the receiving unit.
  • the metaverse management device operates the pseudo player character based on the pseudo operation data sent from the pseudo player character control device and received by the receiving section. Since the pseudo operation data has the same data format as the operation data as described above, the metaverse management device cannot distinguish the pseudo operation data from the operation data, or at least there is no need to distinguish between the pseudo operation data and the operation data.
  • the character control unit in the metaverse management device that has received the pseudo-operation data executes the exact same process that moves the player character when it receives the operation data, thereby creating a virtual three-dimensional image based on the pseudo-operation data.
  • a pseudo player character can be made to move within the space. This means that when the pseudo player character control device is used in combination with the metaverse management device, no modification is required on the metaverse management device side. This leads to cost reduction.
  • the quality of the movement of such a pseudo player character is basically determined by the computer program and data set installed in the pseudo player character control device. Such a computer program can also be created by the administrator of the pseudo player character control device.
  • the administrator of the pseudo-player character control device may have to download the computer program for determining the actions of the pseudo-player character from an external company (for example, a company that wants the pseudo-player character to serve customers, or a company that wants the pseudo-player character to provide directions for the player character).
  • an external company for example, a company that wants the pseudo-player character to serve customers, or a company that wants the pseudo-player character to provide directions for the player character.
  • the pseudo-player character control device accepts a pseudo-player character from a company, etc. that wants to make the pseudo-player character perform an action
  • the pseudo-player character is sent into the virtual three-dimensional space of the Metaverse, and the person who wants the pseudo-player character to perform an action, that is, the pseudo-player
  • the person who knows best what actions he or she wants to make can create a computer program and data set for making the pseudo player character move.
  • this pseudo player character control device which is provided separately from the Metaverse management device, it is not only possible to send the pseudo player character into the virtual three-dimensional space generated by the Metaverse management device. , it becomes possible to improve the quality of the motion of the pseudo player character without incurring excessive costs. Furthermore, this pseudo-player character control device provides a new service that ⁇ allows pseudo-player characters that perform high-quality movements to be sent into the Metaverse world without any modification to the Metaverse management device.'' It is hoped that this will become a platform for realizing this goal. As mentioned above, the quality of the movement of the pseudo player character is basically determined by the computer program and data set installed in the pseudo player character control device.
  • the quality of the motion of the pseudo player character is determined by the degree of elaboration of the motion determining section that determines the motion of the pseudo player character.
  • the function of the action determining unit can be performed in multiple pseudo player character control devices without any modification to the multiple metaverse management devices. Since it is possible to reuse the computer program and data set that determines the operation, there is no need to spend money on creating the operation determination unit (more precisely, the computer program and data set that specifies the processing to be executed by the operation determination unit). Can be done. This leads to improving the quality of the motion of the pseudo player character while suppressing costs.
  • the action determining section in the pseudo player character control device of the present invention determines the action to be performed by the pseudo player character.
  • the motion determining section may determine the motion of the pseudo player character in the following manner.
  • the pseudo player character control device includes an acquisition unit that obtains environmental data, which is data about the environment around the pseudo player character in the virtual three-dimensional space, from the metaverse management device, and information about the movement pattern of the pseudo player character. and an operation pattern recording section that records the data.
  • the motion determination section determines, based on the environmental data received from the acquisition section and the data recorded in the motion pattern recording section, the pseudo player character behaves in a manner appropriate for the environment indicated by the environmental data. may also be configured to determine.
  • the motion pattern recording section records data for causing the pseudo player character to perform motions.
  • the motion determining section is configured to determine, based on the environmental data received from the acquiring section and the data recorded in the motion pattern recording section, the motion of the pseudo player character that is appropriate for the environment indicated by the environmental data. can do. By doing so, the motion determining section enables the pseudo player character to perform motions appropriate to the surrounding environment.
  • the environmental data which is data about the environment around the pseudo player character, includes, for example, first-person or third-person perspective images and sounds provided from the Metaverse management device to the user terminal when the pseudo player character is a player character. etc. (or data extracted therefrom).
  • the range "around" the pseudo player character is not limited to the above range, and can be set to a wider or narrower range that may affect the actions of the pseudo player character.
  • the environment data may include the content of a conversation between a player character and a player character who is having a conversation with the pseudo player character. Regardless of its purpose, the pseudo player character imparts knowledge and fun to the person operating the player character by contacting and communicating with the player character.
  • the motion of the pseudo player character determined by the motion determining section becomes more appropriate.
  • the motion determining section may determine the motion of the pseudo player character in the following manner.
  • the pseudo player character control device may include an acquisition unit that obtains environmental data that is data about an environment around the pseudo player character in the virtual three-dimensional space from the metaverse management device. The contents of the environmental data acquisition section are as described above.
  • a motion artificial intelligence may be recorded in the motion pattern recording section.
  • the behavioral artificial intelligence is an artificial intelligence that, when the environmental data is input, outputs a motion of the pseudo player character that is appropriate for the environment indicated by the environmental data.
  • the motion determining section determines the motion output from the motion artificial intelligence when the environmental data received from the acquisition section is input to the motion artificial intelligence recorded in the motion pattern recording section.
  • the motion of the pseudo player character may be determined as being appropriate for the environment indicated by the environment data. By doing so, it becomes possible to make the actions performed by the pseudo player character appropriate and of high quality.
  • the motion artificial intelligence may be a trained artificial intelligence obtained by performing learning in advance using the environment data and motions adopted by the player character in the environment as teacher data.
  • the player character used to obtain training data in the process of creating a motion artificial intelligence that is a trained artificial intelligence is operated by a predetermined user. For example, when trying to create artificial intelligence for a pseudo player character that performs "customer service" as described in the background technology section, a player character operated by a company employee or the like is used to perform customer service for the player character operated by the user. By doing so, you can obtain training data for detailed customer service.
  • motion AI is not limited to pseudo player characters suitable for customer service. If you want to create a behavioral artificial intelligence suitable for guiding a pseudo-player character in a virtual three-dimensional space, you can use suitable teacher data for learning. In other words, in order to create motion artificial intelligence that corresponds to the motion that you want the pseudo-player character to perform, it is sufficient to prepare training data appropriate for the purpose.
  • the motion pattern recording section may be capable of recording a predetermined motion artificial intelligence.
  • the motion pattern recording section may be able to record multiple motion artificial intelligences, and the motion pattern recording section may be able to add or delete motion artificial intelligences.
  • the motion artificial intelligence recorded in the motion pattern recording section may be rewritable. By doing so, for example, it becomes possible to port the motion artificial intelligence created in a certain pseudo player character control device to the motion pattern recording unit in another pseudo player character control device. By doing so, the behavioral artificial intelligence once created can be used by a plurality of pseudo player characters, so it becomes easy to reduce the cost of creating the behavioral artificial intelligence.
  • the inventor of the present application also proposes, as an aspect of the present invention, a trained artificial intelligence that can be used as a behavioral artificial intelligence by incorporating the behavioral artificial intelligence into a pseudo player character control device that records the behavioral artificial intelligence in its motion pattern recording section.
  • the trained artificial intelligence is a trained artificial intelligence obtained by performing learning in advance using the environment data and the actions adopted by the player character in the environment as teacher data. Such trained artificial intelligence produces the effects described above. Therefore, this trained artificial intelligence has value in itself and can be traded.
  • the pseudo operation data generation unit in the pseudo player character control device is scheduled to receive the pseudo operation data in the reception unit of each of the metaverse management devices to which the pseudo operation data is transmitted.
  • the pseudo operation data may be generated in the same data format as the operation data.
  • the pseudo operation data generation unit adjusts or converts each of the pseudo operation data sent to each metaverse management device into the same data format as the data format of the operation data accepted by the metaverse management device that receives the pseudo operation data. It may be possible to do so.
  • one pseudo player character control device can send pseudo operation data to a plurality of metaverse management devices, and each of the plurality of metaverse management devices can control the motion of the pseudo player character.
  • the present inventor also proposes a method executed by a pseudo player character control device as one aspect of the present invention.
  • the effects of this method are equivalent to the effects of the pseudo player character control device according to the present invention.
  • the method which is an example, has a function of constructing a virtual three-dimensional space in which a plurality of player characters, which are characters operated by a plurality of users, exist, and constructing the virtual three-dimensional space.
  • a space construction unit a reception unit that receives operation data, which is data for operating each of the plurality of player characters, from a user terminal operated by each user via the Internet; and the operation data received by the reception unit.
  • the pseudo-player character control device has a function of This is a method to be executed (pseudo player character control method).
  • the method includes a motion determining process that determines the motion that the pseudo player character is to perform, and a pseudo operation that is data that causes the pseudo player character to perform the motion determined by the motion determining process.
  • a pseudo-operation data generation process of creating data in the same data format as the operation data; and a transmission of transmitting the pseudo-operation data to the receiving unit of the metaverse management device via the internet via the transmitting unit. process.
  • Each of these processes is executed by the control section.
  • the inventor of the present application also proposes, as one aspect of the present invention, a computer program for causing a predetermined, for example, general-purpose computer to function as a pseudo player character control device.
  • a computer program for causing a predetermined, for example, general-purpose computer to function as a pseudo player character control device.
  • the effects of such a computer program are equivalent to the effects of the pseudo player character control device according to the present invention, and another advantage is that it becomes possible to cause a predetermined computer to function as the pseudo player character control device according to the present invention.
  • the computer program which is an example, has a function of constructing a virtual three-dimensional space in which a plurality of player characters, which are characters operated by a plurality of users, exist, and constructs the virtual three-dimensional space.
  • a space construction unit for operating each of the plurality of player characters; a reception unit for receiving operation data, which is data for operating each of the plurality of player characters, from a user terminal operated by each user via the Internet; and the operation received by the reception unit.
  • the device is used in combination with a metaverse management device comprising a character control unit that causes the player character to move in the virtual three-dimensional space based on data, and the device controls the pseudo player character in the virtual three-dimensional space.
  • This is a computer program for causing a predetermined computer to function as a pseudo player character control device having a control function.
  • the computer program includes an action determining unit that determines an action to be performed by the pseudo player character, and a motion determining unit that causes the pseudo player character to perform the action determined by the action determining unit.
  • a pseudo operation data generation unit that creates pseudo operation data, which is data to be performed, in the same data format as the operation data; and a transmission that transmits the pseudo operation data to the receiving unit of the metaverse management device via the Internet. function as a department.
  • FIG. 1 is a diagram showing the overall configuration of a metaverse system according to an embodiment.
  • FIG. 2 is a perspective view showing the appearance of a user terminal in the metaverse system shown in FIG. 1; 3 is a diagram showing the hardware configuration of the user terminal shown in FIG. 2.
  • FIG. 3 is a block diagram showing functional blocks generated inside the user terminal shown in FIG. 2.
  • FIG. 2 is a block diagram showing an example of functional blocks generated inside the pseudo player character control device shown in FIG. 1.
  • FIG. 6 is a diagram conceptually showing data recorded in the motion pattern recording section shown in FIG. 5.
  • FIG. 2 is a block diagram showing an example of functional blocks generated inside the metaverse management device shown in FIG. 1.
  • FIG. 1 schematically shows the overall configuration of a preferred embodiment of a metaverse system including a pseudo player character control device of the present invention.
  • the metaverse system according to the first embodiment includes a plurality of user terminals 100, a plurality of user terminals 100, a plurality of metaverse management devices 200, and a pseudo player character control device 300. It is configured. Although not limited to this, the number of metaverse management devices 200 and pseudo player character control devices 300 in this embodiment is the same; 300 is three each. The same number of metaverse management devices 200 and pseudo player character control devices 300 are in one-to-one correspondence in this embodiment, although the number is not limited to this.
  • the user terminal 100, the metaverse management device 200, and the pseudo player character control device 300 are all connected to a network 400, which is the Internet. They are configured to be able to communicate with each other. Data exchanged between the user terminal 100, the metaverse management device 200, and the pseudo player character control device 300 will be described later.
  • the metaverse management device 200 is for generating a virtual three-dimensional space, which is the world of the metaverse, and providing metaverse services to users.
  • a virtual three-dimensional space there are a player character operated by a user and a pseudo player character operated by pseudo player character control device 300.
  • there may be other things in the virtual three-dimensional space such as roads, buildings, various objects and creatures, non-player characters, etc., but the ones that are related to this application are basically Since only the player character and the pseudo-player character are described, in the following description, description of other things existing in the virtual three-dimensional space will be basically omitted.
  • the metaverse management device 200 is configured to generate metaverse image data regarding a metaverse image, which is an image in the virtual three-dimensional space of the metaverse, and send it to the user terminal 100.
  • the user terminal 100 in this embodiment functions as an interface for users to enjoy Metaverse services.
  • the user terminal 100 functions as an input device for operating a player character, which is a character operated by a user and sent into a virtual three-dimensional space as an incarnation of the user. Further, the user terminal 100 functions as a viewer for users to enjoy Metaverse services.
  • the user terminal 100 includes a display as described later, and an image based on the above-mentioned metaverse image data received by the user terminal 100 from the metaverse management device 200 is displayed on the display.
  • the pseudo player character control device 300 is a device that controls a pseudo player character, which is a player character that is not operated by a user, and its motion. In other words, the pseudo player character control device 300 has a function of operating the pseudo player character. As described above, the pseudo player character control device 300 has a one-to-one correspondence with the metaverse management device 200.
  • the pseudo player character control device 300 is configured to operate a pseudo player character in a virtual three-dimensional space created by the metaverse management device 200 linked thereto.
  • the details of the user terminal 100, the metaverse management device 200, and the pseudo player character control device 300 will be described below in order.
  • User terminal 100 includes a computer. More specifically, the user terminal 100 in this embodiment is configured by a general-purpose computer device. Although not limited to this, the user terminal 100 is a computer owned by each user. The user terminal 100 may be any device that can receive metaverse services. Specifically, the user terminal 100 is a desktop computer, a notebook computer, a smartphone, a tablet, a stationary game console, or the like. All of them must be able to communicate via the network 400, and by installing a computer program to be described later, the functional blocks described later can be generated therein, and the processes described later can be executed. is required, and if it is possible, other specifications are not particularly important.
  • the user terminal 100 includes a display that is either integrated or externally attached. As will be described later, an image of a three-dimensional space in the metaverse will be displayed on the display.
  • the external display may be a general stationary display, but may also be a head-mounted display.
  • the user terminal 100 as a smartphone may be, for example, an iPhone (series product) manufactured and sold by Apple Japan LLC
  • the user terminal 100 as a tablet may be, for example, an iPhone (series product) manufactured and sold by Apple Japan LLC.
  • the iPad (series product) manufactured and sold by Apple Japan LLC may be used. Note that "Apple Japan,”"iPhone," and "iPad” are all trademarks.
  • FIG. 2 shows an example of the appearance of the user terminal 100.
  • the user terminal 100 includes a display 101.
  • the display 101 is for displaying images, which are still images or moving images, and may be a publicly known display or a known display.
  • the display 101 is, for example, a liquid crystal display or an organic EL display.
  • User terminal 100 also includes an input device 102 .
  • the input device 102 is used by the user to make desired inputs to the user terminal 100.
  • As the input device 102 a known or well-known device can be used.
  • the input device 102 of the user terminal 100 in this embodiment is of a button type
  • the input device 102 is not limited to this, and it is also possible to use a numeric keypad, keyboard, trackball, mouse, etc.
  • the input device 102 may be a keyboard, a mouse, or the like.
  • the input device 102 is generally a dedicated controller.
  • the display 101 is a touch panel, the display 101 also functions as the input device 102, which is done in this embodiment.
  • the hardware configuration of the user terminal 100 is shown in FIG.
  • the hardware includes a CPU (central processing unit) 111, a ROM (read only memory) 112, a RAM (random access memory) 113, an interface 114, and a mass storage medium 115, which are interconnected by a bus 116. It is connected.
  • the CPU 111 is a calculation device that performs calculations.
  • the CPU 111 executes the processing described below by executing a computer program recorded in, for example, the ROM 112, the RAM 113, or the mass storage medium 115.
  • the ROM 112 records computer programs and data necessary for the CPU 111 to execute processes to be described later. The same applies to the mass storage medium 115.
  • the mass storage medium 115 is, for example, an HDD (hard disk drive) or an SSD (solid state drive).
  • the computer programs recorded in the ROM 112 or the mass storage medium 115 include programs necessary for making the user terminal 100 function as a smartphone, such as calls and e-mails.
  • general computer programs and data for realizing communication via the Internet 400 or the Internet 400 are recorded.
  • the user terminal 100 is also capable of viewing homepages based on data received via the network 400, and is equipped with a known web browser to enable this.
  • the RAM 113 provides a work area necessary for the CPU 111 to perform processing. In some cases, for example, part of the computer program or data described above may be recorded.
  • the interface 114 is for exchanging data between the CPU 111, RAM 113, etc. connected via the bus 116 and the outside.
  • the above-described display 101 and input device 102 are connected to the interface 114.
  • the operation details input from the input device 102 are input to the bus 116 from the interface 114.
  • image data for displaying an image on the display 101 is outputted to the display 101 from the interface 114.
  • the interface 114 is also connected to a transmitting/receiving mechanism (not shown), which is a known device for communicating with the outside via a network 400, which is the Internet, so that the user terminal 100 can communicate with the outside via the network 400. It is possible to send data over the network 400 and to receive data over the network 400.
  • Transmission and reception of data via such network 400 may be performed by wire or wirelessly.
  • user terminal 100 is a smartphone, such communication will typically be performed wirelessly.
  • the configuration of the transmitting/receiving mechanism may be publicly known or known.
  • Data received by the transceiver from network 400 is adapted to be received by interface 114, and data passed from interface 114 to the transceiver is transmitted via network 400 to an external source, e.g., to another user. It is configured to be sent to the terminal 100. Details of the data that each user terminal 100 sends and receives via the network 400 using the sending and receiving mechanism will be described later.
  • FIG. 4 When the CPU 111 executes the computer program, functional blocks as shown in FIG. 4 are generated inside the user terminal 100. Note that the following functional blocks may be generated by the functions of a single computer program for causing the user terminal 100 to function as the user terminal of the present invention, but the computer program, the OS installed on the user terminal 100, and other may be generated in cooperation with a computer program.
  • the user terminal 100 in relation to the functions of the present invention, at least an input section 121, a control section 122, an image control section 123, and an output section 124 are generated, as shown in FIG. Of these, the input section 121 and the output section 124 correspond to the interface 114 when viewed as hardware, or are realized by the functions of the interface 114.
  • the input section 121 and the output section 124 conceptually correspond to a connection section between the interface 114 and the bus 116.
  • the control unit 122 and the image control unit 123 correspond to the CPU 111 which is an arithmetic unit in terms of hardware, or are realized by the functions of the CPU 111.
  • the input unit 121 receives input from the interface 114.
  • Data input from interface 114 includes data input by input device 102 .
  • Other data that can be input to the input unit 121 from the interface 114 is data input from a transmitting/receiving mechanism via the interface 114 .
  • Data input from the input device 102 and the transmitting/receiving mechanism will be described later.
  • the input unit 121 receives these, it sends them to the control unit 122 or the image control unit 123.
  • the control unit 122 has a function of generating data necessary for receiving metaverse services or pseudo player character services.
  • Examples of data generated by the control unit 122 include account data, which is unique information for identifying the user who operates the user terminal 100, data for logging into Metaverse services, and data about the player operated by the user.
  • Examples include character data, which is data for generating a character, and selection data, which will be described later, which is data for selecting a pseudo player character that acts together with the player character operated by the user.
  • the control unit 122 also generates operation data when the user is receiving metaverse services (the user is using the metaverse).
  • the operation data is data for operating a player character, which is a character operated by a user in the metaverse.
  • the operation data generated by the control unit 122 may be, for example, as in the past, instructing the player character to perform movements such as movement imitating the actions performed by a human, or may be data for causing the player character to have a conversation. do.
  • the data format of the operation data that each metaverse management device 200 can accept differs from metaverse management device 200 to metaverse management device 200, although it depends on the case.
  • the operation data generated by the control unit 122 is in a data format that can be accepted by the metaverse management device 200 that manages the metaverse in which the user receives services.
  • the control unit 122 may also generate player character data, which is data for the metaverse management device 200 to generate a player character operated by a user.
  • the control unit 122 is configured to send various types of generated data including operation data to the output unit 124.
  • the image control unit 123 generates image data for an image displayed on the display 101.
  • the image control unit 123 may generate image data for an image displayed on the display 101 based on metaverse image data generated by the metaverse management device 200 as described later.
  • the metaverse image which is an image based on the metaverse image data, reflects the situation around the player character in the virtual three-dimensional space generated by the metaverse management device 200, as will be described later.
  • Metaverse image data is data that specifies such a metaverse image. Note that, although the metaverse image data is called "image data," it may also include audio data, and in this embodiment, although not limited to this, it is included.
  • the image control section 123 is configured to send the generated image data to the output section 124.
  • the output unit 124 outputs data to the interface 114.
  • the data that the output unit 124 outputs to the interface 114 includes various data including operation data received from the control unit 122 and image data received from the image control unit 123.
  • the output unit 124 outputs all of these data to the interface 114.
  • the data received by the output unit 124 from the control unit 122 is sent to the transmitting/receiving mechanism via the interface 114, and from the transmitting/receiving mechanism to the metaverse management device 200 or the pseudo player character control device 300 via the network 400. ing.
  • Image data received by the output unit 124 from the image control unit 123 is sent to the display 101 via the interface 114.
  • the display 101 displays an image according to image data. Data regarding the audio included in the image data is sent to a speaker (not shown), and the speaker outputs audio based on the audio data included in the metaverse image data.
  • the pseudo player character control device 300 may be an existing publicly known or well-known server device. Further, its hardware configuration may be a general one.
  • the hardware configuration of the pseudo player character control device 300 is the same as the hardware configuration of the user terminal 100 shown in FIG. 3 in relation to the present invention.
  • the pseudo player character control device 300 includes a CPU, a ROM, a RAM, an interface, and a large-capacity storage medium connected via a bus.
  • the configurations and functions of the CPU, ROM, RAM, interface, bus, and mass storage device included in the pseudo player character control device 300 are the same as those in the user terminal 100.
  • the interface provided in the pseudo player character control device 300 includes a transmission/reception mechanism for communicating with devices outside the pseudo player character control device 300 via the network 400, similar to that provided in the user terminal 100. It is connected.
  • an input device similar to that included in the user terminal 100 is connected to the interface provided in the pseudo player character control device 300.
  • Input devices include, for example, a keyboard and a mouse.
  • a display similar to that provided in the user terminal 100 may also be connected to the interface of the pseudo player character control device 300.
  • a computer program for causing the server to function as the pseudo player character control device 300 is recorded in, for example, a ROM or a mass storage medium of the pseudo player character control device 300.
  • This computer program may be pre-installed on the server serving as the pseudo player character control device 300, or may be post-installed.
  • This computer program may be installed on the server via a predetermined recording medium such as a memory card or CD-ROM, or via a network such as a LAN or the Internet.
  • the pseudo player character control device 300 includes at least an input section 321, a control section 322, a motion determining section 323, a motion pattern recording section 324, and a pseudo operation.
  • a data generation section 325, an output section 326, and an image analysis section 327 are generated.
  • the input section 321 and the output section 326 correspond to an interface when viewed as hardware, or are realized by the function of the interface. More specifically, the input section 321 and the output section 326 conceptually correspond to a connection section between an interface and a bus.
  • the control section 322, the operation determination section 323, the pseudo operation data generation section 325, and the image analysis section 327 correspond to a CPU, which is an arithmetic unit, in terms of hardware, or are realized by the functions of the CPU.
  • the operation pattern recording unit 324 is constituted by a recording medium for recording data as hardware, and more specifically, is realized by a ROM, a RAM, or a large-capacity storage medium.
  • the input unit 321 receives input from the interface.
  • the data input from the interface to the input unit 321 includes data input from a transmitting/receiving mechanism via the interface.
  • the data sent to the input unit 321 from the transmission/reception mechanism includes, for example, operation data sent from the user terminal 100, selection data, and metaverse image data sent from the metaverse management device 200, which will be described later.
  • the input unit 321 is configured to send metaverse image data among the data received from the transmitting/receiving mechanism to the image analysis unit 327, and other data to the control unit 322.
  • the control unit 322 not only controls the entire pseudo player character control device 300 but also has functions equivalent to some of the functions that the control unit 122 of the user terminal 100 has.
  • the control unit 122 of the user terminal 100 had a function of generating data necessary for receiving metaverse services.
  • the control unit 322 also has a similar function.
  • the data generated by the control unit 322 includes account data for identifying each pseudo player character operated by the pseudo player character control device 300, and data for generating pseudo player characters operated by the pseudo player character control device 300. There is character data and login data. As will be described later, from the perspective of the metaverse management device 200, the player character operated by the user (operated by the user terminal 100) and the pseudo player character operated by the pseudo player character control device 300 cannot be distinguished, or at least cannot be distinguished.
  • the account data, character data, and login data generated by the control unit 322 are all equivalent to the account data etc. generated by the control unit 122 of the user terminal 100. .
  • the control unit 322 is designed to send the generated account data and login data to the operation determining unit 322, and may also be sent to the output unit 326 as described later.
  • the control unit 323 is configured to send the generated character data and login data to the output unit 326.
  • the pseudo player character control device 300 is basically for automatically moving (operating) the pseudo player character.
  • the pseudo player character is operated by pseudo operation data that is automatically generated by the pseudo player character control device 300 and will also be described later.
  • the administrator of the pseudo player character control device 300 operates the pseudo player character using operation data generated in accordance with data input from an input device.
  • the control unit 322 generates operation data based on data input from an input device and received via the interface and input unit 321.
  • the operation data generated by the control unit 323 is in a data format that can be accepted by the metaverse management device 200 linked to the pseudo player character control device 300.
  • the data format is the same as the data format of the operation data sent from the user terminal 100 to the metaverse management device 200 linked to the pseudo player character control device 300.
  • the control unit 322 is configured to send the generated operation data to the output unit 326.
  • the action determining unit 323 has a function of determining the action to be performed by the pseudo player character.
  • the operation determining unit 323 may receive account data from the control unit 323 as described above.
  • the action determining unit 323 determines the action to be performed by the pseudo player character linked to the account, and generates action data that is data specifying the action.
  • the motion determining section 323 uses data recorded in the motion pattern recording section 324 and environmental data sent from the image analyzing section 327, which will be described later, when determining the motion to be performed by the pseudo player character.
  • the image analysis unit 327 has a function of generating environmental data based on metaverse image data. However, when learning the behavioral artificial intelligence 324A (for example, when the pseudo player character control device 300 sends operation data to the metaverse management device 200 instead of pseudo operation data), the image analysis section 327 It generates not only environmental data but also operational data, which will be described later.
  • the image analysis unit 327 receives metaverse image data from the input unit 321 as described above.
  • the metaverse image which is an image based on the metaverse image data, reflects the surrounding situation of the pseudo player character in the virtual three-dimensional space generated by the metaverse management device 200, as will be described later.
  • the image analysis unit 327 is configured to generate environmental data, which is data about the environment around the pseudo player character, from the metaverse image data.
  • the metaverse image data in this embodiment also includes audio data.
  • the image analysis unit 327 may be configured to generate data regarding the surrounding environment of the pseudo player character, including audio, based on the metaverse image data, and this is done in this embodiment.
  • Environmental data includes, for example, the position in the virtual three-dimensional space where the pseudo player character exists, whether there is a player character nearby, and if there is a player character nearby, the relative positional relationship with the pseudo player character, and the player character.
  • These are feature points of a metaverse image (including audio) that are specified by metaverse image data such as character characteristics and the content of words uttered by the player character. In order to extract these feature points, the image analysis unit 327 may use artificial intelligence.
  • the image analysis section 327 is configured to send the generated environmental data to the motion determination section 323.
  • the image specified by the metaverse image data is normally a moving image.
  • the image analysis unit 327 may continue to generate environmental data in real time and continue to send the generated environmental data to the motion determination unit 323 in real time.
  • the environmental data may be generated in batches at intervals, and the environmental data may be sent to the operation determining unit 323 each time the environmental data is generated.
  • the image analysis unit 327 generates environmental data when a predetermined event occurs as a result of analyzing the metaverse image data, and sends the environmental data to the operation determining unit 323 each time it generates the environmental data. It's okay to be.
  • the timing of generating the environmental data and transmitting it to the operation determining unit 323 can be a combination of the timings exemplified above.
  • the image analysis unit 327 sends the environmental data to the action determining unit 323, but in some cases (for example, when causing behavioral artificial intelligence to perform learning), the image analysis unit 327 sends the environmental data to the action determining unit 323. It may also be sent to the pattern recording section 324.
  • the image analysis unit 327 When the image analysis unit 327 sends environmental data to the motion pattern recording unit 324, the image analysis unit 327 generates motion data, which is data indicating what kind of motion the pseudo player character performed, from the metaverse image data. It also generates data and sends the motion data to the motion pattern recording section 324.
  • This motion data like the motion data generated by the motion determining section 323, is data that specifies the motion of the pseudo player character. The case in which the image analysis section 327 sends the environmental data to the motion pattern recording section 324 will be described later.
  • the motion pattern recording section 324 records data for determining the motion pattern that the pseudo player character should perform.
  • the data recorded in the motion pattern recording unit 324 may be, for example, something like a table that is a set of multiple data sets in which environmental data and motion pattern data are linked to each other. If such a table exists, the action determination unit 323 that receives the environmental data from the image analysis unit 327 reads the data of the action pattern linked to the environmental data, and determines what the pseudo player character should perform.
  • a motion can be determined from data of the motion pattern. For example, a table as described above may be prepared for each pseudo player character.
  • the action determining unit 323 is sent account data that is in one-to-one correspondence with the pseudo player character, in other words, is unique information for identifying the pseudo player character.
  • the operation determining unit 323 can use the table that has been linked to the account data received from the control unit 322. It becomes possible to determine an action appropriate for the pseudo player character associated with the player character based on the environmental data. However, it is also possible to link one table with data of a plurality of accounts, thereby making it possible to determine the actions of a plurality of pseudo player characters using one table.
  • motion artificial intelligence is an artificial intelligence.
  • there are a plurality of motion artificial intelligences and each motion artificial intelligence is prepared in equal numbers to the number of pseudo player characters controlled or operated by the pseudo player character control device 300.
  • FIG. 6 conceptually shows data recorded in the motion pattern recording section 324.
  • a plurality of motion artificial intelligences 324A are recorded in the motion pattern recording unit 324.
  • each of the behavioral artificial intelligences 324A has the characters "ID” written in it, but the characters that are written next (for example, the characters "123XX” in the behavioral artificial intelligence 324A in the upper left) are , shows the account linked to the operating artificial intelligence 324A.
  • the motion artificial intelligence 324A is an artificial intelligence that, when environmental data is input, outputs motion data regarding the motion of a pseudo player character suitable for the environment specified by the environment data.
  • the behavioral artificial intelligence 324A is a trained artificial intelligence obtained by performing learning by deep learning in this embodiment. More specifically, the behavioral artificial intelligence 324A uses environmental data and a pseudo-player character in the environment (at this point, the pseudo-player character is effectively a player character because it is being operated by a person called the administrator).
  • the motion artificial intelligence 324A thus obtained becomes an artificial intelligence that, when environmental data is input, outputs motion data regarding the motion of the pseudo player character appropriate for the environment specified by the environment data. How to obtain the behavioral artificial intelligence 324A, that is, how to cause the behavioral artificial intelligence 324A to perform learning will be described later.
  • the action determining unit 323 determines the action to be performed by the pseudo player character, and at that time, it uses the data recorded in the action pattern recording unit 324 and the data sent from the image analysis unit 327. use More specifically, the motion determining section 323 determines, among the motion artificial intelligences 324A recorded in the motion pattern recording section 324, those to which an account corresponding to the account data received from the control section 322 is attached. For example, after reading out the behavioral artificial intelligence 324A and recording it in, for example, a RAM or other recording medium, the environmental data received from the image analysis section 327 is inputted, and operational data is obtained as output from the behavioral artificial intelligence 324A that has performed the input.
  • the motion determining unit 323 determines the motion specified by the motion data thus obtained as the motion that the pseudo player character should perform.
  • the motion determining section 323 is configured to send the above-mentioned motion data generated using the environmental data and the motion artificial intelligence 324A to the pseudo operation data generating section 325.
  • the pseudo operation data generation unit 325 has a function of generating pseudo operation data.
  • the pseudo operation data generating section 325 receives the motion data from the motion determining section 323, as described above. Upon receiving the motion data, the pseudo operation data generation unit 325 generates pseudo operation data that is data for causing the pseudo player character specified by the account data described above to perform the motion specified by the motion data. It is supposed to be done.
  • the pseudo operation data is data in a data format that can be accepted by the metaverse management device 200 to which the pseudo player character control device 300 is associated. Generally, the input device used by the user to operate the player character is different for each metaverse management device 200.
  • the user plans to use a keyboard and mouse when operating the player character, while in other metaverse management devices 200, the user plans to use the touch panel when operating the player character. I'm planning on using it.
  • the pseudo operation data generation unit 325 specifies that the pseudo operation data generated and sent to the metaverse management device 200 is in at least a data format that can be accepted by the metaverse management device 200 (that is, a data format that the metaverse management device 200 is scheduled to accept).
  • the pseudo operation data is generated so that the data format is the same as that of the operation data.
  • the pseudo operation data generation section 325 is configured to send the generated pseudo operation data to the output section 326.
  • the output unit 326 is configured to receive account data, character data, login data, and operation data from the control unit 322. Further, the output unit 326 is configured to receive pseudo operation data from the pseudo operation data generation unit 325. The output unit 326 is configured to send the received data to a transmitting/receiving mechanism. Upon receiving the data, the output unit 326 sends the data to the metaverse management device 200 linked to the pseudo player character control device 300 via the network 400.
  • the metaverse management device 200 may be an existing publicly known or well-known server device. Further, its hardware configuration may be a general one.
  • the hardware configuration of the metaverse management device 200 is the same as the hardware configuration of the user terminal 100 shown in FIG. 3 in relation to the present invention.
  • the metaverse management device 200 has a CPU, ROM, RAM, interface, and large capacity storage medium connected via a bus.
  • the configurations and functions of the CPU, ROM, RAM, interface, bus, and mass storage device included in the metaverse management device 200 are the same as those in the user terminal 100.
  • the interface provided in the metaverse management device 200 is connected to a transmission/reception mechanism for communicating with devices outside the metaverse management device 200 via the network 400, similar to that provided in the user terminal 100. .
  • the interface provided in the metaverse management device 200 may be connected to a display and input device similar to those provided in the user terminal 100, but the description thereof will be omitted since it is not related to this application.
  • a computer program for causing a server to function as the metaverse management device 200 is recorded. This computer program may be pre-installed on the server serving as the metaverse management device 200, or may be post-installed.
  • This computer program may be installed on the server via a predetermined recording medium such as a memory card or CD-ROM, or via a network such as a LAN or the Internet.
  • the metaverse management device 200 includes at least an input section 221, a control section 222, a virtual three-dimensional space data generation section 223, and a player character data recording section 224, as shown in FIG. , a metaverse data recording section 225, a metaverse image data generation section 226, and an output section 227 are generated.
  • the input section 221 and the output section 227 correspond to an interface when viewed as hardware, or are realized by the function of the interface. More specifically, the input section 221 and the output section 227 conceptually correspond to a connection section between an interface and a bus.
  • the control unit 222, the virtual three-dimensional space data generation unit 223, and the metaverse image data generation unit 226 correspond to a CPU, which is an arithmetic unit, in terms of hardware, or are realized by the functions of the CPU.
  • the player character data recording section 224 and the metaverse data recording section 225 are configured of a recording medium for recording data as hardware, and more specifically, a ROM, RAM, or a large capacity storage medium. realized by
  • the input unit 221 receives input from the interface.
  • Data input from the interface includes data input from a transmitting/receiving mechanism via the interface.
  • Examples of data sent from the transmission/reception mechanism to the input unit 221 include account data, login data, character data, and operation data sent from the user terminal 100 and data sent from the pseudo player character control device 300. There are account data, login data, character data, operation data, and pseudo operation data.
  • the input unit 221 is configured to send the above-mentioned data received from the transmitting/receiving mechanism to the control unit 222.
  • the control unit 222 has a function of executing processing as a prerequisite for the user to receive metaverse services via the user terminal 100.
  • the prerequisite process is that the user terminal 100 or the pseudo player character control device 300 logs into the virtual three-dimensional space generated by the metaverse management device 200 or the metaverse service provided by the metaverse management device 200. It is processing. This process will be described later.
  • the prerequisite processing includes processing for generating a player character or a pseudo player character.
  • the control unit 222 may receive account data and character data sent from the user terminal 100 from the input unit 221. If received, the control unit 222 generates player character data to be used by the user to whom the received account data is allocated.
  • the player character's characteristics such as gender, name, height, body type, facial features, and clothing, can be arbitrarily selected.
  • the character data specifies each of these characteristics.
  • the control unit 222 generates a player character based on the received character data, links it with account data, and records the player character data, which is data of the player character, in the play character data recording unit 224. There is.
  • the control unit 222 may receive account data and character data sent from the pseudo player character control device 300 from the input unit 221 . When receiving it, the control unit 222 generates a player character by executing the same process from the input unit 221 as when receiving the account data and character data sent from the user terminal 100.
  • the player character generated based on the character data sent from the pseudo player character control device 300 is the same as the player character generated based on the character data sent from the user terminal 100. They cannot be distinguished, or at least they do not need to be distinguished. However, since the player character is not a person but is basically operated or made to move by the pseudo player character control device 300, it becomes a pseudo player character in the present invention.
  • the control unit 222 inputs the account data received from the input unit 221.
  • the data is sent to the virtual three-dimensional space data generation section 223.
  • the control section 222 controls the input section.
  • the account data received from 221 is sent to virtual three-dimensional space data generation section 223.
  • the control unit 222 also sends the operation data sent from the user terminal 100 received from the input unit 221 to the virtual three-dimensional space data generation unit 223. ing.
  • the control section 222 also converts the operation data or pseudo operation data received from the input section 221 and sent from the pseudo player character control device 300 into a virtual The data is sent to the three-dimensional spatial data generation section 223.
  • the virtual three-dimensional space data generation unit 223 creates a virtual three-dimensional space that the metaverse management device 200 provides to the user by calculation, and also generates virtual three-dimensional space data that is data that specifies the virtual three-dimensional space. It is.
  • the virtual three-dimensional spatial data generation unit 223 can be said to form the basis of the Metaverse service provided to users.
  • the virtual three-dimensional space data generation section 223 uses the operation data sent from the user terminal 100 received from the control section 222 and the control section 222.
  • the player character data associated with the account specified by the account data sent from the control device 300 and the metaverse data recorded in the metaverse data recording unit 225 are used.
  • the metaverse data is data regarding all objects other than the player character, which is necessary for the virtual three-dimensional space data generation unit 223 to generate a virtual three-dimensional space.
  • All targets include, for example, natural objects such as the ground, mountains, and rivers that exist in a virtual three-dimensional space, roads and buildings, furniture and fixtures in buildings, artificial objects such as exhibition booths and products, non-player characters, etc. It may include data for specifying, and data for specifying their position and orientation in a virtual three-dimensional space. Furthermore, data regarding dynamic objects such as weather and means of transportation in the virtual three-dimensional space may also be included.
  • the metaverse data recording unit 225 records all data other than those related to the player character in the metaverse as metaverse data. When generating a virtual three-dimensional space, the virtual three-dimensional space data generation unit 223 reads metaverse data from the metaverse data recording unit 225 and generates a virtual three-dimensional space within a necessary range.
  • the virtual three-dimensional space data generation section 223 stores the user's player character read out from the player character data recording section 224 and a pseudo player character for the pseudo player character control device 300 in the virtual three-dimensional space. Place the player character. Then, the motion of the player character is determined based on the operation data received from the control unit 222 and sent from the user terminal 100. Further, the motion of the pseudo player character is determined based on the operation data or pseudo operation data received from the control unit 222 and sent from the pseudo player character control device 300.
  • the technique used by the virtual three-dimensional space data generation unit 223 to generate the virtual three-dimensional space may be a known or well-known technique.
  • the virtual three-dimensional space data generation unit 223 can generate a virtual three-dimensional space within a certain range in which the player character and the pseudo player character exist.
  • the actions performed by the player character are those intended by the user, and the actions performed by the pseudo player character are based on the operation data or pseudo operation data sent from the pseudo player character control device 300.
  • Data specifying the virtual three-dimensional space generated in this way is virtual three-dimensional space data.
  • the virtual three-dimensional space data generation section 223 is configured to send virtual three-dimensional space data to the metaverse image data generation section 226.
  • the virtual three-dimensional spatial data generation unit 2263 continuously sends virtual three-dimensional spatial data to the metaverse image data generation unit 226 in real time.
  • the metaverse image data generation unit 226 has a function of generating metaverse image data, which is data about metaverse images.
  • the metaverse image data generation unit 226 receives virtual three-dimensional space data as described above.
  • the virtual three-dimensional space data is data that specifies a predetermined range of the virtual three-dimensional space that includes the player character and the pseudo player character.
  • the metaverse image data generation unit 226 performs calculations based on the virtual three-dimensional space data, the metaverse image data generation unit 226 generates a first-person viewpoint that includes at least one of the player character and the pseudo-player character viewed from a certain viewpoint.
  • Metaverse image data Data about a metaverse image, which is an image of a virtual three-dimensional space in a certain range from a third-person viewpoint, that is, metaverse image data is generated.
  • a metaverse image is generated for each player character or each pseudo player character.
  • the position of the viewpoint in each metaverse image, whether it is a first-person viewpoint or a third-person viewpoint, and the range in the virtual three-dimensional space drawn in the metaverse image are sent from the user terminal 100 as is publicly known or well-known. It can be selected (or changed) depending on the data. However, since such technology is rather well known, a detailed explanation of this point will be omitted.
  • the metaverse image data is sent to at least one of the user terminal 100 and the pseudo player character control device 300, but it is specified by the metaverse image data sent to both when the metaverse image data is sent to both.
  • Metaverse images may, and usually are, different from each other in terms of viewpoint positions and ranges, for example.
  • the metaverse image data generation unit 226 generates metaverse image data as moving image data.
  • the metaverse image data generation section 226 is configured to send the generated metaverse image data to the output section 227.
  • the output unit 227 is configured to send the received metaverse image data to the transmitting/receiving mechanism.
  • the transmission/reception mechanism is linked to the user terminal 100 of a user who has an account linked to the player character that triggered the generation of the metaverse image data, and the pseudo player character that triggered the generation of the metaverse image data. and the pseudo player character control device 300 that has the account.
  • the metaverse image data sent to both parties may be different from each other as described above.
  • the user When a user uses the Metaverse system, the user first registers an account with the Metaverse management device 200 that provides the Metaverse service that the user uses, and also registers the player character that the user uses. Similarly, the pseudo player character control device 300 also registers an account with the metaverse management device 200 to which the pseudo player character control device 300 is linked, and the pseudo player character controlled by the pseudo player character control device 300. Register.
  • the account and player character registration performed by the user and the account and pseudo player character registration performed by the pseudo player character control device 300 can be performed independently of each other, and are performed at the same time regardless of which one is performed first. I don't mind.
  • the process for a user to register an account and a player character can be realized by a publicly known or well-known method.
  • the user connects the user terminal 100 to the metaverse management device 200 via the network 400 using, for example, a browser function installed in the user terminal 100.
  • the user inputs his or her account using the input device 102.
  • the input account is input from the input device 102 to the control unit 122 via the interface 114 and the input unit 121.
  • the control unit 122 generates account data that is data that specifies an account.
  • the account data is sent from the control unit 122 to the output unit 124 and then to the transmitting/receiving mechanism.
  • the sending/receiving mechanism sends account data to the metaverse management device 200 via the network 400.
  • the metaverse management device 200 receives account data through a transmission/reception mechanism.
  • Account data is sent from the transmitting/receiving mechanism to the input section 221 via the interface, and further to the control section 222.
  • the control unit 222 records data for that account.
  • the account of the user who uses the user terminal 100 is recorded in the metaverse management device 200. Since many users register their accounts, the accounts of many users are recorded in, for example, the control unit 322 of the metaverse management device 200.
  • the account registration is completed, the user registers the player character that he/she will use. Registration of a player character does not need to be performed consecutively with registration of an account. For example, it is possible to register the player character after the login process described below is performed.
  • the user uses the input device 102 to input character data.
  • the user uses the input device 102 to input data for selecting characteristics such as gender, name, height, body shape, facial features, and clothing of the player character. If there is a player character prepared by default by the metaverse management device 200 and the user selects it, the user may only need to make an input indicating that this character is to be selected.
  • the input data is input from the input device 102 to the control unit 122 via the interface 114 and the input unit 121.
  • the flow of data from the input device 102 to the control unit 122 is the same hereafter, although the explanation may be omitted.
  • the control unit 122 generates character data that is data indicating the characteristics of the player character.
  • the character data is sent from the control unit 122 to the output unit 124 and further to the transmitting/receiving mechanism.
  • the sending/receiving mechanism sends account data to the metaverse management device 200 via the network 400.
  • the data flow until the data generated by the control unit 122 reaches the metaverse management device 200 is the same from here on, although the explanation may be omitted.
  • the metaverse management device 200 receives character data through a transmission/reception mechanism.
  • the character data is sent from the transmitting/receiving mechanism to the input section 221 via the interface, and further to the control section 222.
  • control unit 222 receives the character data, it generates a player character that reflects the characteristics of the character, and also generates player character data that is data that specifies the player character, and sends it to the player along with the previously received account data.
  • the character data is sent to the player character data recording section 224.
  • player character data recording section 224 player character data is recorded in a state where it is linked with account data. If a large number of users register player characters, the number of player character data linked to account data will increase.
  • the process in which the pseudo player character control device 300 registers an account and a player character can be realized by a method similar to the process in which a user registers an account and a player character using the user terminal 100.
  • the administrator of the pseudo player character control device 300 connects the pseudo player character control device 300 to the metaverse management device 200 via the network 400 using, for example, a browser function installed in the pseudo player character control device 300. Connect via. Then, the administrator of the pseudo player character control device 300 inputs his or her account using the input device.
  • the input account is input from the input device to the control unit 322 via the interface and input unit 321.
  • the control unit 322 generates account data that is data that identifies an account.
  • the account data is sent from the control unit 322 to the output unit 326 and then to the transceiver mechanism.
  • the sending/receiving mechanism sends account data to the metaverse management device 200 via the network 400.
  • the metaverse management device 200 receives account data through a transmission/reception mechanism.
  • Account data is sent from the transmitting/receiving mechanism to the input section 221 via the interface, and further to the control section 222.
  • the control unit 222 records data for that account.
  • the account of the pseudo player character control device 300 is recorded in the metaverse management device 200.
  • the account of the pseudo player character control device 300 cannot be distinguished from the user's account, or at least does not need to be distinguished.
  • the number of accounts registered with the metaverse management device 200 from one pseudo player character control device 300 is usually large. For example, in the control unit 222 of the metaverse management device 200, accounts for a large number of pseudo player character control devices 300 are recorded.
  • an administrator of the metaverse management device 200 registers a pseudo player character that is a player character operated by the metaverse management device 200. Similar to the case of registering a player character from the user terminal 100, registration of a pseudo player character does not need to be performed consecutively with account registration, and can be performed multiple times for one account.
  • the administrator of the pseudo player character control device 300 inputs character data using an input device.
  • the user uses an input device to input data for selecting characteristics of the player character.
  • the input data is input from the input device to the control unit 322 via the interface and input unit 321 .
  • the flow of data from the input device to the control unit 322 is the same hereafter, although the explanation may be omitted.
  • the control unit 322 generates character data that is data indicating the characteristics of the player character.
  • the character data is sent from the control unit 322 to the output unit 326 and further to the transmitting/receiving mechanism.
  • the sending/receiving mechanism sends account data to the metaverse management device 200 via the network 400.
  • the data flow until the data generated by the control unit 322 reaches the metaverse management device 200 is the same from here on, although the explanation may be omitted.
  • the metaverse management device 200 receives character data through a transmission/reception mechanism.
  • the character data is sent from the transmitting/receiving mechanism to the input section 221 via the interface, and further to the control section 222.
  • the flow of data from the transmitting/receiving mechanism to the control unit 222 is the same hereafter, although the explanation may be omitted.
  • the control unit 222 receives the character data, it generates a player character as a pseudo player character that reflects the characteristics of the character data, and also generates player character data that is data that specifies the player character.
  • the player character data is sent to the player character data recording section 224 along with the account data. In the player character data recording section 224, player character data is recorded in a state where it is linked with account data.
  • the pseudo player character control device 300 when the pseudo player character control device 300 registers an account and a character as a pseudo player character to the metaverse management device 200, the administrator of the pseudo player character control device 300 manually registers the character. Although these have been registered, it is also possible to have the pseudo player character control device 300 automatically perform the above registration by adding a predetermined computer program to the pseudo player character control device 300.
  • the administrator of the metaverse management device 200 may Of course, it is also possible to adopt processes different from the above-mentioned processes, such as recording the data of multiple accounts at once, or recording a large number of sets of account data and player character data in the player character data recording section 224 at the same time. possible.
  • the user can use the user terminal 100 to receive the metaverse service provided by the metaverse management device 200.
  • the user can use the user terminal 100 to receive the metaverse service provided by the metaverse management device 200.
  • the pseudo player character control device 300 can now send a pseudo player character, which is a player character operated by itself, into the virtual three-dimensional space generated by the metaverse management device 200.
  • learning of the motion artificial intelligence 324A which is the main function of the pseudo player character control device 300 for automatically operating or moving the pseudo player character, is not performed. Therefore, the behavioral artificial intelligence 324A is made to perform learning.
  • a user logs into the metaverse management device 200.
  • the user connects the user terminal 100 to the metaverse management device 200 via the network 400 using, for example, a browser function installed in the user terminal 100.
  • the user inputs his or her account using the input device 102.
  • the control unit 122 generates account data that is data that specifies the account.
  • the user also inputs information to log in.
  • the control unit 122 receives the input and generates login data.
  • Account data and login data are sent from the user terminal 100 to the metaverse management device 200 via the network 400.
  • the metaverse management device 200 receives account data and login data.
  • the account data and login data are sent to the control unit 222 of the metaverse management device 200.
  • control unit 222 When the control unit 222 receives the account data and login data, it determines whether the account specified by the account data matches any of the accounts recorded in the control unit 222. As a result of this determination, if the account specified by the received account data matches one of the many recorded accounts, the control unit 222 sends the account data and login data to the user terminal 100 or its user terminal 100 that sent the account data and login data. Login of the user operating the user terminal 100 is permitted. When the login is approved, the control unit 222 sends the account data to the virtual three-dimensional space data generation unit 223. Upon receiving it, the virtual three-dimensional space data generation section 223 reads out the player character data linked to the account specified by the account data from the player character data recording section 224.
  • the player character specified by this player character data is the player character of the user who has the account data described above.
  • the virtual three-dimensional space data generation unit 223 reads metaverse data from the metaverse data recording unit 225 as data necessary to create a virtual three-dimensional space. Based on the metaverse data and player character data, the virtual three-dimensional space data generation unit 223 generates virtual three-dimensional space data that is data about the virtual three-dimensional space.
  • the virtual three-dimensional space data is a certain range of data about a virtual space in which the user's player character described above exists. Portions of the virtual three-dimensional space other than the play and characters are specified by metaverse data, and the player character is specified by player character data.
  • the virtual three-dimensional space data generation unit 223 can also use data other than metaverse data when generating portions of the virtual three-dimensional space other than the player character data. This is the same in all cases where virtual three-dimensional spatial data is generated, which will be described below.
  • the metaverse management device 200 can collect appropriate data from the network 400 by crawling or other known or well-known techniques, and can also use that data to generate a virtual three-dimensional space. For example, you can match the weather in a certain area in the real world with the weather in a certain area in a virtual three-dimensional space, or match the results of a certain game in a professional soccer league in the real world to a soccer stadium in a virtual three-dimensional space.
  • the virtual three-dimensional space data generation section 223 sends the generated virtual three-dimensional space data to the metaverse image data generation section 226.
  • the metaverse image data generation unit 226 generates a metaverse image based on the received virtual three-dimensional space data, and generates metaverse image data that is data about the metaverse image.
  • the metaverse image in this case is as described above, and is, for example, an image of a certain range of virtual three-dimensional space including the player character seen from a certain viewpoint.
  • the metaverse image data generation unit 226 sends the generated metaverse image data to the output unit 227.
  • the metaverse image data is sent from the output unit 227 to the transmitting/receiving mechanism, and further transmitted via the network 400 to the user terminal 100 for which login has been approved.
  • the user terminal 100 receives metaverse image data through its transceiver mechanism.
  • Metaverse image data is sent from the transmission/reception mechanism to the image control section 123 via the interface 114 and input section 121.
  • the image control unit 123 Upon receiving the metaverse image data, the image control unit 123 generates image data that is data for displaying an image in a virtual three-dimensional space on a display.
  • the image data is sent to the interface 114 via the output section 124 and further to the display 101.
  • the display 101 displays an image based on image data.
  • the image based on the image data is an image in a virtual three-dimensional space generated by the metaverse management device 200. By viewing the image displayed on the display 101, the user knows that he/she was able to log in to the metaverse management device 200.
  • the pseudo player character control device 300 logs into the metaverse management device 200.
  • the administrator of the pseudo player character control device 300 or a person related to a company that promotes the product (sales promoter) logs into the pseudo player character control device 300.
  • Perform 300 operations Of course, such operation may be performed by remotely operating the pseudo player character control device 300.
  • the promoter inputs account data that is data associated with a pseudo player character for specifying the pseudo player character to be sent into the virtual three-dimensional space when the pseudo player character control device 300 logs in.
  • the sales promoter also inputs information to log in.
  • the control unit 322 receives the input and generates login data. Account data and login data are sent from the pseudo player character control device 300 to the metaverse management device 200 via the network 400.
  • the following processing performed within the metaverse management device 200 is the same as when a user logs in to the metaverse management device 200 using the user terminal 100. From the perspective of the metaverse management device 200, the user terminal 100 and the pseudo player character control device 300 cannot be distinguished, or at least there is no need to distinguish between them. In other words, the metaverse management device 200, which is intended to be used in combination with the user terminal 100, does not require any new modification or remodeling when combined with the pseudo player character control device 300. At least no major changes or modifications are required.
  • the metaverse management device 200 uses virtual tertiary data that is a certain range of data about the virtual space in which the pseudo player character associated with the account specified by the received account data exists.
  • Original spatial data is generated, and further, based on the virtual three-dimensional spatial data, a metaverse image for metaverse image data is generated.
  • the virtual three-dimensional space data generation section 223 sends the generated virtual three-dimensional space data to the metaverse image data generation section 226.
  • the metaverse image data generation unit 226 generates a metaverse image based on the received virtual three-dimensional space data, and generates metaverse image data that is data about the metaverse image.
  • the metaverse image in this case is, for example, an image of a certain range of virtual three-dimensional space including the pseudo player character seen from a certain viewpoint.
  • the metaverse image data generation unit 226 sends the generated metaverse image data to the output unit 227.
  • the metaverse image data is sent from the output unit 227 to the transmitting/receiving mechanism, and further sent to the pseudo player character control device 300 via the network 400.
  • the metaverse image or metaverse image data in this case is usually different from that sent to the user terminal 100.
  • the processes performed by the metaverse management device 200 from receiving operation data from the pseudo player character control device 300 to sending metaverse image data back to the pseudo player character control device 300 are as follows: This process is the same as the process performed by the metaverse management device 200 when sending image data back to the user terminal 100.
  • the metaverse image data received by the transmission/reception mechanism is sent to the image analysis section 327 via the interface and input section 321.
  • the image analysis unit 327 generates environmental data by extracting various feature points from the image. As described above, the environmental data are feature points of the metaverse image (including audio) specified by the metaverse image data. In order to extract these feature points, the image analysis unit 327 estimates feature points of the environment around the pseudo player character from metaverse image data including audio data.
  • the feature points include, for example, the position in the virtual three-dimensional space where the pseudo player character exists.
  • position estimation can be realized, for example, by a combination of grasping the map of the virtual three-dimensional space of the metaverse and a position estimation engine that is an artificial intelligence that estimates the position of the pseudo player character.
  • the feature points may also include whether there is a player character nearby, and if there is a player character nearby, what the relative positional relationship is with the pseudo player character.
  • Such feature points include, for example, whether the player character is reflected in the metaverse image specified by the metaverse image data, and if the player character is reflected in the metaverse image, what is the size and orientation of the player character?
  • the image analysis unit 327 may use a plurality of artificial intelligences. For example, a plurality of artificial intelligences used by the image analysis unit 327 to generate environmental data can be used in common when generating environmental data for all pseudo player characters.
  • the pseudo player character control device 300 can understand that the login to the metaverse management device 200 has been successful. It has been stated above that the pseudo player character control device 300 basically does not require a display, but when the pseudo player character is operated by a person such as a sales promoter, it is necessary to In order to do this, the pseudo player character control device 300 should also be provided with a display similar to the user terminal 100. Then, as in the case of the user terminal 100, an image based on the metaverse image should be displayed on the display.
  • a user has logged in to the metaverse management device 200 from the user terminal 100, and a sales promoter has logged in to the metaverse management device 200 from the pseudo player character control device 300.
  • a player character operated by a user using the user terminal 100 and a pseudo player character operated by a sales promoter using the pseudo player character control device 300 exist simultaneously. ing.
  • the user performs input for generating operation data from the input device 102.
  • the input contents are sent to the control section 122.
  • the control unit 122 generates operation data according to the received input content.
  • the operation data is data for causing the user's player character to perform actions desired by the user.
  • the operation data is sent from the control unit 122 to the transmitting/receiving mechanism via the output unit 124 and interface 114, and further via the network 400 to the metaverse management device 200 being logged in.
  • the operation data is received by the transmission/reception mechanism of the metaverse management device 200, sent from the transmission/reception mechanism to the control section 222 via the interface and input section 221, and further sent to the virtual three-dimensional space data generation section 223.
  • the virtual three-dimensional space data generation unit 223 causes the player character of the logged-in user in the virtual three-dimensional space to move according to the operation data.
  • the actions include movement of the player character, change in posture, or utterance of words.
  • the virtual three-dimensional space data generation unit 223 generates virtual three-dimensional space data again and sends it to the metaverse image data generation unit 226.
  • the metaverse image data generation unit 226 generates a metaverse image and metaverse image data again based on the virtual three-dimensional space data.
  • the metaverse image data is sent from the metaverse management device 200 to the logged-in user terminal 100.
  • an image based on the image data generated by the metaverse image data is displayed on the display 101, and the pseudo player character included in the image is moved according to the operation data in the video. perform the action.
  • the pseudo player character control device 300 the sales promoter inputs from the input device 102 to generate operation data.
  • the input contents are sent to the control section 322.
  • the control unit 322 generates operation data according to the received input content.
  • the operation data is data for causing the pseudo player character operated by the promotion person to behave in a manner desired by the promotion person.
  • the operation data is sent from the control unit 322 to the transmitting/receiving mechanism via the output unit 326 and the interface, and is further sent via the network 400 to the metaverse management device 200 being logged in.
  • the operation data is received by the transmission/reception mechanism of the metaverse management device 200, sent from the transmission/reception mechanism to the control section 222 via the interface and input section 221, and further sent to the virtual three-dimensional space data generation section 223.
  • the virtual three-dimensional space data generation unit 223 causes the pseudo player character operated by the logged-in sales promoter in the virtual three-dimensional space to operate according to the operation data. This action also includes the movement of the pseudo player character, a change in posture, or the utterance of words.
  • the virtual three-dimensional space data generation unit 223 generates virtual three-dimensional space data again and sends it to the metaverse image data generation unit 226.
  • the metaverse image data generation unit 226 generates a metaverse image and metaverse image data again based on the virtual three-dimensional space data. As described above, the metaverse image data is sent from the metaverse management device 200 to the logged-in user terminal 100.
  • the image analysis unit 327 generates environment data again.
  • the environmental data is sent to the motion pattern recording section 324.
  • an image based on the image data generated by the metaverse image data will be displayed on the display connected to the pseudo player character control device 300, and the pseudo player character included in the image will be displayed on the display connected to the pseudo player character control device 300. Then, perform the operation according to the operation data.
  • the user operating the user terminal 100 can cause his or her player character to operate as desired in the virtual three-dimensional space provided by the metaverse management device 200.
  • the promoter who operates the pseudo player character control device 300 can make his pseudo player character move as he desires in the virtual three-dimensional space provided by the metaverse management device 200.
  • a player character and a pseudo player character meet in a virtual three-dimensional space.
  • a pseudo player character whose purpose is to promote sales of a certain product is waiting for the player character operated by the user at an appropriate location in a virtual three-dimensional space to promote sales of the product, so there is a certain probability that the pseudo player character will An encounter between the character and the pseudo player character occurs in the virtual three-dimensional space.
  • the promotion person uses the pseudo player character to guide the player character operated by the user to the location of the product in order to show the product that he/she is promoting.
  • the promoter operates the input device of the pseudo player character control device 300 and sends operation data to the metaverse management device 200 in order to cause the pseudo player character to perform appropriate actions.
  • the metaverse management device 200 continues to generate metaverse image data, and transfers the generated metaverse image data to the user terminal 100 and the pseudo player character control device 300. I will continue to send it to you.
  • the user further operates the user terminal 100 to cause the player character to operate, and the promoter operates the pseudo player character control device 300 to cause the pseudo player character to operate.
  • communication occurs between the player character and the pseudo player character, or between the user who operates them and the promoter.
  • the communication may be such that the pseudo player character returns the answer a to the question A from the player character, or the pseudo player character returns b to the question B from the player character, or the pseudo player character returns the answer b to the question B from the player character.
  • the pseudo player character responds to the request C with an action c.
  • the metaverse management device 200 continues to generate metaverse image data and continues to send the generated metaverse image data to the user terminal 100 and the pseudo player character control device 300.
  • the image analysis section 327 continues to generate environmental data, and the environment data continues to be sent one after another from the image analysis section 327 to the motion pattern recording section 324.
  • the image analysis unit 327 uses, in addition to the environmental data, data to specify what kind of motion the pseudo player character has performed. It also generates operational data. Therefore, in this case, what is sent one after another from the image analysis section 327 to the motion pattern recording section 324 is a pair of environmental data and motion data.
  • the environmental data and motion data that are sent one after another from the image analysis section 327 to the motion pattern recording section 324 are input to the motion artificial intelligence 324A recorded in the motion pattern recording section 324 as teacher data.
  • the behavioral artificial intelligence 324A progresses in learning based on the environmental data and behavioral data.
  • the paired environment data and motion data sent one after another from the image analysis section 327 to the motion pattern recording section 324 are linked with the pseudo player character that triggered the generation of the environment data.
  • the information is input one after another to the behavioral artificial intelligence 324A.
  • the motion artificial intelligence 324A learns motion data to be output when certain environmental data is input.
  • the motion data input as teacher data is based on the surroundings of the pseudo player character specified by the environmental data input at the same time as the motion data is input. It is environmentally friendly. Therefore, the behavioral artificial intelligence 324A, which is recommended to learn by successively inputting such a set of environmental data and behavioral data, is suitable for the well-known environment of the pseudo player character specified by the environmental data. Learning will proceed in such a way that it will be possible to output accurate motion data. Note that learning by the behavioral artificial intelligence 324A is not necessarily performed only when communication between the pseudo player character and the player character occurs.
  • the learning of the behavioral artificial intelligence 324A does not need to be performed in real time while the pseudo player character is logged into the virtual three-dimensional space created by the metaverse management device 200, but, for example, at the timing when a certain amount of training data has been accumulated. For example, the process may be performed at a time when the pseudo player character is not logged in. Such learning may be performed for all motion artificial intelligences 324A. However, it is not necessary for all the motion artificial intelligences 324A to undergo learning within the pseudo player character control device 300 through the process described above. For example, there is artificial intelligence that can be used as the behavioral artificial intelligence 324A, such as behavioral artificial intelligence generated by another pseudo player character control device 300 or behavioral artificial intelligence data generated by some other method.
  • the learned behavioral artificial intelligence 324A in the motion pattern recording section 324 by recording it in the motion pattern recording section 324.
  • a recording medium on which such learned behavioral artificial intelligence data is recorded may be inserted into a reading/writing device for a recording medium (for example, a DVD-ROM) connected to the interface of the pseudo player character control device 300.
  • the learned artificial intelligence data does not need to be input to the pseudo player character control device 300 via a recording medium, and may be input to the pseudo player character control device 300 via the network 400.
  • the motion pattern recording unit of a certain pseudo player character control device 300 may store data (computer program and data set) of the learned motion artificial intelligence 324A generated by another device (another pseudo player character control device 300). It is possible to install it on 324.
  • the pseudo player character was operated by a person called a sales promoter.
  • the pseudo player character is basically automatically operated or made to move by the pseudo player character control device 300.
  • a case in which the pseudo player character is automatically operated by the pseudo player character control device 300 will be described below.
  • the pseudo player character may be operated by the pseudo player character control device 300 instead of the promoter.
  • the player character meets a pseudo player character.
  • the control unit 322 sends the account data of the pseudo player character currently logged in to the metaverse management device 200 to the action determining unit 323 before and after the pseudo player character logs in to the metaverse management device 200.
  • the user further operates the user terminal 100 to make the player character move, and as described above, may ask questions or make requests to the pseudo player character who is trying to promote sales of a certain product.
  • the metaverse management device 200 continues to generate metaverse image data and continues to send the generated metaverse image data to the user terminal 100 and the pseudo player character control device 300.
  • the image analysis unit 327 in the pseudo player character control device 300 continues to generate environmental data (in this case, the motion of the pseudo player character is automatically controlled by the pseudo player character control device 300, and the motion artificial intelligence 324A learning is not being performed), it is not necessary for the image analysis unit 327 to generate motion data).
  • the contents of the environmental data and the method for generating the environmental data are as described above.
  • the generated environmental data is sequentially sent from the image analysis section 327 to the motion determining section 323 instead of the motion pattern recording section 324.
  • the motion determining section 323 reads out, from among the motion artificial intelligences 324A recorded in the motion pattern recording section 324, those assigned an account corresponding to the account data received from the control section 322. Then, the environmental data received from the image analysis unit 327 is input to the behavioral artificial intelligence 324A, and operational data is obtained as an output for the environmental data from the behavioral artificial intelligence 324A that has performed the input.
  • the motion artificial intelligence 324A functions as a motion estimation engine that estimates what kind of motion is appropriate for the pseudo player character to perform in a certain environment. Then, the motion determining unit 323 determines the motion specified by the motion data obtained as the output of the motion artificial intelligence 324A as the motion that the pseudo player character should perform.
  • the motion determining unit 323 does not have to use the output from the motion artificial intelligence 324A itself as data to determine the motion to be performed by the pseudo player character.
  • appropriate data is collected from the network 400 by crawling or other known or well-known technology, and the output from the behavioral artificial intelligence 324A is changed based on the collected data, and the changed data is converted into a pseudo player character. It is possible to use the data to determine the action to be performed. Thereby, it is also possible to make the movements of the pseudo player character more natural, for example, in accordance with the circumstances in the real world (weather, current events, trends, etc.).
  • the above-mentioned data collected through crawling etc. is applied to the various artificial intelligences mentioned above used in the image analysis unit 327 to generate environmental data. It is also possible to use other measures such as reflecting the information or reflecting it on the behavioral artificial intelligence 324A.
  • the motion determining unit 323 sends the above-mentioned motion data generated using the environmental data and the motion artificial intelligence 324A to the pseudo operation data generating unit 325.
  • the pseudo operation data generation unit 325 Upon receiving the motion data, the pseudo operation data generation unit 325 generates pseudo operation data, which is data for causing the pseudo player character specified by the account data described above to perform the motion specified by the motion data. do.
  • the pseudo operation data is data in a data format that can be accepted by the metaverse management device 200 to which the pseudo player character control device 300 is associated.
  • the pseudo-operation data generation unit 325 may include artificial intelligence for adjusting the pseudo-operation data so that the pseudo-player character performs natural movements.
  • the motion of the pseudo player character that is operated under the control of the metaverse management device 200 that has received the pseudo operation data becomes natural. For example, even if a pseudo-player character who is walking straight in a virtual three-dimensional space turns left, it would be extremely difficult for the pseudo-player character to suddenly turn at a right angle in a certain place, considering the way humans normally walk and turn. It's unnatural. Humans usually bend while drawing a curve with a certain radius.
  • the pseudo operation data generation unit 325 has artificial intelligence that makes such adjustments (that is, artificial intelligence as an operation estimation engine that estimates operations performed by the user using the input device 102), The movement of the pseudo player character becomes natural. Such artificial intelligence does not need to be different for each pseudo player character, and can be common when generating pseudo operation data for all pseudo player characters.
  • the pseudo operation data generation section 325 sends the generated pseudo operation data to the output section 326.
  • the pseudo operation data is sent from the output unit 326 to the transmitting/receiving mechanism, and further sent to the metaverse management device 200 via the network 400.
  • the metaverse management device 200 receives the pseudo operation data through its transmission/reception mechanism.
  • the pseudo-operation data is sent from there to the control section 222 and further to the three-dimensional spatial data generation section 223.
  • the pseudo operation data has the same data format as the operation data sent from the user terminal 100. Therefore, the three-dimensional space data generation unit 223 that has received the pseudo-operation data generates the pseudo-player character according to the pseudo-operation data in the same way as it causes the player character to perform an action according to the operation data when receiving the operation data.
  • the object is made to perform an action according to the pseudo operation data.
  • the subsequent processing is as already described.
  • the metaverse management device 200 generates metaverse image data and sends it to each of the user terminal 100 and the pseudo player character control device 300.
  • An image based on the metaverse image data is displayed as a moving image on the display 101 of the user terminal 100 that has received the metaverse image data.
  • the pseudo player character performs actions according to the pseudo operation data.
  • the user may not know whether the pseudo player character is being operated by a human being or by a machine called the pseudo player character control device 300. However, that's okay.
  • the user can experience communication between the player character that he or she operates and the pseudo player character, at least without feeling any discomfort.
  • the pseudo player character was intended to promote sales of a certain company's products.
  • the pseudo player character may be one that provides guidance within a virtual three-dimensional space.
  • the guidance provided by the pseudo player character may be, for example, focused on food, scenery, or buildings, depending on the preferences of the user or the player character operated by the user. .
  • By preparing an appropriate motion artificial intelligence 324A that determines the motion of the pseudo player character it is possible to make the motion of the pseudo player character desired.
  • the pseudo player character and the player character communicate in a one-to-one relationship, but the two may also communicate in a one-to-many or many-to-one relationship. Of course it could happen.
  • the pseudo player character does not necessarily have to have a clear purpose as described above.
  • the pseudo player character may simply serve as a conversation partner for the player character operated by the user in the virtual three-dimensional space. If the user desires such a pseudo-player character, the user should want to meet the same pseudo-player character in the virtual three-dimensional space whenever he or she desires.
  • the motion artificial intelligence 324A associated with the pseudo player character may predict the player character's behavior or the player character's preferences when the player character has acted together with the player character in the past in a virtual three-dimensional space. If the player character has learned through processing using environmental data such as The action is likely to be desirable for the user or the player character operated by the user.
  • the user or the player character operated by the user already knows the accounts in the virtual three-dimensional space provided by the metaverse management device 200. It becomes possible to call a fixed pseudo player character.
  • the user operates the input device 102 of the user terminal 100 to input an input for calling a certain pseudo player character.
  • the input includes, for example, account data of a pseudo player character to be called up.
  • the control unit 122 selects a pseudo player character and generates selection data that is data for calling the selected pseudo player character.
  • the selection data is sent from the user terminal 100 to the pseudo player character control device 300 via the network 400.
  • the selection data is received by the pseudo player character control device 300.
  • the selection data is sent to the control section 322.
  • the pseudo player character control device 300 that has received the selection data performs a login process to the metaverse management device 200 using an account corresponding to the account data included in the selection data. By doing so, the pseudo player character associated with that account will appear in the virtual three-dimensional space created by the metaverse management device 200. Thereby, the player character operated by the user and the pseudo player character called by the user can meet up in the virtual three-dimensional space.
  • devices such as adding position information in the virtual three-dimensional space where the player character is currently located to the selection data. may be appropriately adopted according to publicly known or well-known techniques. If the user calls a plurality of pseudo player characters, the user's player character can communicate with the plurality of pseudo player characters in the virtual three-dimensional space.
  • FIG. 8 shows an outline of a metaverse system including a modified pseudo player character control device 300.
  • the metaverse system of the modified example has most points in common with the metaverse system described in the embodiment. The difference is that in the modified example, there is only one pseudo player character control device 300, compared to three in the embodiment.
  • each of the plurality of metaverse management devices 200 and the same number of pseudo player character control devices 300 as the metaverse management devices 200 have a one-to-one correspondence, and each metaverse management device 200 creates a virtual tertiary character.
  • the pseudo player character control device 300 linked to each metaverse management device 200 was configured to send a pseudo player character into the original space.
  • the pseudo player character control device 300 according to the modified example sends pseudo player characters to all of the virtual three-dimensional spaces respectively generated by a plurality of metaverse management devices 200 (in this modified example, three metaverse management devices 200). It is designed to operate.
  • the configurations, functions, operations, etc. of the user terminal 100 and the metaverse management device 200 in the metaverse system of the modification are the functions of the control unit 122 of the user terminal 100 of the modification and the functions of the control unit 122 of the user terminal 100 of the embodiment. Everything is the same as that described in the embodiment except for slight differences as described below.
  • the pseudo player character control device 300 in the modified metaverse system is different from the pseudo player character control device 300 described in the embodiment. However, the difference is slight.
  • the functional blocks generated in the pseudo player character control device 300 according to the modified example by the computer program for causing the server to function as the pseudo player character control device of the present invention are as shown in FIGS. There is no difference from what was explained in the form. Further, the functions of the functional blocks generated in the pseudo player character control device 300 of the modified example are the same as those in the embodiment, except for the control section 322 and the pseudo operation data generation section 325.
  • the pseudo operation data generation unit 325 in the modified example differs from the embodiment in that it can generate pseudo operation data in a data format that can be accepted by the metaverse management device 200 to which the generated pseudo operation data is sent. Its function is different from the pseudo operation data generation section 325 in the pseudo player character control device 300.
  • the pseudo-operation data generation unit 325 of the modified example is capable of generating pseudo-operation data in three different data formats.
  • the user uses the user terminal 100 to register an account and player character in any one of the three metaverse management devices 200.
  • One user can register accounts and player characters with multiple metaverse management devices 200.
  • the pseudo player character control device 300 performs the same processing as described in the embodiment on the three metaverse management devices 200 to register accounts and pseudo player characters.
  • the pseudo player character control device 300 of the modified example also manages which account is registered in which metaverse management device 200. For example, if account data is recorded in the control unit 322, information that specifies in which metaverse management device 200 the account data is registered is added to the account data. be done. For example, if three metaverse management devices 200 are distinguished by giving identification numbers 1, 2, and 3, the identification numbers will be recorded in the control unit 322 along with the account data.
  • operation data sent from the user terminal 100 to the metaverse management device 200 for operating the player character, and operation data sent from the pseudo player character control device 300 to the metaverse management device 200 for operating the pseudo player character. have the same data format as long as they are sent to the same metaverse management device 200.
  • operation data is sent from the user terminal 100 to the metaverse management device 200 for operating the player character
  • pseudo operation data is sent from the pseudo player character control device 300 to the metaverse management device 200 for operating the pseudo player character.
  • the principle for setting the data format of the pseudo operation data to the same data format as the operation data scheduled to be accepted by the metaverse management device 200 to which it is sent is as follows, for example. For example, when logging in to the metaverse management device 200 with the pseudo player character control device 300, the control unit 322 sends the identification number of the metaverse management device 200 to which the login is performed to the pseudo operation data generation unit 325, for example.
  • the pseudo operation data generation unit 325 records the data format of operation data that each metaverse management device 200 can receive in a state that is linked to the identification number of the metaverse management device 200.
  • the pseudo operation data generation unit 325 generates pseudo operation data in a data format associated with the received identification number based on the operation data. Thereby, the data format of the pseudo operation data becomes the same data format as the operation data scheduled to be accepted by the metaverse management device 200 to which it is sent.
  • a user calls a pseudo player character from the pseudo player character control device 300 into a virtual three-dimensional space generated by the metaverse management device 200 to which the user's own player character is logged in.
  • the user sends selection data from the user terminal 100 to the pseudo player character control device 300.
  • this selection data included data on the account of the pseudo player character to be called.
  • the selection data sent from the user terminal 100 to the pseudo player character control device 300 includes, in addition to account data, a virtual three-dimensional space in which the user wishes to call a pseudo player character.
  • the identification number of the metaverse management device 200 currently in use is included.
  • the pseudo player character control device 300 can grasp which pseudo player character the user desires to send into the virtual three-dimensional space generated by which metaverse management device 200.
  • the subsequent processing is as already described.
  • a pseudo player character desired by the user is sent from the pseudo player character control device 300 into a virtual three-dimensional space where a player character operated by the user exists, and in that virtual three-dimensional space, a player character operated by the user and a pseudo player character are sent.
  • the pseudo player character operated by the player character control device 300 will meet up. Thereafter, communication between the player character and the pseudo player character is performed.
  • the data format of the pseudo operation data sent from the pseudo player character control device 300 to the metaverse management device 200 for operating the pseudo player character was scheduled to be received by the metaverse management device 200 through the above-described process.
  • the data format is the same as the operation data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

メタバース管理装置が生成する仮想三次元空間内に、動作の質とコストの低廉性との両立が可能な新たなキャラクタを登場させ、その動作を制御するための技術を提供する。 メタバースの仮想三次元空間は、メタバース管理装置200が生成する。仮想三次元空間内には、ユーザがユーザ端末100を用いて生成した操作データを受取ったメタバース管理装置200によって動作を行うプレイヤキャラクタが存在する。メタバース管理装置200には疑似プレイヤキャラクタ制御装置300が組み合わされる。疑似プレイヤキャラクタ制御装置300は、メタバース管理装置200が作る仮想三次元空間に疑似プレイヤキャラクタを送り込む。疑似プレイヤキャラクタ制御装置300は、操作データと同じデータ形式の疑似操作データを生成し、メタバース管理装置200に送ることで疑似プレイヤキャラクタを動作させる。

Description

疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム
 本発明は、メタバース管理装置が生成する仮想三次元空間内に、従来から存在した、人間であるユーザが操作してその動作を制御するキャラクタであるプレイヤキャラクタ、メタバース管理装置がその動作を制御するキャラクタであるノンプレイヤキャラクタ以外の新たなキャラクタを登場させ、その動作を制御するための技術に関する。
 メタバースは、正確な定義は未だ不定ではあるものの一般的には、コンピュータシステムが構築する仮想三次元空間、或いは仮想三次元空間をユーザに提供するサービスを意味する。仮想三次元空間は、メタバース管理装置により生成される。
 メタバースにおける仮想三次元空間は、例えば地球上に存在する街を模したものとすることができ、ユーザは、自分の化身であるキャラクタを仮想三次元空間内に送り込むことにより、メタバースにおける仮想三次元空間内で自らが望む動作を行う(或いは、自分が操作するキャラクタに自らが望む動作を行わせる)ことができる。その動作は人間が行える動作に倣ったものであり、例えば、他のキャラクタとの対話であったり、仮想三次元空間内の移動であったりする。
 近年のコンピュータシステムの進歩により、メタバースの利用が容易になってきており、それに伴い、従来は、遊び、ゲームの延長が主であったメタバースの用途が、商業利用に傾きつつある。
 例えば、メタバースにおける仮想三次元空間内で特定の企業が自社製品・自社サービスの販売促進を行うといった商業利用が実用化されている。中には、仮想三次元空間内に多数の企業がそれぞれ出店したブース多数を構築し、そこを訪れた人(プレイヤキャラクタ)に対して各企業の製品・サービスの紹介を行うといった、仮想三次元空間において大規模な仮想の展示会を開催する試みもなされている。
 従来のメタバースにおける仮想三次元空間内には通常、各ユーザが操作するキャラクタが存在する。各ユーザが操作するキャラクタはプレイヤキャラクタと称されることがあるため、本願では、そのようなキャラクタを「プレイヤキャラクタ」と称することとする。プレイヤキャラクタは通常、ユーザが選択、作成等したアバターである。ユーザは、プレイヤキャラクタを三次元空間内で動作させるための動作データを自分が操作するユーザ端末(デスクトップ型パソコン、ノートブック型パソコン、スマートフォン、タブレット、据え置き型ゲーム専用機等)から、インターネットを介してメタバース管理装置に送る。その動作データに基づいてメタバース管理装置がプレイヤキャラクタを動作させる。それにより、ユーザは、自分の思う通りに自己のプレイヤキャラクタを操作することができるようになっている。
 他方、従来のメタバースにおける仮想三次元空間内には、ユーザが操作しないキャラクタも存在する。そのようなキャラクタは一般にノンプレイヤキャラクタと称されるため、本願でもそのようなキャラクタを「ノンプレイヤキャラクタ」と称することとする。ノンプレイヤキャラクタは、メタバース管理装置の管理下におかれたキャラクタである。ノンプレイヤキャラクタは、メタバース管理装置に実装されたコンピュータプログラムの機能により、予め定められた動作を行うようになっている。
 上に例示したようなメタバースの商業利用がなされる場合を考える。
 その場合、メタバースにおける仮想三次元空間内のプレイヤキャラクタの傍には、そのプレイヤキャラクタに対して、商品・サービスの販売促進を行うためのキャラクタを存在させる必要がある。そのキャラクタは販売促進の効果を重視するのであれば、販売促進を行おうとする企業の管理下にあるプレイヤキャラクタとするのが好ましい。
 そうすることにより、顧客或いは顧客候補であるユーザが操作するプレイヤキャラクタからの質問に対して、企業の例えば社員によって操作されるプレイヤキャラクタが適切な回答を行うことができるようになる。また、顧客或いは顧客候補であるユーザが操作するプレイヤキャラクタを、企業の例えば社員によって操作されるプレイヤキャラクタが、展示会中の適切なブースに案内することが可能となる。
 プレイヤキャラクタに対してプレイヤキャラクタを用いて提供される上述の如き接客は、それが仮想三次元空間内で行われていることを除けば、人対人の接客とそれほど変わらず、きめ細かな対応が可能となる。
 このような利点があるものの、ユーザのプレイヤキャラクタに対して接客を行う企業の社員等が操作を行うプレイヤキャラクタを準備することは、企業側の負担が大きい。というのも接客を行うプレイヤキャラクタの数が増えれば、基本的にはプレイキャラクタと同数のプレイヤキャラクタを操作する人員を確保しなければならなくなるからである。メタバースを商業利用する場合には、商品・サービスの売上の向上を図ることが企業の第1の狙いとなるが、それと同時に経費の削減も狙いとなる。多数の人員を確保しなければメタバースを商業利用できないというのであれば、企業の社員等が操作を行うプレイヤキャラクタを用いてユーザが操作するプレイヤキャラクタに対して接客を行う意味が減じられる。
 そのような点を考慮して、ユーザが操作するプレイヤキャラクタに対して、メタバース管理装置の管理下にあるノンプレイヤキャラクタに接客を行わせることが考えられる。ノンプレイヤキャラクタは、メタバース管理装置が動作させるものであるため、ユーザのプレイヤキャラクタに接客を行わせるための人員確保が不要となる。
 とはいえ、ノンプレイヤキャラクタは予めメタバース管理装置にインストールされたコンピュータプログラムの機能或いは命令によって制御される。したがって、ノンプレイヤキャラクタに関するコンピュータプログラムを作成するのは、メタバース管理装置の管理者となる。しかしながら、例えばノンプレイヤキャラクタが接客を行う場合、そのプレイヤキャラクタにどのような動作を行わせるのが好ましいのかということを、メタバース管理装置の管理者は一般に知らない。したがって、そのようなメタバース管理装置の管理者が作成したコンピュータプログラムによって制御されるノンプレイヤキャラクタの動作の質を十分に高くするのは難しい。
 そのような状況下で、ノンプレイヤキャラクタの動作の質を上げようとすると、コンピュータプログラムを作成するためのコストが過大となりやすい。
 また、メタバース、或いはそれを管理するメタバース管理装置には多くの種類(多くの企業がメタバースのサービスを提供している。)があり、各メタバース管理装置ごとに操作データのデータ形式や、メタバースを構築するために各メタバース管理装置で用いられるプログラム言語が異なるなどの差異があるため、多数のメタバースの仮想三次元空間内において同じノンプレイヤキャラクタを動作させるにしても、ノンプレイヤキャラクタを動作させるためのコンピュータプログラムを各メタバース管理装置毎に作成しなければならなくなるのが通常であり、これもコストを押し上げる。
 つまり、メタバース内で、ユーザの操作するプレイヤキャラクタと接触するキャラクタとしてノンプレイヤキャラクタを選択してある程度質の高い動作を行わせるのが難しく、また、人間が操作するプレイヤキャラクタを多数準備するよりはコストを下げることが可能かもしれないが、コスト抑制の効果は限定的である。
 その一方で、ユーザの操作するプレイヤキャラクタと接触するキャラクタとして、ある程度質の高い動作を行え、且つその作成等に必要なコストを下げることのできる、プレイヤキャラクタでもなくノンプレイヤキャラクタでもない新たなキャラクタをメタバースの仮想三次元空間内に登場させることができるのであれば、メタバースの可能性は大きく広がる。
 そのようなキャラクラは、上述したごとき接客を主とした商業利用への応用も可能であるが、その他の用途への応用も可能だからである。
 例えば、メタバースの分野では、ユーザが、自らのプレイヤキャラクタを仮想三次元空間に入れては見たものの、仮想三次元空間のどこに何があるのか、何を行うことができるのかわからないから、ユーザが仮想三次元空間を楽しむことができないという課題がしばしば指摘されている。これは現実世界で例えれば、ガイドブックもなしに見知らぬ街に一人で降り立った人が、ときに途方にくれてしまうという状態である。ユーザが操作するプレイヤキャラクタを仮想三次元空間内で案内するキャラクタが存在すればそのような課題を解決できる。そのようなキャラクタとして上述の新たキャラクタを利用することができ、更にそのキャラクタが、ユーザの好みやそのときの気分に合わせた案内を行うのであれば、メタバースのサービスを利用するユーザにとって大きな助けになるし、メタバースの利用者を増やすことにもつながる。
 また、メタバースの三次元空間内で、ユーザが操作するプレイヤキャラクタと、例えば行動を共にし、或いは単なる話し相手となってくれるキャラクタにも、上述の如き新たなキャラクタは応用可能である。しかも、ユーザが操作するプレイヤキャラクタと行動する新たなキャラクタがそのユーザの好みや性格に応じた動作をしてくれるのであれば、ユーザの満足度は上がるであろう。特に、ユーザが操作するプレイヤキャラクタと行動を行うキャラクタが仮にいつも同じキャラクタなのであれば、そのキャラクタはもはや、単なる案内人や話し相手の範疇を超えて、ユーザの或いはユーザが操作するプレイヤキャラクタの友達と同一視することができることになるであろう。
 プレイヤキャラクタでもノンプレイヤキャラクタでもない上述の如きキャラクタは、上述の如き様々な用途に応用可能であり、メタバースの普及に大きく貢献することが期待される。
 しかしながら、現状メタバースにおける仮想三次元空間に登場させることのできるキャラクタは、プレイヤキャラクタとノンプレイヤキャラクタに限られており、それら以外のキャラクタを実現するための現実的な方法は知られていない。
 本願は、メタバース管理装置が生成する仮想三次元空間内に、プレイヤキャラクタ、ノンプレイヤキャラクタ以外の、メタバース管理装置の管理者以外の者が生成したある程度動作の質が高く、その作成に対するコストを抑制できる新たなキャラクタを登場させ、その動作を制御するための技術を提供することを目的とする。
 以上の課題を解決するものとして、本願発明者は以下の発明を提案する。なお、メタバース管理装置が生成する仮想三次元空間内に登場させられるキャラクタであって、プレイヤキャラクタ、ノンプレイヤキャラクタ以外の、ある程度動作の質が高く、その作成に対するとコストを抑制できる上述した新たなキャラクタを、以下では、「疑似プレイヤキャラクタ」と称することとする。
 本願発明は、複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置である。
 そして、疑似プレイヤキャラクタ制御装置は、前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定部と、前記動作決定部によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成部と、前記疑似操作データを、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信部と、を有している。
 本願の疑似プレイヤキャラクタ制御装置は、メタバース管理装置と組合せて用いられる。メタバース管理装置は、既存のもので良い。メタバース管理装置は、仮想三次元空間を構築する空間構築部と、複数のプレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末(デスクトップ型パソコン、ノートブック型パソコン、スマートフォン、タブレット、据え置き型ゲーム専用機等)からインターネットを介して受取る受信部を備える。操作データは、プレイヤキャラクタの体を例えば仮想三次元空間内の移動のために動かしたり、プレイヤキャラクタに発話させたりするためのデータである。当然操作データのデータ形式は、メタバース管理装置或いはその管理者によって決定されており、そのデータ形式に調えられた操作データが、ユーザ端末からメタバース管理装置へと送られるようになっている。メタバース管理装置は、受取った操作データにしたがって、仮想三次元空間内で、各プレイヤキャラクタを動作させるようになっている。プレイヤキャラクタの動作を制御するのは、メタバース管理装置内のキャラクタ制御部である。
 そのようなメタバース管理装置と組合せて用いられる疑似プレイヤキャラクタ制御装置は、疑似プレイヤキャラクタに行わせる動作を決定する動作決定部と、動作決定部によって決定された疑似プレイヤキャラクタに行わせる動作を、疑似プレイヤキャラクタに行わせるデータである疑似操作データを、操作データと同じデータ形式で作成する疑似操作データ生成部と、前記疑似操作データを、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信部と、を有している。動作決定部は、疑似プレイヤキャラクタに行わせる動作を決定する。動作決定部は一般的には、疑似プレイヤキャラクタに行わせるのが相応しい動作を、疑似プレイヤキャラクタに行わせる動作として決定するようになっている。疑似操作データ生成部は、疑似操作データを生成する。疑似操作データは、動作決定部が決定した動作を疑似プレイヤキャラクタに行わせるためのデータであって、ユーザ端末がメタバース管理装置にインターネットを介して送る、操作データと同じデータ形式のデータとされる。疑似プレイヤキャラクタ制御装置は送信部を備えており、疑似操作データ生成部で生成された疑似操作データは、送信部からインターネットを介してメタバース管理装置の受信部へと送られる。
 上述したように、メタバース管理装置は、ユーザがユーザ端末から送り、受信部で受取られた操作データに基づいて、そのユーザのプレイヤキャラクタに動作をさせる。他方、メタバース管理装置は、疑似プレイヤキャラクタ制御装置から送られ、受信部で受取った疑似操作データに基づいて、疑似プレイヤキャラクタを動作させる。疑似操作データは上述したように操作データと同じデータ形式のデータであるから、メタバース管理装置は、疑似操作データを操作データと区別することができないか、少なくとも区別する必要はない。したがって、疑似操作データを受取ったメタバース管理装置内のキャラクタ制御部は、操作データを受取ったときにプレイヤキャラクタを動作させるのとまったく同じ処理を実行することにより、疑似操作データに基づいて仮想三次元空間内で疑似プレイヤキャラクタを動作させることができる。これは、疑似プレイヤキャラクタ制御装置をメタバース管理装置に組合せて使用する場合に、メタバース管理装置側に何らの修正を必要としないということである。これはコストの抑制に繋がる。
 また、かかる疑似プレイヤキャラクタの動作の質は、基本的に疑似プレイヤキャラクタ制御装置にインストールされるコンピュータプログラム及びデータセットによって決まる。そのようなコンピュータプログラムは、疑似プレイヤキャラクタ制御装置の管理者がそのようなコンピュータプログラム等を作成することも可能である。しかしながら、疑似プレイヤキャラクタ制御装置の管理者が、疑似プレイヤキャラクタの動作を決定するためのコンピュータプログラムを外部(例えば、疑似プレイヤキャラクタに接客を行わせたい企業や、疑似プレイヤキャラクタにプレイヤキャラクタの道案内をさせたい企業等)から疑似プレイヤキャラクタ制御装置に受入れることとすれば、メタバースの仮想三次元空間に疑似プレイヤキャラクタを送り込み、疑似プレイヤキャラクタに動作を行わせたい者、つまり疑似プレイヤにどのような動作を行わせたいかを一番よく知る者自身が、疑似プレイヤキャラクタを動作させるためのコンピュータプログラム及びデータセットを作成することができるようになる。そのような理由により、メタバース管理装置とは別に設けられたこの疑似プレイヤキャラクタ制御装置を用いれば、メタバース管理装置が生成する仮想三次元空間内に疑似プレイヤキャラクタを送り込むことが可能となるだけでなく、コストを過剰にかけなくとも疑似プレイヤキャラクタの動作の質を上げることが可能となる。更には、この疑似プレイヤキャラクタ制御装置は、「メタバース管理装置に何らの改変を行わずともメタバースの世界に、質の高い動作を行う疑似プレイヤキャラクタを送り込めるようにする」、という新たなサービスを実現するためのプラットフォームとなることが期待される。
 上述したように、疑似プレイヤキャラクタの動作の質は、基本的に疑似プレイヤキャラクタ制御装置にインストールされるコンピュータプログラム及びデータセットによって決まる。より具体的には、疑似プレイヤキャラクタの動作の質は、疑似プレイヤキャラクタの動作を決定する動作決定部の作り込みの程度によって決定される。上述したように、本願の疑似プレイヤキャラクタ制御装置は、それを利用するにあたって、複数のメタバース管理装置に対して何らの改変を行わなくとも、複数の疑似プレイヤキャラクタ制御装置において動作決定部の機能を決定するコンピュータプログラム及びデータセットの使い回しが可能となるから、動作決定部(より正確には、動作決定部で実行される処理を規定するコンピュータプログラム及びデータセット)の作り込みに費用をかけることができる。これは、コストを抑制しつつ、疑似プレイヤキャラクタの動作の質を向上させることに繋がる。
 本願発明の疑似プレイヤキャラクタ制御装置における動作決定部は、疑似プレイヤキャラクタに行わせる動作を決定する。動作決定部は、以下のようにして疑似プレイヤキャラクタの動作を決定するようになっていてもよい。
 疑似プレイヤキャラクタ制御装置は、前記メタバース管理装置から、前記仮想三次元空間内における前記疑似プレイヤキャラクタの周囲の環境についてのデータである環境データを取得する取得部と、前記疑似プレイヤキャラクタの動作パターンについてのデータを記録した動作パターン記録部と、を備えていてもよい。この場合、前記動作決定部は、前記取得部から受取った前記環境データと、前記動作パターン記録部に記録された前記データとに基づいて、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作を決定するようになっていてもよい。
 動作パターン記録部には、疑似プレイヤキャラクタに動作を行わせるためのデータが記録されている。これは例えば、環境データがこのような条件を充足したときには疑似プレイヤキャラクタはこのような動作を行うといった、疑似プレイヤキャラクタの動作とその動作が生じる条件とを紐づけた多数のデータのセットとすることができる。そして、動作決定部は、取得部から受取った環境データと、動作パターン記録部に記録されたデータとに基づいて、当該環境データが示す環境に相応しい疑似プレイヤキャラクタの動作を決定するようなものとすることができる。そのようにすることにより、動作決定部は、疑似プレイヤキャラクタが、周囲の環境に相応しい動作を行うことを可能とする。
 疑似プレイヤキャラクタの周囲の環境についてのデータである環境データは、例えば、疑似プレイヤキャラクタがプレイヤキャラクタであった場合に、メタバース管理装置からユーザ端末に提供される一人称視点、又は三人称視点の画像、音声等についてのデータ(或いは、それから抽出したデータ)とすることができる。もっとも、疑似プレイヤキャラクタの「周囲」の範囲は、上述の範囲に制限されるものではなく、疑似プレイヤキャラクタの動作に影響を与える可能性のある、より広い範囲やより狭い範囲に設定することができる。
 前記環境データには、前記疑似プレイヤキャラクタと会話を行っているプレイヤキャラクタとの会話内容が含まれていてもよい。疑似プレイヤキャラクタはその目的の別によらず、プイレイヤキャラクタと接触してコミュニケーションを取ることで、プレイヤキャラクタを操作している人に、知識を与えたり、楽しさを与えたりする。そして、プレイヤキャラクタとコミュニケーションを取る場合に一番大きな役割を果たすのはプレイヤキャラクタが行う会話の内容である。したがって、動作決定部が疑似プレイヤキャラクタの動作を決定するために用いる環境データに、プレイヤキャラクタの会話を含めることにより、動作決定部が決定する疑似プレイヤキャラクタの動作が、より適切なものとなる。
 また、動作決定部は、以下のようにして疑似プレイヤキャラクタの動作を決定するようになっていてもよい。
 疑似プレイヤキャラクタ制御装置は、前記メタバース管理装置から、前記仮想三次元空間内における前記疑似プレイヤキャラクタの周囲の環境についてのデータである環境データを取得する取得部を備えていてもよい。環境データ、取得部の内容は既に述べたようなものである。
 また、前記動作パターン記録部には、動作人工知能が記録されていても良い。動作人工知能は、前記環境データを入力した場合に、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作を出力する人工知能である。この場合、前記動作決定部は、前記取得部から受取った前記環境データを、前記動作パターン記録部に記録された前記動作人工知能に入力した場合に、前記動作人工知能から出力される動作を、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作として決定するようになっていてもよい。
 このようにすることにより、疑似プレイヤキャラクタが行う動作を、質の高い適切なものとすることが可能となる。
 前記動作人工知能は、前記環境データと、当該環境において前記プレイヤキャラクタが採用した動作とを教師データとして事前に学習を行うことによって得られた学習済みの人工知能であってもよい。この場合、学習済みの人工知能である動作人工知能を作成する過程で教師データを得るために使用されるプレイヤキャラクタは、所定のユーザによって操作される。例えば、背景技術の欄で述べた「接客」を行う疑似プレイヤキャラクタ用の人工知能を作ろうとする場合、ユーザが操作するプレイヤキャラクタに対して企業の社員等が操作するプレイヤキャラクタを用いて接客を行うことにより、きめ細かな接客を行うための教師データが得られる。ある程度の教師データが溜まり、その教師データによる学習済みの動作人工知能を得ることができれば、以後は、動作人工知能を用いて疑似プレイヤキャラクタに、接客に適した質の高い動作を行わせることが可能となる。
 もちろん、動作人工知能は、接客に向く疑似プレイヤキャラクタ用のものに限られない。疑似プレイヤキャラクタに仮想三次元空間内の案内を行わせるのに相応しい動作人工知能を作成したいのであればそれに相応しい教師データを学習に用いれば良い。つまり、疑似プレイヤキャラクタに行わせたい動作に対応した動作人工知能を作成するには、その目的に照らして相応しい教師データを準備すれば良い。
 前記動作パターン記録部には、所定の動作人工知能を記録することができるようになっていても構わない。例えば、動作パターン記録部には、複数の動作人工知能を記録することが可能となっていても良いし、また、動作パターン記録部に、動作人工知能を追加したり、削除したりすることが可能となっていても良く、更に動作パターン記録部に記録された動作人工知能は書き換え可能となっていてもよい。
 そうすることで、例えば、ある疑似プレイヤキャラクタ制御装置で作られた動作人工知能を、他の疑似プレイヤキャラクタ制御装置における動作パターン記録部に移植することが可能となる。そうすることにより、一旦作成した動作人工知能を複数の疑似プレイヤキャラクタで利用することが可能となるため、動作人工知能の作成のコストを下げることが容易になる。
 本願発明者は、動作人工知能をその動作パターン記録部に記録した疑似プレイヤキャラクタ制御装置に組込んで動作人工知能として用いることのできる学習済みの人工知能をも本願発明の一態様として提案する。その学習済み人工知能は、前記環境データと、当該環境において前記プレイヤキャラクタが採用した動作とを教師データとして事前に学習を行うことによって得られた学習済み人工知能である。このような学習済み人工知能は上述したような効果を生じる。それ故、この学習済み人工知能は、それ自体に価値があり取引の対象ともなり得る。
 上述したように、今や多くの企業がメタバースのサービスを提供しているため、それぞれ異なるメタバースを管理するメタバース管理装置が複数存在しており、この状況は続いていくと予想される。
 前記メタバース管理装置が複数である場合、疑似プレイヤキャラクタ制御装置における前記疑似操作データ生成部は、前記疑似操作データが送信される前記メタバース管理装置それぞれがそれらの前記受信部で受付けることが予定された前記操作データのデータ形式と同じデータ形式の前記疑似操作データを生成するようになっていてもよい。つまり、疑似操作データ生成部は、各メタバース管理装置に送る疑似操作データのそれぞれを、その疑似操作データを受取るメタバース管理装置が受付ける操作データのデータ形式と、同じデータ形式に調整変更、或いは変換することができるようになっていてもよい。
 これによれば、1つの疑似プレイヤキャラクタ制御装置により、複数のメタバース管理装置へ疑似操作データを送り、複数のメタバース管理装置のそれぞれに、疑似プレイヤキャラクタの動作を制御させることが可能となる。
 本願発明者は、疑似プレイヤキャラクタ制御装置で実行される方法をも本願発明の一態様として提案する。かかる方法による効果は、本願発明による疑似プレイヤキャラクタ制御装置の効果に等しい。
 一例となるその方法は、複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置であり、情報処理を実行する制御部と、前記インターネットを介して前記メタバース管理装置に所定のデータを送信する送信部とを備えているものの前記制御部にて実行される方法(疑似プレイヤキャラクタ制御方法)である。
 その方法は、前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定過程と、前記動作決定過程によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成過程と、前記疑似操作データを、前記送信部を介して、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信過程と、を含む。これら各過程はいずれも制御部が実行する。
 本願発明者は、疑似プレイヤキャラクタ制御装置として所定の例えば汎用のコンピュータを機能させるためのコンピュータプログラムをも本願発明の一態様として提案する。かかるコンピュータプログラムによる効果は、本願発明による疑似プレイヤキャラクタ制御装置の効果に等しく、また、本願による疑似プレイヤキャラクタ制御装置として所定のコンピュータを機能させることが可能となることもその効果である。
 一例となるそのコンピュータプログラムは、複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置として、所定のコンピュータを機能させるためのコンピュータプログラムである。
 そして、そのコンピュータプログラムは、前記コンピュータを、前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定部と、前記動作決定部によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成部と、前記疑似操作データを、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信部と、して機能させる。
一実施形態によるメタバースシステムの全体構成を示す図。 図1に示したメタバースシステムにおけるユーザ端末の外観を示す斜視図。 図2に示したユーザ端末のハードウェア構成を示す図。 図2に示したユーザ端末の内部に生成される機能ブロックを示すブロック図。 図1に示した疑似プレイヤキャラクタ制御装置の内部に生成される機能ブロックの例を示すブロック図。 図5に示した動作パターン記録部に記録されるデータを概念的に示す図。 図1に示したメタバース管理装置の内部に生成される機能ブロックの例を示すブロック図。 変形例によるメタバースシステムの全体構成を示す図。
 以下、図面を参照しつつ本発明による疑似プレイヤキャラクタ制御装置の好ましい一実施形態とその変形例について説明する。
 実施形態、及び変形例の説明において、同一の対象には同一の符号を付すものとし、重複する説明は場合により省略するものとする。
 図1に、本願発明の疑似プレイヤキャラクタ制御装置を含む、メタバースシステムの好ましい一実施形態の全体構成を概略で示す。
 第1実施形態によるメタバースシステムは、複数の、実際には多数の、ユーザ端末100と、これには限られないがいずれも複数のメタバース管理装置200と、疑似プレイヤキャラクタ制御装置300とを含んで構成されている。これには限られないが、この実施形態におけるメタバース管理装置200と疑似プレイヤキャラクタ制御装置300とは同数であり、これには限られないがこの実施形態ではメタバース管理装置200と疑似プレイヤキャラクタ制御装置300は3つずつである。同数とされたメタバース管理装置200と疑似プレイヤキャラクタ制御装置300とは、これには限られないがこの実施形態では一対一対応している。これには限られないが、メタバース管理装置200-1と疑似プレイヤキャラクタ制御装置300-1、メタバース管理装置200-2と疑似プレイヤキャラクタ制御装置300-2、メタバース管理装置200-3と疑似プレイヤキャラクタ制御装置300-3が互いに対応するものとされている。
 ユーザ端末100、メタバース管理装置200、疑似プレイヤキャラクタ制御装置300はいずれもインターネットであるネットワーク400に接続されており、ユーザ端末100、メタバース管理装置200、疑似プレイヤキャラクタ制御装置300はインターネット400を介して互いに通信可能に構成されている。ユーザ端末100、メタバース管理装置200、疑似プレイヤキャラクタ制御装置300が互いに送受信するデータに付いては後述する。
 ユーザ端末100、メタバース管理装置200、疑似プレイヤキャラクタ制御装置300の概略について説明する。
 メタバース管理装置200は、メタバースの世界である仮想三次元空間を生成してユーザに対してメタバースのサービスを提供するためのものである。仮想三次元空間には、ユーザが操作するプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタとが存在する。仮想三次元空間には他にも、よく知られているように、道路や建物、様々な物体や生物、ノンプレイヤキャラクタ等が存在しても良いが、本願と関係するのは基本的にはプレイヤキャラクタと疑似プレイヤキャラクタのみなのであるため、以下の説明では仮想三次元空間内に存在するそれら以外のものについての説明は基本的に省略する。メタバース管理装置200は、メタバースの仮想三次元空間内の画像であるメタバース画像についてのメタバース画像データを生成し、それをユーザ端末100へ送るようになっている。
 この実施形態におけるユーザ端末100は、ユーザがメタバースのサービスを楽しむためのインターフェイスとして機能する。ユーザ端末100は、ユーザの化身として仮想三次元空間内に送り込まれるユーザが操作するキャラクタであるプレイヤキャラクタを操作するための入力装置としての性格を持つ。また、ユーザ端末100は、ユーザがメタバースのサービスを楽しむためのビューアとしての性格を持つ。ユーザ端末100は後述するようにディスプレイを備えており、そのディスプレイには、ユーザ端末100がメタバース管理装置200から受取った上述のメタバース画像データに基づく画像が表示される。ユーザは、ディスプレイに表示されたその画像を見ることにより(もちろん、音声の出力があっても良いし、音声の出力があることがよく知られているように普通である。)、仮想三次元空間内で自らのプレイヤキャラクタが体験した事象を体験することができる。また、この実施形態におけるユーザ端末100は、ユーザがメタバースのサービスを受ける前提として、ユーザが用いるプレイヤキャラクタを生成する機能も有している。
 疑似プレイヤキャラクタ制御装置300は、ユーザが操作しないプレイヤキャラクタである疑似プレイヤキャラクタと、その動作を制御する装置である。言い換えれば、疑似プレイヤキャラクタ制御装置300は疑似プレイヤキャラクタを操作する機能を有している。疑似プレイヤキャラクタ制御装置300は上述したようにメタバース管理装置200と一対一対応している。疑似プレイヤキャラクタ制御装置300はそれと紐付けられたメタバース管理装置200が作る仮想三次元空間内における疑似プレイヤキャラクタを操作するようになっている。
 以下、ユーザ端末100、メタバース管理装置200、疑似プレイヤキャラクタ制御装置300の詳細について順に説明する。
 まず、ユーザ端末100の構成を説明する。各ユーザ端末100の構成は、本願発明との関連でいえば同じである。ユーザ端末100はコンピュータを含んでいる。より詳細には、この実施形態におけるユーザ端末100は、汎用のコンピュータ装置により構成されている。これには限られないが、ユーザ端末100は、各ユーザが個人で所有するコンピュータである。
 ユーザ端末100は、メタバースのサービスの提供を受けることができる装置であればよい。具体的には、ユーザ端末100は、デスクトップ型パソコン、ノートブック型パソコン、スマートフォン、タブレット、据え置き型ゲーム専用機等である。それらはすべて、ネットワーク400を介しての通信が可能なものであり、また後述するコンピュータプログラムをインストールすることによって後述する機能ブロックをその内部に生成し、そして後述する処理を実行できるものであることが求められ、それが可能であるのであればそれ以外の仕様は特に問わない。ユーザ端末100は、一体とされているか、或いは外付けの態様とされたディスプレイを備えている。ディスプレイには、後述するように、メタバースにおける三次元空間の画像が表示されることになる。外付けのディスプレイは、一般的な据え置き型のディスプレイでも良いが、ヘッドマウントディスプレイである場合もある。
 例えば、ユーザ端末100がスマートフォンかタブレットなのであれば、スマートフォンとしてのユーザ端末100は例えば、Apple Japan合同会社が製造、販売を行うiPhone(シリーズの製品)で良いし、タブレットとしてのユーザ端末100は例えば、Apple Japan合同会社が製造、販売を行うiPad(シリーズの製品)でよい。なお、「Apple Japan」、「iPhone」、「iPad」はいずれも商標である。
 ユーザ端末100の外観の一例を図2に示す。これには限られないが、図2に示したのは、ユーザ端末100がスマートフォンである場合の外観である。
 ユーザ端末100は、ディスプレイ101を備えている。ディスプレイ101は、静止画又は動画である画像を表示するためのものであり、公知、或いは周知のものを用いることができる。ディスプレイ101は例えば、液晶ディスプレイや有機ELディスプレイである。ユーザ端末100は、また入力装置102を備えている。入力装置102は、ユーザが所望の入力をユーザ端末100に対して行うためのものである。入力装置102は、公知或いは周知のものを用いることができる。この実施形態におけるユーザ端末100の入力装置102はボタン式のものとなっているが、これには限られず、テンキー、キーボード、トラックボール、マウスなどを用いることも可能である。特に、ユーザ端末100がノートブック型パソコン、デスクトップ型パソコンである場合には、入力装置102はキーボードや、マウス等になるであろう。また、ユーザ端末100が据え置き型のゲーム専用機である場合には、入力装置102は一般的には専用コントローラである。また、ディスプレイ101がタッチパネルである場合、ディスプレイ101は入力装置102の機能を兼ねることになり、この実施形態ではそうされている。
 ユーザ端末100のハードウェア構成を、図3に示す。
 ハードウェアには、CPU(central processing unit)111、ROM(read only memory)112、RAM(random access memory)113、インターフェイス114、大容量記憶媒体115が含まれており、これらはバス116によって相互に接続されている。
 CPU111は、演算を行う演算装置である。CPU111は、例えば、ROM112、或いはRAM113、或いは大容量記憶媒体115に記録されたコンピュータプログラムを実行することにより、後述する処理を実行する。
 ROM112は、CPU111が後述する処理を実行するために必要なコンピュータプログラムやデータを記録している。大容量記憶媒体115も同様である。大容量記憶媒体115は、例えば、HDD(hard disk drive)、SSD(solid state drive)である。
 ROM112や大容量記憶媒体115に記録されたコンピュータプログラムとしては、例えば、ユーザ端末100がスマートフォンであれば、ユーザ端末100をスマートフォンとして機能させるために必要な、例えば、通話や電子メールを実行するための、或いはインターネット400を介しての通信を実現するための、例えば一般的なコンピュータプログラムやデータが記録されている。ユーザ端末100は、また、ネットワーク400を介して受取ったデータに基づいて、ホームページを閲覧することも可能とされており、それを可能とするための公知のwebブラウザを実装している。
 RAM113は、CPU111が処理を行うために必要なワーク領域を提供する。場合によっては、上述のコンピュータプログラムやデータの例えば一部が記録されていてもよい。
 インターフェイス114は、バス116で接続されたCPU111やRAM113等と外部との間でデータのやり取りを行うものである。インターフェイス114には、上述のディスプレイ101と、入力装置102とが接続されている。入力装置102から入力された操作内容は、インターフェイス114からバス116に入力されるようになっている。また、周知のようにディスプレイ101に画像を表示するための画像データは、インターフェイス114から、ディスプレイ101に出力されるようになっている。
 インターフェイス114は、また、インターネットであるネットワーク400を介して外部と通信を行うための公知の機器である送受信機構(図示を省略)に接続されており、それにより、ユーザ端末100は、ネットワーク400を介してデータを送信することと、ネットワーク400を介してデータを受信することとが可能になっている。かかるネットワーク400を介してのデータの送受信は、有線で行われる場合もあるが無線で行われる場合もある。例えば、ユーザ端末100がスマートフォンである場合には、かかる通信は無線で行われるのが通常であろう。インターネット400を介しての通信が可能な限り、送受信機構の構成は、公知或いは周知のものとすることができる。送受信機構がネットワーク400から受取ったデータは、インターフェイス114により受取られるようになっており、インターフェイス114から送受信機構にわたされたデータは、送受信機構によって、ネットワーク400を介して外部、例えば、他のユーザ端末100に送られるようになっている。各ユーザ端末100がネットワーク400を介して送受信機構を使って送受信するデータの詳細については追って述べる。
 CPU111がコンピュータプログラムを実行することにより、ユーザ端末100内部には、図4で示されたような機能ブロックが生成される。なお、以下の機能ブロックは、ユーザ端末100を本願発明のユーザ端末として機能させるためのコンピュータプログラム単体の機能により生成されていても良いが、そのコンピュータプログラムと、ユーザ端末100にインストールされたOSその他のコンピュータプログラムとの協働により生成されても良い。
 ユーザ端末100内には、本願発明の機能との関係で、図4に示されたように、少なくとも入力部121、制御部122、画像制御部123、出力部124が生成される。
 これらのうち、入力部121と出力部124とは、ハードウェアとして見た場合には、インターフェイス114に相当し、或いはインターフェイス114の機能によって実現される。より具体的には、入力部121と出力部124は、概念としては、インターフェイス114とバス116との接続部分に相当する。
 また、制御部122、画像制御部123は、ハードウェアとしては演算装置たるCPU111に相当し、或いはCPU111の機能によって実現される。
 入力部121は、インターフェイス114からの入力を受取るものである。
 インターフェイス114から入力されるデータには、入力装置102によって入力されたデータがある。入力部121にインターフェイス114から入力されうるものとしては他に、送受信機構からインターフェイス114を介して入力されるデータがある。入力装置102と送受信機構から入力されるデータについては後述する。
 入力部121は、これらを受取ると、それらを制御部122か、画像制御部123へと送るようになっている。
 制御部122は、メタバースのサービスを受けるため、又は疑似プレイヤキャラクタのサービスを受けるために必要となる、データを生成する機能を有している。制御部122が生成するデータの例としては、ユーザ端末100を操作するユーザを識別するためのユニークな情報であるアカウントのデータや、メタバースのサービスにログインするためのデータや、ユーザが操作するプレイヤキャラクタを生成するためのデータであるキャラクタデータや、ユーザが操作するプレイヤキャラクタとともに行動する疑似プレイヤキャラクタを選択するためのデータである後述する選択データを挙げることができる。
 制御部122は、また、ユーザがメタバースのサービスを受けている(ユーザがメタバースを利用している)ときに、操作データを生成する。操作データは、メタバースにおいてユーザが操作するキャラクタであるプレイヤキャラクタを操作するためのデータである。制御部122が生成する操作データは、例えば従来と同じく、プレイヤキャラクタに人間が行う動作に倣った移動等の動作を指示するものであったり、プレイヤキャラクタに会話を行わせるためのものであったりする。各メタバース管理装置200が受付けることのできる操作データのデータ形式は、場合にもよるがメタバース管理装置200毎に異なる。制御部122が生成する操作データは、そのユーザがサービスを受けるメタバースを管理するメタバース管理装置200が受付けられるデータ形式のデータとされる。
 制御部122はまた、ユーザが操作するプレイヤキャラクタを、メタバース管理装置200が生成するためのデータであるプレイヤキャラクタデータを生成する場合もある。
 制御部122は、生成した、操作データを含む各種のデータを出力部124に送るようになっている。
 画像制御部123は、ディスプレイ101に表示される画像についての画像データを生成する。画像制御部123は、後述するようにしてメタバース管理装置200で生成されるメタバース画像データに基づいて、ディスプレイ101に表示される画像についての画像データを生成する場合がある。メタバース画像データに基づく画像であるメタバース画像には、後述するように、メタバース管理装置200が生成する仮想三次元空間内におけるプレイヤキャラクタの周囲の状況が映り込んでいる。メタバース画像データは、そのようなメタバース画像を特定するデータである。なお、メタバース画像データは、「画像データ」という名称にも関わらず、音声のデータが含まれていても良く、この実施形態ではこれには限られないがそうされている。
 画像制御部123は生成した画像データを出力部124に送るようになっている。
 出力部124は、インターフェイス114へとデータを出力するものである。
 出力部124がインターフェイス114へと出力するデータには、制御部122から受取った、操作データを含む種々のデータと、画像制御部123から受取った画像データとがある。
 出力部124はそれらデータをいずれも、インターフェイス114に出力する。出力部124が制御部122から受取ったデータはインターフェイス114を介して送受信機構へと送られ、送受信機構からネットワーク400を介してメタバース管理装置200又は疑似プレイヤキャラクタ制御装置300へと送られるようになっている。
 出力部124が画像制御部123から受取った画像データは、インターフェイス114を介してディスプレイ101へと送られるようになっている。ディスプレイ101には、画像データに応じた画像が表示されるようになっている。画像データに含まれる音声についてのデータは、図示を省略のスピーカに送られ、スピーカからは、メタバース画像データに含まれていた音声データに基づく音声が出力される。
 次に、疑似プレイヤキャラクタ制御装置300の構成について説明する。
 疑似プレイヤキャラクタ制御装置300は、ハードウェアとして見た場合には、既存の公知又は周知のサーバ装置で構わない。また、そのハードウェア構成も一般的なものでよい。疑似プレイヤキャラクタ制御装置300のハードウェア構成は、本願発明との関係でいえば、図3に示したユーザ端末100のハードウェア構成と同じである。
 疑似プレイヤキャラクタ制御装置300は、CPU、ROM、RAM、インターフェイス、大容量記憶媒体をバスで接続したものとなっている。
 疑似プレイヤキャラクタ制御装置300が備えるCPU、ROM、RAM、インターフェイス、バス、及び大容量記録装置の構成、機能は、ユーザ端末100におけるそれらの構成、機能と変わらない。また、疑似プレイヤキャラクタ制御装置300が備えるインターフェイスには、ユーザ端末100が備えていたのと同様の、疑似プレイヤキャラクタ制御装置300外の機器とネットワーク400を介しての通信を行うための送受信機構が接続されている。疑似プレイヤキャラクタ制御装置300が備えるインターフェイスには、これには限られないが、ユーザ端末100が備えていたものと同様の入力装置が接続されている。入力装置は、例えば、キーボードとマウスである。疑似プレイヤキャラクタ制御装置300のインターフェイスにもユーザ端末100が備えていたのと同様のディスプレイが接続されていても構わない。
 疑似プレイヤキャラクタ制御装置300の例えば、ROM、或いは大容量記憶媒体には、サーバを疑似プレイヤキャラクタ制御装置300として機能させるためのコンピュータプログラムが記録されている。このコンピュータプログラムは、疑似プレイヤキャラクタ制御装置300となるサーバにプリインストールされていたものであっても良いし、ポストインストールされたものであっても良い。このコンピュータプログラムのサーバへのインストールは、メモリカード、CD-ROM等の所定の記録媒体を介して行なわれても良いし、LAN或いはインターネットなどのネットワークを介して行なわれても構わない。
 CPUがコンピュータプログラムを実行することにより、疑似プレイヤキャラクタ制御装置300内に、図5で示されたような機能ブロックが生成される。なお、以下の機能ブロックは、サーバを本願発明の疑似プレイヤキャラクタ制御装置300として機能させるためのコンピュータプログラム単体の機能により生成されていても良いが、そのコンピュータプログラムと、サーバにインストールされたOSその他のコンピュータプログラムとの協働により生成されても良い。
 疑似プレイヤキャラクタ制御装置300内には、本願発明の機能との関係で、図5に示されたように、少なくとも入力部321、制御部322、動作決定部323、動作パターン記録部324、疑似操作データ生成部325、出力部326、画像解析部327が生成される。
 これらのうち、入力部321と出力部326とは、ハードウェアとして見た場合には、インターフェイスに相当し、或いはインターフェイスの機能によって実現される。より具体的には、入力部321と出力部326は、概念としては、インターフェイスとバスとの接続部分に相当する。
 また、機能ブロックのうち制御部322、動作決定部323、疑似操作データ生成部325、画像解析部327は、ハードウェアとしては演算装置たるCPUに相当し、或いはCPUの機能によって実現される。
 また、機能ブロックのうち動作パターン記録部324、は、ハードウェアとしてはデータを記録する記録媒体により構成され、より具体的には、ROM、RAM、又は大容量記憶媒体によって実現される。
 入力部321は、インターフェイスからの入力を受取るものである。
 インターフェイスから入力部321に入力されるデータには、送受信機構からインターフェイスを介して入力されるデータがある。送受信機構から入力部321に送られてくるデータとしては、例えば、ユーザ端末100から送られてくる操作データと、選択データ、メタバース管理装置200から送られてくる後述するメタバース画像データとがある。
 入力部321は、送受信機構から受取ったデータのうちメタバース画像データを画像解析部327へ送るようになっており、それ以外のデータを制御部322に送るようになっている。
 制御部322は、疑似プレイヤキャラクタ制御装置300全体の制御を行う他、ユーザ端末100の制御部122が有する機能の一部と同等の機能を有している。 ユーザ端末100の制御部122は、メタバースのサービスを受けるために必要となるデータを生成する機能を有していた。同様の機能を、制御部322も有している。制御部322が生成するデータとしては、疑似プレイヤキャラクタ制御装置300が操作を行う疑似プレイヤキャラクタそれぞれを識別するアカウントのデータや、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタを生成するためのデータであるキャラクタデータや、ログインのデータがある。後述するように、メタバース管理装置200から見れば、ユーザが操作する(ユーザ端末100が操作する)プレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタとは区別できないか、少なくとも区別する必要がないものであるため、制御部322が生成するアカウントのデータと、キャラクタデータと、ログインのデータとは、ユーザ端末100の制御部122が作るアカウントのデータ等といずれも同等のものとなる。制御部322は、生成したアカウントのデータ、ログインのデータを動作決定部322に送るようになっているが、後述するように場合によっては出力部326に送るようになっている。また、制御部323は、生成したキャラクタデータと、ログインのデータとを出力部326に送るようになっている。
 後述するように、疑似プレイヤキャラクタ制御装置300は基本的に、疑似プレイヤキャラクタを自動的に動作させる(操作する)ためのものである。後述するように、疑似プレイヤキャラクタは、疑似プレイヤキャラクタ制御装置300が自動的に生成するこれも後述する疑似操作データによって動作させられる。しかしながら、これには限られないがこの実施形態の疑似プレイヤキャラクタ制御装置300では、例えば、疑似操作データが生成される前の段階では(より詳細には、後述する動作人工知能が生成される前の段階では)、或いは動作人工知能が疑似プレイヤキャラクタ制御装置300にインストールされらう前の段階では、疑似プレイヤキャラクタ制御装置300の管理者等(以下、簡単のため単に「管理者」と記載する。)が入力装置から入力するデータにしたがって生成された操作データによって疑似プレイヤキャラクタを操作する。これには限られないがこの実施形態の疑似プレイヤキャラクタ制御装置300では、入力装置から入力され、インターフェイス、入力部321を介して受取ったデータに基づいて、制御部322が操作データを生成する。制御部323が生成する操作データは、その疑似プレイヤキャラクタ制御装置300と紐付けられたメタバース管理装置200が受付けることのできるデータ形式のデータとされる。つまり、その疑似プレイヤキャラクタ制御装置300と紐付けられたメタバース管理装置200に対してユーザ端末100から送られる操作データのデータ形式と同じデータ形式とされる。
 制御部322は、生成した操作データを出力部326へ送るようになっている。
 動作決定部323は、疑似プレイヤキャラクタに行わせる動作を決定する機能を有している。
 動作決定部323は、上述のようにアカウントのデータを制御部323から受取る場合がある。アカウントのデータを受取ったら動作決定部323は、そのアカウントに紐付けられた疑似プレイヤキャラクタに行わせるべき動作を決定し、その動作を特定するデータである動作データを生成する。
 動作決定部323は、疑似プレイヤキャラクタに行わせるべき動作を決定する際に、動作パターン記録部324に記録されたデータと、画像解析部327から送られてくる後述する環境データとを用いる。
 画像解析部327は、メタバース画像データに基づいて環境データを生成する機能を有している。ただし、動作人工知能324Aの学習を行う場合には(例えば、疑似プレイヤキャラクタ制御装置300が疑似操作データではなく、操作データをメタバース管理装置200へ送っている場合には)、画像解析部327は環境データのみならず、後述する動作データをも生成する。
 画像解析部327は、上述したように入力部321から、メタバース画像データを受取る。メタバース画像データに基づく画像であるメタバース画像には、後述するように、メタバース管理装置200が生成する仮想三次元空間内における擬似プレイヤキャラクタの周囲の状況が映り込んでいる。画像解析部327は、メタバース画像データから、擬似プレイヤキャラクタの周囲の環境についてのデータである環境データを生成するようになっている。上述したように、この実施形態におけるメタバース画像データには、音声のデータも含まれている。画像解析部327は、メタバース画像データに基づいて、音声も含めた擬似プレイヤキャラクタの周囲の環境についてのデータを生成するようになっていてもよく、この実施形態ではそうされている。環境データとは例えば、疑似プレイヤキャラクタが存在する仮想三次元空間内での位置、近くにプレイヤキャラクタが存在するか、近くにプレイヤキャラクタが存在するなら疑似プレイヤキャラクタとの相対的な位置関係、プレイヤキャラクタの特徴、プレイヤキャラクタが発した言葉の内容等のメタバース画像データによって特定されるメタバース画像(音声も含む)の特徴点である。これらの特徴点を抽出するために、画像解析部327は人工知能を用いても良い。例えば、画像認識をして画像中の特徴点を抽出する人工知能、或いは言葉(言語)の意味を認識する人工知能が公知或いは周知であるが、そのような人工知能を画像解析部327による環境データの生成に応用することも可能である。ただし、ここでいう人工知能は、後述する動作人工知能とは異なる。
 画像解析部327は、生成した環境データを動作決定部323に送るようになっている。なお、メタバース画像データにより特定される画像は通常動画である。画像解析部327は、実時間で環境データを生成し続け、生成した環境データを実時間で動作決定部323に送り続けるようになっていても良いし、例えば、0.5から2秒程度の間隔でバッチ的に環境データを生成し、環境データを生成する都度環境データを動作決定部323に送るようになっていてもよい。また、画像解析部327は、メタバース画像データを解析した結果、例えば予め定められたイベントが発生した場合に環境データを生成し、環境データを生成する都度環境データを動作決定部323へ送るようになっていても良い。もちろん、環境データの生成と、動作決定部323への送信のタイミングは、以上に例示したタイミングの組合せとすることもできる。
 なお、以上では、画像解析部327は、環境データを動作決定部323へと送るという説明を行ったが、場合によっては(例えば、動作人工知能に学習を行わせる場合には)環境データを動作パターン記録部324に送る場合もある。画像解析部327が環境データを動作パターン記録部324へと送る場合には、画像解析部327は、メタバース画像データから、疑似プレイヤキャラクタがどのような動作を行ったかということを示すデータである動作データをも生成し、動作データをも動作パターン記録部324へと送るようになっている。この動作データは、動作決定部323が生成する動作データと同じく、疑似プレイヤキャラクタの動作を特定するデータである。どのような場合に画像解析部327が環境データを動作パターン記録部324へと送るようになっているかについては後述する。
 他方、動作パターン記録部324には、擬似プレイヤキャラクタが行うべき動作パターンを決定するためのデータが記録されている。動作パターン記録部324に記録されているデータは、例えば、環境データと、動作パターンのデータとを互いに紐づけたデータ複数組の集合であるテーブルのようなものであってもよい。そのようなテーブルが存在すれば、環境データを画像解析部327から受取った動作決定部323は、その環境データと紐付けられた動作パターンのデータを読みだすことにより、擬似プレイヤキャラクタに行わせるべき動作をその動作パターンのデータから決定することができる。例えば、上述の如きテーブルは、擬似プレイヤキャラクタ毎に準備されていても良い。上述したように、動作決定部323には、擬似プレイヤキャラクタと一対一対応させられた、言い換えれば擬似プレイヤキャラクタを識別するユニークな情報であるアカウントのデータが送られてくるようになっている。複数のテーブルのデータそれぞれをアカウントのデータと紐づけておけば、動作決定部323は、制御部322から受取ったアカウントのデータと紐付けられていたテーブルを用いることが可能となり、そのアカウントのデータと紐付けられている擬似プレイヤキャラクタに相応しい動作を環境データに基づいて決定することが可能となる。もっとも、1つのテーブルを複数のアカウントのデータと紐づけておくことも可能であり、そうすることにより1つのテーブルで、複数の疑似プレイヤキャラクタの動作を決定することも可能となる。
 動作パターン記録部324に記録されているのは上述の如きテーブルでも構わないが、この実施形態ではこれには限られないが、人工知能である動作人工知能とされている。
 動作人工知能は、この実施形態では複数であり、各動作人工知能は、この疑似プレイヤキャラクタ制御装置300が制御或いは操作する疑似プレイヤキャラクタの数だけ準備されている。もちろん、上述のテーブルの場合と同じように、1つの動作人工知能に複数のアカウントデータを紐づけておくことにより、1つの動作人工知能を用いて複数の疑似プレイヤキャラクタの動作を決定するようにすることも可能である。図6に、動作パターン記録部324に記録されているデータを概念的に示す。動作パターン記録部324には、複数の動作人工知能324Aが記録されている。図6において、動作人工知能324Aのそれぞれには「ID」という文字の記載があるが、その後に続けて記載されている文字(例えば、左上の動作人工知能324Aにおいては「123XX」という文字)が、その動作人工知能324Aに紐付けられているアカウントを示している。
 動作人工知能324Aは、環境データを入力すると、その環境データによって特定される環境に相応しい疑似プレイヤキャラクタの動作についての動作データが出力される人工知能である。
 動作人工知能324Aは、これには限られないがこの実施形態では、ディープラーニングによって学習を行うことによって得られた学習済みの人工知能である。より詳細には、動作人工知能324Aは、環境データと、当該環境において疑似プレイヤキャラクタ(この時点では、疑似プレイヤキャラクタは、管理者という人間が操作しているので、事実上プレイヤキャラクタである。)が採用した動作についてのデータである動作データとを教師データとして事前に学習を行うことによって得られた学習済みの人工知能である。そのようにして得られた動作人工知能324Aは、環境データを入力すると、その環境データによって特定される環境に相応しい疑似プレイヤキャラクタの動作についての動作データが出力される人工知能となる。
 動作人工知能324Aをどのようにして得るのか、つまり動作人工知能324Aにどのようにして学習を行わせるのかについては後述する。
 上述したように、動作決定部323は、疑似プレイヤキャラクタに行わせる動作を決定するが、その際に動作パターン記録部324に記録されたデータと、画像解析部327から送られてきたデータとを用いる。
 より具体的には、動作決定部323は、動作パターン記録部324に記録された動作人工知能324Aのうち、制御部322から受取ったアカウントのデータに対応したアカウントが付されたものに対して、例えばその動作人工知能324Aを読み出して例えばRAMその他の記録媒体に記録した後に画像解析部327から受取った環境データを入力し、入力を行った動作人工知能324Aから出力として動作データを得る。そのようにして得た動作データによって特定される動作を、動作決定部323は、疑似プレイヤキャラクタが行うべき動作として決定するようになっている。
 動作決定部323は、環境データと、動作人工知能324Aとを用いて生成した上述の動作データを、疑似操作データ生成部325へと送るようになっている。
 疑似操作データ生成部325は、疑似操作データを生成する機能を有している。
 疑似操作データ生成部325は上述したように、動作決定部323から動作データを受取る。動作データを受取ったら疑似操作データ生成部325は、その動作データによって特定される動作を、上述したアカウントのデータによって特定される疑似プレイヤキャラクタに対して行わせるためのデータである疑似操作データを生成するようになっている。疑似操作データは、その疑似プレイヤキャラクタ制御装置300が紐付けられたメタバース管理装置200が受付けられるデータ形式のデータとされる。ユーザがプレイヤキャラクタを操作する際に用いられる入力装置は各メタバース管理装置200毎に異なるのが一般的である。例えば、あるメタバース管理装置200では、ユーザがプレイヤキャラクタを操作するときに、キーボードとマウスを用いることを予定しており、他のメタバース管理装置200ではユーザがプレイヤキャラクタを操作するときに、タッチパネルを用いることを予定していたりする。そのような相違があるため、各メタバース管理装置200が受付ける操作データのデータ形式は、すべてのメタバース管理装置200でそれぞれ異なるとは限らないが、少なくとも異なることがある。疑似操作データ生成部325は、生成してメタバース管理装置200に送られる疑似操作データが、少なくともそのメタバース管理装置200が受付けられるデータ形式(つまり、そのメタバース管理装置200が受付けることを予定している操作データのデータ形式と同じデータ形式)のものとなるようにして、疑似操作データを生成する。
 疑似操作データ生成部325は、生成した疑似操作データを出力部326へと送るようになっている。
 出力部326は、制御部322からアカウントのデータ、キャラクタデータ、ログインのデータ、操作データを受取るようになっている。また、出力部326は、疑似操作データ生成部325から擬似操作データを受取るようになっている。
 出力部326は受取ったそれらデータを、送受信機構に送るようになっている。それらデータを受取ったら、出力部326はそれらデータを、その疑似プレイヤキャラクタ制御装置300と紐付けられたメタバース管理装置200に、ネットワーク400を介して送るようになっている。
 次に、メタバース管理装置200の構成について説明する。
 メタバース管理装置200は、ハードウェアとして見た場合には、既存の公知又は周知のサーバ装置で構わない。また、そのハードウェア構成も一般的なものでよい。メタバース管理装置200のハードウェア構成は、本願発明との関係でいえば、図3に示したユーザ端末100のハードウェア構成と同じである。
 メタバース管理装置200は、CPU、ROM、RAM、インターフェイス、大容量記憶媒体をバスで接続したものとなっている。
 メタバース管理装置200が備えるCPU、ROM、RAM、インターフェイス、バス、及び大容量記録装置の構成、機能は、ユーザ端末100におけるそれらの構成、機能と変わらない。また、メタバース管理装置200が備えるインターフェイスには、ユーザ端末100が備えていたのと同様の、メタバース管理装置200外の機器とネットワーク400を介しての通信を行うための送受信機構が接続されている。メタバース管理装置200が備えるインターフェイスには、ユーザ端末100が備えていたのと同様のディスプレイ、入力装置が接続されていても構わないが、本願とはあまり関係がないのでその説明は省略する。
 メタバース管理装置200の例えば大容量記憶媒体には、サーバをメタバース管理装置200として機能させるためのコンピュータプログラムが記録されている。このコンピュータプログラムは、メタバース管理装置200となるサーバにプリインストールされていたものであっても良いし、ポストインストールされたものであっても良い。このコンピュータプログラムのサーバへのインストールは、メモリカード、CD-ROM等の所定の記録媒体を介して行なわれても良いし、LAN或いはインターネットなどのネットワークを介して行なわれても構わない。
 CPUがコンピュータプログラムを実行することにより、メタバース管理装置200内に、図7で示されたような機能ブロックが生成される。なお、以下の機能ブロックは、サーバを本願発明のメタバース管理装置200として機能させるためのコンピュータプログラム単体の機能により生成されていても良いが、そのコンピュータプログラムと、サーバにインストールされたOSその他のコンピュータプログラムとの協働により生成されても良い。
 メタバース管理装置200内には、本願発明の機能との関係で、図7に示されたように、少なくとも入力部221、制御部222、仮想三次元空間データ生成部223、プレイヤキャラクタデータ記録部224、メタバースデータ記録部225、メタバース画像データ生成部226、出力部227が生成される。
 これらのうち、入力部221と出力部227とは、ハードウェアとして見た場合には、インターフェイスに相当し、或いはインターフェイスの機能によって実現される。より具体的には、入力部221と出力部227は、概念としては、インターフェイスとバスとの接続部分に相当する。
 また、機能ブロックのうち、制御部222、仮想三次元空間データ生成部223、メタバース画像データ生成部226は、ハードウェアとしては演算装置たるCPUに相当し、或いはCPUの機能によって実現される。
 また、機能ブロックのうち、プレイヤキャラクタデータ記録部224、メタバースデータ記録部225は、ハードウェアとしてはデータを記録する記録媒体により構成され、より具体的には、ROM、RAM、又は大容量記憶媒体によって実現される。
 入力部221は、インターフェイスからの入力を受取るものである。
 インターフェイスからの入力されるデータには、送受信機構からインターフェイスを介して入力されるデータがある。送受信機構から入力部221に送られてくるデータとしては、例えば、ユーザ端末100から送られてくるアカウントのデータ、ログインのデータ、キャラクタデータ、及び操作データと、疑似プレイヤキャラクタ制御装置300から送られてくるアカウントのデータ、ログインのデータ、キャラクタデータ、操作データ、及び疑似操作データがある。
 入力部221は、送受信機構から受取った上述のデータを、制御部222へ送るようになっている。
 制御部222は、ユーザが、ユーザ端末100を介してメタバースのサービスを受けるための前提としての処理を実行する機能を有している。
 前提としての処理とは、ユーザ端末100又は疑似プレイヤキャラクタ制御装置300が、メタバース管理装置200が生成する仮想三次元空間に対して、或いはメタバース管理装置200が提供するメタバースのサービスに対してログインする処理である。この処理については後述する。
 前提としての処理には、プレイヤキャラクタまたは疑似プレイヤキャラクタを生成する処理が含まれる。上述したように、制御部222は、入力部221から、ユーザ端末100から送られてきたアカウントのデータとキャラクタデータとを受取る場合がある。それを受取った場合、制御部222は、受取ったアカウントのデータの割り振られたユーザが用いるプレイヤキャラクタのデータを生成する。プレイヤキャラクタは公知或いは周知の通り、例えば、性別、名前、身長、体型、顔の造作、服装等の特徴を例えば任意に選択することができるようになっている。キャラクタデータは、それら各特徴をそれぞれ特定するようなものとなっている。制御部222は受取ったキャラクタデータに基づいてプレイヤキャラクタを生成し、アカウントのデータと紐づけた上で、プレイヤキャラクタのデータであるプレイヤキャラクタデータをプレイキャラクタデータ記録部224に記録するようになっている。制御部222は、入力部221から、疑似プレイヤキャラクタ制御装置300から送られてきたアカウントのデータとキャラクタデータとを受取る場合がある。それを受取った場合、制御部222は、入力部221から、ユーザ端末100から送られてきたアカウントのデータとキャラクタデータとを受取った場合と同様の処理を実行することにより、プレイヤキャラクタを生成し、生成したプレイヤキャラクタのデータであるプレイヤキャラクタデータをプレイヤキャラクタデータ記録部224に記録する。疑似プレイヤキャラクタ制御装置300から送られてきたキャラクタデータに基づいて生成されたプレイヤキャラクタは、メタバース管理装置200から見れば、ユーザ端末100から送られてきたキャラクタデータに基づいて生成されたプレイヤキャラクタと区別できないか、少なくとも区別する必要がない。ただし、そのプレイヤキャラクタは、人ではなく基本的には疑似プレイヤキャラクタ制御装置300によって操作される、或いは動作させられるものであるので、本願発明における疑似プレイヤキャラクタとなる。
 制御部222は、ユーザ端末100から送られてきたアカウントのデータに基づいてログインの処理が行われた後においてメタバースのサービスをユーザに対して提供する場合、入力部221から受取ったアカウントのデータを仮想三次元空間データ生成部223へ送るようになっている。制御部222は、疑似プレイヤキャラクタ制御装置300から送られてきたアカウントのデータに基づいてログインの処理が行われた後においてメタバースのサービスを疑似プレイヤキャラクタ制御装置300に対して提供する場合、入力部221から受取ったアカウントのデータを仮想三次元空間データ生成部223へ送るようになっている。
 制御部222は、また、メタバースのサービスをユーザに対して提供する場合、入力部221から受取ったユーザ端末100から送られてきた操作データを、仮想三次元空間データ生成部223へ送るようになっている。制御部222は、また、メタバースのサービスを疑似プレイヤキャラクタ制御装置300に対して提供する場合、入力部221から受取った疑似プレイヤキャラクタ制御装置300から送られてきた操作データ又は疑似操作データを、仮想三次元空間データ生成部223へ送るようになっている。
 仮想三次元空間データ生成部223は、メタバース管理装置200がユーザに提供する仮想三次元空間を演算によって作り出し、また、当該仮想三次元空間を特定するデータである仮想三次元空間データを生成するものである。仮想三次元空間データ生成部223は、ユーザに提供するメタバースのサービスの根幹を成すものであるといえる。
 仮想三次元空間データ生成部223が仮想三次元空間を構成するために、仮想三次元空間データ生成部223は、制御部222から受取ったユーザ端末100から送られてきた操作データと、制御部222からから受取った疑似プレイヤキャラクタ制御装置300から送られてきた操作データ、又は疑似操作データを用い、またそれらに加えて、プレイヤキャラクタデータ記録部224に記録されていた、ユーザ端末100及び疑似プレイヤキャラクタ制御装置300から送られてきたアカウントのデータによって特定されるアカウントと紐付けられたプレイヤキャラクタデータと、メタバースデータ記録部225に記録されていたメタバースデータとを利用する。
 仮想三次元空間データ生成部223が仮想三次元空間を生成するのに用いられる上述のデータのうちここまでに説明していないものはメタバースデータである。メタバースデータは、仮想三次元空間データ生成部223が仮想三次元空間を生成するのにあたって必要な、プレイヤキャラクタを除いた全対象についてのデータである。全対象には、例えば、仮想三次元空間に存在する地面、山、川等の自然物、道や建物、建物内の家具や什器、展示会のブースや商品等の人工物、ノンプレイヤキャラクタ等を特定するためのデータ、また、それらの仮想三次元空間内での位置や向きを特定するためのデータが含まれうる。また、仮想三次元空間内での天候や、交通手段等の動的な対象についてのデータも含まれうる。メタバースデータ記録部225は、そのようなメタバース内でのプレイヤキャラクタに関するもの以外のデータ一切を、メタバースデータとして記録している。
 仮想三次元空間データ生成部223は、仮想三次元空間を生成するとき、メタバースデータ記録部225からメタバースデータを読みだして、必要な範囲の仮想三次元空間を生成する。そして、仮想三次元空間データ生成部223は、その仮想三次元空間の中に、プレイヤキャラクタデータ記録部224から読み出したユーザ用のプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300用のプレイヤキャラクタである疑似プレイヤキャラクタとを配置する。そして、プレイヤキャラクタの動作を制御部222から受取った、ユーザ端末100から送られてきた操作データによって決定する。また、疑似プレイヤキャラクタの動作を制御部222から受取った、疑似プレイヤキャラクタ制御装置300から送られてきた操作データ、又は疑似操作データによって決定する。
 仮想三次元空間データ生成部223が仮想三次元空間を生成するために用いられる技術は、公知或いは周知のもので十分である。そのような技術の例としては、例えば、日本ではユニティ・テクノロジーズ・ジャパン株式会社が提供する3Dコンテンツを例えばリアルタイムで生成するためのサービスである「Unity(商標)」、Epic Games, Inc.が提供する3Dコンテンツを例えばリアルタイムで生成するためのサービスである「Unreal Engine(商標)」がある。
 例えばそれらの技術を用いることにより、仮想三次元空間データ生成部223は、プレイヤキャラクタと疑似プレイヤキャラクタとがその中に存在するある範囲の仮想三次元空間を生成することができる。このとき、プレイヤキャラクタが行う動作はユーザが意図したものとされ、疑似プレイヤキャラクタが行う動作は疑似プレイヤキャラクタ制御装置300から送られてきた操作データ又は疑似操作データに即したものとなる。
 そのようにして生成された仮想三次元空間を特定するデータが、仮想三次元空間データである。仮想三次元空間データ生成部223は、仮想三次元空間データをメタバース画像データ生成部226へ送るようになっている。仮想三次元空間データ生成部2263は、仮想三次元空間データを実時間で連続的にメタバース画像データ生成部226に送る。
 メタバース画像データ生成部226は、メタバース画像についてのデータであるメタバース画像データを生成する機能を有している。
 メタバース画像データ生成部226は、上述したように仮想三次元空間データを受取る。仮想三次元空間データは上述したように、プレイヤキャラクタと疑似プレイヤキャラクタとを含む仮想三次元空間の所定の範囲を特定するデータである。その仮想三次元空間データに基づいてメタバース画像データ生成部226が演算を行うことにより、メタバース画像データ生成部226は、ある視点から見たプレイヤキャラクタと疑似プレイヤキャラクタとの少なくとも一方を含む、一人称視点か三人称視点のある範囲の仮想三次元空間の画像であるメタバース画像についてのデータ、つまりメタバース画像データを生成する。メタバース画像は、各プレイヤキャラクタ用、或いは各疑似プレイヤキャラクタ用のものが生成される。各メタバース画像における視点の位置や、一人称視点か三人称視点かの別、或いはメタバース画像に描画される仮想三次元空間内の範囲はもちろん、公知或いは周知のように、ユーザ端末100から送られてくるデータによって選択(或いは変更)可能とすることができる。もっとも、そのような技術は公知というよりも完全に周知であるから、この点についての説明は省略する。
 また、メタバース画像データは後述するようにユーザ端末100と、疑似プレイヤキャラクタ制御装置300の少なくとも一方に送られるが、両者にメタバース画像データが送られるときにおける両者に送られるメタバース画像データにより特定されるメタバース画像は、例えば視点の位置や範囲について、互いに異なるものとなっていてもよいし、通常は異なるものとなっている。
 メタバース画像データ生成部226は動画のデータとしてメタバース画像データを生成する。
 メタバース画像データ生成部226は、生成したメタバース画像データを出力部227へ送るようになっている。
 出力部227は、受取ったメタバース画像データを、送受信機構へ送るようになっている。
 送受信機構は、そのメタバース画像データを生成するきっかけとなったプレイヤキャラクタと紐付けられたアカウントを持つユーザのユーザ端末100と、そのメタバース画像データを生成するきっかけとなった疑似プレイヤキャラクタと紐付けられたアカウントを持つ疑似プレイヤキャラクタ制御装置300とにそれぞれ送るようになっている。両者に送られるメタバース画像データは、上述したように互いに異なるものとなっている場合がある。
 以上で説明したメタバースシステムの使用方法と動作について、説明する。
(前提としての処理)
 ユーザがメタバースシステムを利用するにあたり、ユーザは、まず自らが利用するメタバースのサービスを提供しているメタバース管理装置200に対してアカウントの登録を行うとともに、自らが用いるプレイヤキャラクタの登録を行う。同様に、疑似プレイヤキャラクタ制御装置300も、その疑似プレイヤキャラクタ制御装置300が紐付けられたメタバース管理装置200に対してアカウントの登録を行うとともに、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタの登録を行う。
 ユーザが行うアカウントとプレイヤキャラクタの登録と、疑似プレイヤキャラクタ制御装置300が行うアカウントと疑似プレイヤキャラクタの登録とは、互いに独立して行うことが可能であり、どちらが先に行われても同時に行われても構わない。
 ユーザがアカウントとプレイヤキャラクタを登録する処理は、公知或いは周知の方法によって実現することができる。
 この実施形態では、まず、ユーザは、ユーザ端末100を、例えばユーザ端末100に実装されたブラウザの機能を用いて、メタバース管理装置200にネットワーク400を介して接続する。
 そして、入力装置102を用いて自分のアカウントを入力する。入力されたアカウントは、入力装置102からインターフェイス114、入力部121を介して制御部122へと入力される。制御部122は、アカウントを特定するデータであるアカウントのデータを生成する。
 アカウントのデータは、制御部122から出力部124へ送られ、更に送受信機構へと送られる。送受信機構はアカウントのデータをネットワーク400を介してメタバース管理装置200に送る。
 メタバース管理装置200は送受信機構により、アカウントのデータを受取る。アカウントのデータは、送受信機構からインターフェイスを介して入力部221へと送られ、更には制御部222へと送られる。例えば、制御部222は、そのアカウントのデータを記録する。それにより、メタバース管理装置200にユーザ端末100を利用するユーザのアカウントが記録される。
 多数のユーザがアカウントの登録を行うので、メタバース管理装置200の例えば制御部322には多数のユーザのアカウントが記録されることになる。
 アカウントの登録が終了したら、ユーザは、自らが用いるプレイヤキャラクタの登録を行う。プレイヤキャラクタの登録はアカウントの登録と連続して行われる必要はない。例えば、後述するログインの処理が行われた後にプレイヤキャラクタの登録を行うことが可能である。また、プレイヤキャラクタの登録を一つのアカウントに対して複数回行うこと、言い換えればプレイヤキャラクタの特徴を変更することも可能である。
 この実施形態では、ユーザは、入力装置102を用いてキャラクタデータの入力を行う。この実施形態では、ユーザは、プレイヤキャラクタの性別、名前、身長、体型、顔の造作、服装等の特徴を選択するためのデータを入力装置102を用いて入力する。メタバース管理装置200がデフォルトで準備したプレイヤキャラクタが存在しており、それをユーザが選択する場合には、このキャラクタを選択するということを示す入力のみをユーザが行うこともあるであろう。
 入力されたデータは、入力装置102からインターフェイス114、入力部121を介して制御部122へと入力される。入力装置102から制御部122へ至るデータの流れは、説明を省略することもあるが以降も同じである。制御部122は、プレイヤキャラクタの特徴を示すデータであるキャラクタデータを生成する。
 キャラクタデータは、制御部122から出力部124へ送られ、更に送受信機構へと送られる。送受信機構はアカウントのデータをネットワーク400を介してメタバース管理装置200に送る。制御部122が生成したデータがメタバース管理装置200へ至るまでのデータの流れは、説明を省略することもあるが以降も同じである。
 メタバース管理装置200は送受信機構により、キャラクタデータを受取る。キャラクタデータは、送受信機構からインターフェイスを介して入力部221へと送られ、更には制御部222へと送られる。送受信機構から制御部222へ至るデータの流れは、説明を省略することもあるが以降も同じである。
 制御部222は、キャラクタデータを受取ると、その特徴を反映させたプレイヤキャラクタを生成するとともに、そのプレイヤキャラクタを特定するデータであるプレイヤキャラクタデータを生成し、先に受取っていたアカウントのデータとともにプレイヤキャラクタデータをプレイヤキャラクタデータ記録部224へと送る。プレイヤキャラクタデータ記録部224には、アカウントのデータと紐付けられた状態で、プレイヤキャラクタデータが記録される。アカウントのデータと紐付けられたプレイヤキャラクタデータは、多数のユーザがプレイヤキャラクタの登録をすれば多数となる。
 疑似プレイヤキャラクタ制御装置300がアカウントとプレイヤキャラクタを登録する処理は、ユーザ端末100を用いてユーザがアカウントとプレイヤキャラクタを登録する処理と同様の方法によって実現することができる。
 この実施形態では、例えば疑似プレイヤキャラクタ制御装置300の管理者は、疑似プレイヤキャラクタ制御装置300を、例えば疑似プレイヤキャラクタ制御装置300に実装されたブラウザの機能を用いて、メタバース管理装置200にネットワーク400を介して接続する。
 そして、疑似プレイヤキャラクタ制御装置300の管理者は、入力装置を用いて自分のアカウントを入力する。入力されたアカウントは、入力装置からインターフェイス、入力部321を介して制御部322へと入力される。制御部322は、アカウントを特定するデータであるアカウントのデータを生成する。
 アカウントのデータは、制御部322から出力部326へ送られ、更に送受信機構へと送られる。送受信機構はアカウントのデータをネットワーク400を介してメタバース管理装置200に送る。
 メタバース管理装置200は送受信機構により、アカウントのデータを受取る。アカウントのデータは、送受信機構からインターフェイスを介して入力部221へと送られ、更には制御部222へと送られる。例えば、制御部222は、そのアカウントのデータを記録する。それにより、メタバース管理装置200に疑似プレイヤキャラクタ制御装置300のアカウントが記録される。メタバース管理装置200から見た場合、疑似プレイヤキャラクタ制御装置300のアカウントは、ユーザのアカウントと区別できないか、少なくとも区別する必要はない。
 疑似プレイヤキャラクタ制御装置300は通常多数の疑似プレイヤキャラクタの操作を行うので、1つの疑似プレイヤキャラクタ制御装置300からメタバース管理装置200に対して登録されるアカウントの数は通常多数である。メタバース管理装置200の例えば制御部222には、多数の疑似プレイヤキャラクタ制御装置300のためのアカウントが記録されることになる。
 アカウントの登録が終了したら、メタバース管理装置200の例えば管理者は、メタバース管理装置200が動作させるプレイヤキャラクタである疑似プレイヤキャラクタの登録を行う。疑似プレイヤキャラクタの登録は、ユーザ端末100からプレイヤキャラクタの登録を行う場合と同様に、アカウントの登録と連続して行われる必要はないし、一つのアカウントに対して複数回行うことも可能である。
 この実施形態では、疑似プレイヤキャラクタ制御装置300の管理者は、入力装置を用いてキャラクタデータの入力を行う。この実施形態では、ユーザは、プレイヤキャラクタの特徴を選択するためのデータを入力装置を用いて入力する。
 入力されたデータは、入力装置からインターフェイス、入力部321を介して制御部322へと入力される。入力装置から制御部322へ至るデータの流れは、説明を省略することもあるが以降も同じである。制御部322は、プレイヤキャラクタの特徴を示すデータであるキャラクタデータを生成する。
 キャラクタデータは、制御部322から出力部326へ送られ、更に送受信機構へと送られる。送受信機構はアカウントのデータをネットワーク400を介してメタバース管理装置200に送る。制御部322が生成したデータがメタバース管理装置200へ至るまでのデータの流れは、説明を省略することもあるが以降も同じである。
 メタバース管理装置200は送受信機構により、キャラクタデータを受取る。キャラクタデータは、送受信機構からインターフェイスを介して入力部221へと送られ、更には制御部222へと送られる。送受信機構から制御部222へ至るデータの流れは、説明を省略することもあるが以降も同じである。
 制御部222は、キャラクタデータを受取ると、その特徴を反映させた疑似プレイヤキャラクタとしてのプレイヤキャラクタを生成するとともに、そのプレイヤキャラクタを特定するデータであるプレイヤキャラクタデータを生成し、先に受取っていたアカウントのデータとともにプレイヤキャラクタデータをプレイヤキャラクタデータ記録部224へと送る。プレイヤキャラクタデータ記録部224には、アカウントのデータと紐付けられた状態で、プレイヤキャラクタデータが記録される。
 なお、この実施形態では、メタバース管理装置200に対して疑似プレイヤキャラクタ制御装置300がアカウントと疑似プレイヤキャラクタとしてのキャラクタの登録とを行う際に、疑似プレイヤキャラクタ制御装置300の管理者等が手動でそれらの登録を行ったが、所定のコンピュータプログラムを疑似プレイヤキャラクタ制御装置300に追加することにより、以上の登録を疑似プレイヤキャラクタ制御装置300が自動的に行うようにすることも可能である。
 また、疑似プレイヤキャラクタ制御装置300の管理者とメタバース管理装置200の管理者との間で同意ができているのであれば、例えば、メタバース管理装置200の管理者の手によって、制御部222に多数のアカウントのデータを一度に記録することや、プレイヤキャラクタデータ記録部224に多数のアカウントデータとプレイヤキャラクタデータの組とを一度に記録する等、上述の処理とは異なる処理を採用することも当然に可能である。
(動作人工知能の学習)
 以上の登録を済ませることで取り敢えず、ユーザは、ユーザ端末100を用いてメタバース管理装置200によるメタバースのサービスを受けることができる、つまりメタバース管理装置200が生成した仮想三次元空間に自らが操作するプレイヤキャラクタを送り込むことができる状態になった。
 同様に、疑似プレイヤキャラクタ制御装置300もメタバース管理装置200が生成した仮想三次元空間に自らが操作するプレイヤキャラクタである疑似プレイヤキャラクタを送り込むことができるようになった。しかしながら、例えば、初期の段階では、疑似プレイヤキャラクタ制御装置300が疑似プレイヤキャラクタを自動で操作する或いは動作させる機能の中心となる動作人工知能324Aの学習が行われていない。
 そこで、動作人工知能324Aに学習を行わせる。
 以下、動作人工知能324Aの学習方法の一例を示す。
 この場合、もちろんこれには限られないが、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタは、企業の製品の販売促進を行うためのものであるとして話を進める。
 まず、ユーザがメタバース管理装置200にログインする。
 ユーザがメタバース管理装置200にログインする場合、ユーザは、ユーザ端末100を、例えばユーザ端末100に実装されたブラウザの機能を用いて、メタバース管理装置200にネットワーク400を介して接続する。
 そして、入力装置102を用いて自分のアカウントを入力する。それにより、制御部122は、アカウントを特定するデータであるアカウントのデータを生成する。また、ユーザはログインを行う旨の入力を行う。制御部122はその入力を受け、ログインのデータを生成する。アカウントのデータとログインのデータは、ユーザ端末100からネットワーク400を介してメタバース管理装置200に送られる。
 メタバース管理装置200はアカウントのデータとログインのデータとを受取る。アカウントのデータとログインのデータは、メタバース管理装置200の制御部222へと送られる。
 制御部222は、アカウントのデータとログインのデータとを受取ったら、そのアカウントのデータで特定されるアカウントが制御部222に記録されているアカウントのいずれかと一致するか否かの判定を行う。かかる判定の結果、受取ったアカウントのデータで特定されるアカウントが記録されている多数のアカウントの1つと一致したら、制御部222はアカウントのデータとログインのデータとを送ってきたユーザ端末100或いはそのユーザ端末100の操作をしているユーザのログインを認める。
 ログインを認めたら、制御部222はアカウントのデータを仮想三次元空間データ生成部223に送る。それを受取ると、仮想三次元空間データ生成部223は、プレイヤキャラクタデータ記録部224から、そのアカウントデータで特定されるアカウントと紐付けられたプレイヤキャラクタデータを読みだす。このプレイヤキャラクタデータで特定されるプレイヤキャラクタは、上述のアカウントデータを持つユーザのプレイヤキャラクタである。それに加えて、仮想三次元空間データ生成部223は、仮想三次元空間を作るために必要なデータとして、メタバースデータ記録部225からメタバースデータを読みだす。
 メタバースデータと、プレイヤキャラクタデータとに基づき、仮想三次元空間データ生成部223は、仮想三次元空間についてのデータである仮想三次元空間データを生成する。仮想三次元空間データは、その中に上述のユーザのプレイヤキャラクタが存在する仮想空間についてのある範囲のデータである。仮想三次元空間のプレやキャラクタ以外の部分はメタバースデータによって特定され、プレイヤキャラクタについてはプレイヤキャラクタデータによって特定される。なお、仮想三次元空間データ生成部223は、仮想三次元空間のプレイヤキャラクタデータ以外の部分を生成するにあたって、メタバースデータ以外のデータを利用することも可能である。これは、以降に説明する仮想三次元空間データが生成されるすべての場合で同様である。例えば、メタバース管理装置200は、クローリングその他の公知或いは周知の技術によりネットワーク400上から適宜のデータを収集し、そのデータをも仮想三次元空間を生成するのに利用することができる。例えば、現実世界におけるある地域における天候を、仮想三次元空間内のある地域における天候と一致させたり、現実世界におけるあるプロサッカーリーグにおけるある試合の結果を、仮想三次元空間内のあるサッカースタジアムで開催されるサッカーの試合の結果に反映させるといったことが可能である。
 仮想三次元空間データ生成部223は生成した仮想三次元空間データをメタバース画像データ生成部226へと送る。メタバース画像データ生成部226は、受取った仮想三次元空間データに基づいてメタバース画像を生成し、メタバース画像についてのデータであるメタバース画像データを生成する。この場合のメタバース画像は上述したようなものであり、例えば、ある視点から見たプレイヤキャラクタを含むある範囲の仮想三次元空間の画像である。
 メタバース画像データ生成部226は、生成したメタバース画像データを出力部227へ送る。メタバース画像データは出力部227から送受信機構へと送られ、更にはネットワーク400を介して、ログインが認められたユーザ端末100へと送信される。
 ユーザ端末100はその送受信機構でメタバース画像データを受取る。メタバース画像データは送受信機構から、インターフェイス114、入力部121を介して画像制御部123へと送られる。それを受取った画像制御部123は、メタバース画像データに基づいて、ディスプレイに仮想三次元空間内の画像を表示するためのデータである画像データを生成する。
 画像データは、出力部124を介してインターフェイス114に送られ、更にはディスプレイ101に送られる。ディスプレイ101には、画像データに基づく画像が表示される。画像データに基づく画像は、メタバース管理装置200が生成した仮想三次元空間内の画像である。ユーザは、ディスプレイ101に映し出されたその画像を見ることにより、メタバース管理装置200にログインすることができたことを知る。
 同様に、疑似プレイヤキャラクタ制御装置300がメタバース管理装置200にログインする。
 疑似プレイヤキャラクタ制御装置300がメタバース管理装置200にログインする場合、この例では、疑似プレイヤキャラクタ制御装置300の管理者や製品の販売促進を行う企業の関係者(販促者)が疑似プレイヤキャラクタ制御装置300の操作を行う。かかる操作は、もちろん、疑似プレイヤキャラクタ制御装置300を遠隔で操作するものであっても構わない。とりあえず、販促者がかかる操作を行うものとして話を進める。
 販促者は、疑似プレイヤキャラクタ制御装置300がログインを行ったときに仮想三次元空間に送り込む疑似プレイヤキャラクタを特定するための、疑似プレイヤキャラクタと紐付けられたデータであるアカウントのデータを入力する。また、販促者はログインを行う旨の入力を行う。制御部322はその入力を受け、ログインのデータを生成する。アカウントのデータとログインのデータは、疑似プレイヤキャラクタ制御装置300からネットワーク400を介してメタバース管理装置200に送られる。
 以下のメタバース管理装置200内で行われる処理は、ユーザがユーザ端末100を用いてメタバース管理装置200にログインを行うときと同じである。メタバース管理装置200から見れば、ユーザ端末100と疑似プレイヤキャラクタ制御装置300とは区別できないか、少なくとも区別する必要はない。つまり、ユーザ端末100と組合せて用いられることを前提としているメタバース管理装置200には、疑似プレイヤキャラクタ制御装置300と組み合されるにあたり、新たな改変や改造が必要とならない。少なくとも大きな改変や改造は必要とならない。
 アカウントのデータとログインのデータとを受取ったメタバース管理装置200は、受取ったアカウントのデータによって特定されるアカウントと紐付けられた疑似プレイヤキャラクタが存在する仮想空間についてのある範囲のデータである仮想三次元空間データを生成し、更にはその仮想三次元空間データに基づいて、メタバース画像データについてのメタバース画像を生成する。
 仮想三次元空間データ生成部223は生成した仮想三次元空間データをメタバース画像データ生成部226へと送る。メタバース画像データ生成部226は、受取った仮想三次元空間データに基づいてメタバース画像を生成し、メタバース画像についてのデータであるメタバース画像データを生成する。この場合のメタバース画像は、例えば、ある視点から見た疑似プレイヤキャラクタを含むある範囲の仮想三次元空間の画像である。
 メタバース画像データ生成部226は、生成したメタバース画像データを出力部227へ送る。メタバース画像データは出力部227から送受信機構へと送られ、更にはネットワーク400を介して、疑似プレイヤキャラクタ制御装置300へと送信される。この場合のメタバース画像、或いはメタバース画像データは、ユーザ端末100へ送られるものとは通常異なるものとなっている。
 疑似プレイヤキャラクタ制御装置300から操作データを受け取ってからメタバース画像データを疑似プレイヤキャラクタ制御装置300へ送り返すまでのこのようなメタバース管理装置200が行う処理は、ユーザ端末100から操作データを受け取ってからメタバース画像データをユーザ端末100へ送り返す際にメタバース管理装置200が行う処理と同じである。
 メタバース画像データを受取ったユーザ端末100では、メタバース画像データによって生成された画像データに基づく画像がディスプレイ101に表示された。
 メタバース画像データを受取った疑似プレイヤキャラクタ制御装置300で行われる処理はこれとは異なる。
 疑似プレイヤキャラクタ制御装置300では、送受信機構で受取られたメタバース画像データは、インターフェイス、入力部321を介して、画像解析部327へ送られる。画像解析部327は、その画像から、様々な特徴点を抽出することにより環境データを生成する。
 環境データは上述したように、メタバース画像データによって特定されるメタバース画像(音声も含む)の特徴点である。この特徴点を抽出するために、画像解析部327は、音声データを含むメタバース画像データから、疑似プレイヤキャラクタの周囲の環境の特徴点を推定する。
 この特徴点には、例えば、疑似プレイヤキャラクタが存在する仮想三次元空間内での位置が含まれる。このような位置の推定は、例えば、メタバースの仮想三次元空間のマップの把握と、疑似プレイヤキャラクタの位置を推定する人工知能である位置推定エンジンとの組合せにより実現可能である。
 特徴点にはまた、近くにプレイヤキャラクタが存在するか、近くにプレイヤキャラクタが存在するなら疑似プレイヤキャラクタとの相対的な位置関係がどのようになっているか、ということが含まれうる。そのような特徴点は、例えば、メタバース画像データによって特定されるメタバース画像にプレイヤキャラクタが写り込んでいるか否か、仮にメタバース画像にプレイヤキャラクタが写り込んでいるならプレイヤキャラクタの大きさや向きがどのようになっているかを、メタバース画像に対して画像認識(パターン認識)を実行することによって把握可能である。このような処理には、画像認識を行うための人工知能を用いることが可能である。
 特徴点にはまた、プレイヤキャラクタが発した言葉の内容が含まれうる。プレイヤキャラクタが発した言葉の内容は、プレイヤキャラクタが発した言葉を認識(或いは特定)するための音声認識の人工知能と、音声認識の人工知能によって認識された言葉の意味を認識(或いは特定)するための意味認識の人工知能との組合せによって把握することが可能である。
 このように環境データを生成するために、画像解析部327は複数の人工知能を用いても構わない。そして、画像解析部327が環境データを生成するために用いる例えば複数の人工知能は、すべての疑似プレイヤキャラクタについての環境データを生成する場合において共通とすることができる。
 それらの特徴点の情報を含んだ環境データは、動作パターン記録部324へと送られる。
 環境データの生成が開始されたことで、疑似プレイヤキャラクタ制御装置300は、メタバース管理装置200にログインすることができたことを把握することができる。
 なお、疑似プレイヤキャラクタ制御装置300は基本的にディスプレイが必要ないとここまでに述べたが、疑似プレイヤキャラクタを販促者等の人間が操作する場合には、人間が疑似プレイヤキャラクタを操作できるようにするために、疑似プレイヤキャラクタ制御装置300に対しても、ユーザ端末100と同様にディスプレイを設けるべきである。そして、そのディスプレイに、ユーザ端末100の場合と同様に、メタバース画像に基づく画像を表示すべきである。
 ユーザがユーザ端末100からメタバース管理装置200にログインし、販促者が疑似プレイヤキャラクタ制御装置300からメタバース管理装置200にログインした状態であるとする。メタバース管理装置200が生成する仮想三次元空間内には、ユーザ端末100を用いてユーザが操作するプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300を用いて販促者が操作する疑似プレイヤキャラクタが同時に存在している。
 その状態でユーザは、入力装置102から操作データを生成するための入力を行う。その入力内容は、制御部122に送られる。制御部122は、受取った入力内容に応じた操作データを生成する。操作データは、ユーザのプレイヤキャラクタにユーザの望むような動作をさせるためのデータである。
 操作データは、制御部122から出力部124、インターフェイス114を介して送受信機構に送られ、更にはネットワーク400を介してログイン中のメタバース管理装置200に送られる。
 操作データは、メタバース管理装置200の送受信機構で受取られ、送受信機構から、インターフェイス、入力部221を経て制御部222へと送られ、更には仮想三次元空間データ生成部223へと送られる。仮想三次元空間データ生成部223は、仮想三次元空間内におけるログインしているそのユーザのプレイヤキャラクタを操作データにしたがって動作させる。動作は、プレイヤキャラクタの移動や、姿勢の変化、或いは言葉を発すること等である。
 仮想三次元空間データ生成部223は再び仮想三次元空間データを生成し、それをメタバース画像データ生成部226へと送る。メタバース画像データ生成部226は仮想三次元空間データに基づいて再びメタバース画像と、メタバース画像データとを生成する。
 メタバース画像データは上述したようにメタバース管理装置200からログイン中のユーザ端末100へ送られる。メタバース画像データを受取ったユーザ端末100では、メタバース画像データによって生成された画像データに基づく画像がディスプレイ101に表示されるが、その画像に含まれる疑似プレイヤキャラクタは、その動画中で操作データにしたがった動作を行う。
 他方、疑似プレイヤキャラクタ制御装置300では、販促者が、入力装置102から操作データを生成するための入力を行う。その入力内容は、制御部322に送られる。制御部322は、受取った入力内容に応じた操作データを生成する。操作データは、販促者が操作する疑似プレイヤキャラクタに販促者の望むような動作をさせるためのデータである。
 操作データは、制御部322から出力部326、インターフェイスを介して送受信機構に送られ、更にはネットワーク400を介してログイン中のメタバース管理装置200に送られる。
 操作データは、メタバース管理装置200の送受信機構で受取られ、送受信機構から、インターフェイス、入力部221を経て制御部222へと送られ、更には仮想三次元空間データ生成部223へと送られる。仮想三次元空間データ生成部223は、仮想三次元空間内におけるログインしている販促者が操作する疑似プレイヤキャラクタを操作データにしたがって動作させる。この動作も、疑似プレイヤキャラクタの移動や、姿勢の変化、或いは言葉を発すること等である。
 仮想三次元空間データ生成部223は再び仮想三次元空間データを生成し、それをメタバース画像データ生成部226へと送る。メタバース画像データ生成部226は仮想三次元空間データに基づいて再びメタバース画像と、メタバース画像データとを生成する。
 メタバース画像データは上述したようにメタバース管理装置200からログイン中のユーザ端末100へ送られる。メタバース画像データを受取った疑似プレイヤキャラクタ制御装置300では、その画像解析部327で再び環境データが生成される。環境データは動作パターン記録部324へと送られる。他方、疑似プレイヤキャラクタ制御装置300に接続されたディスプレイには、メタバース画像データによって生成された画像データに基づく画像が表示されることになるが、その画像に含まれる疑似プレイヤキャラクタは、その動画中では操作データにしたがった動作を行う。
 このようにして、ユーザ端末100を操作するユーザは、メタバース管理装置200が提供する仮想三次元空間の中で自分のプレイヤキャラクタを自分の望むとおりに動作させることができる。他方、疑似プレイヤキャラクタ制御装置300を操作する販促者は、メタバース管理装置200が提供する仮想三次元空間の中で自分の疑似プレイヤキャラクタを自分の望むとおりに動作させることができる。
 仮想三次元空間の中で、プレイヤキャラクタと疑似プレイヤキャラクタが出会ったとする。ある製品の販売促進を目的とした疑似プレイヤキャラクタは、例えば、仮想三次元空間内において製品の販売促進を行うために適切な場所においてユーザの操作するプレイヤキャラクタを待ち構えているので、ある確率でプレイヤキャラクタと疑似プレイヤキャラクタとの仮想三次元空間内での出会いが生じる。
 そのとき販促者は、疑似プレイヤキャラクタを介して、ユーザが操作するプレイヤキャラクタに対して、自らが販売促進を行う製品を見せるためにプレイヤキャラクタを製品のある場所まで案内したり、製品の例えば、機能、値段等についての説明をしたりする。そのために、販促者は、疑似プレイヤキャラクタに適切な動作をさせるべく、疑似プレイヤキャラクタ制御装置300の入力装置を操作して、メタバース管理装置200に対して操作データを送る。
 疑似プレイヤキャラクタが販売促進のために必要な動作を行っているその間においても、メタバース管理装置200は、メタバース画像データを生成し続け、生成したメタバース画像データをユーザ端末100と疑似プレイヤキャラクタ制御装置300とに送り続ける。
 ユーザは、ユーザ端末100を更に操作してプレイヤキャラクタを動作させ、販促者は、疑似プレイヤキャラクタ制御装置300を操作して疑似プレイヤキャラクタを動作させる。それにより、プレイヤキャラクタと疑似プレイヤキャラクタとの間に、或いはそれらを操作するユーザと販促者との間にコミュニケーションが生じる。そのコミュニケーションは例えば、プレイヤキャラクタからのAという質問に対して疑似プレイヤキャラクタがaという回答を返すとか、プレイヤキャラクタからのBという質問に対して疑似プレイヤキャラクタがbという回答を返すとか、プレイヤキャラクタからのCという依頼に対して疑似プレイヤキャラクタがcという行動で応えるといったものである。
 そのようなコミュニケーションが生じている間においても、メタバース管理装置200は、メタバース画像データを生成し続け、生成したメタバース画像データをユーザ端末100と疑似プレイヤキャラクタ制御装置300とに送り続ける。
 そして、疑似プレイヤキャラクタ制御装置300内では、画像解析部327によって環境データが生成され続け、環境データが画像解析部327から動作パターン記録部324へと次々と送られ続ける。ただし、既に述べたように、画像解析部327は、動作人工知能324Aの学習を進めるときにおいては、環境データに加えて、疑似プレイヤキャラクタがどのような動作を行ったのかを特定するデータである動作データをも生成する。したがって、この場合に画像解析部327から動作パターン記録部324へと次々と送られるのは、一対とされた環境データと動作データである。
 画像解析部327から動作パターン記録部324へと次々と送られる環境データ及び動作データとは教師データとして、動作パターン記録部324に記録されている動作人工知能324Aに入力される。それにより、動作人工知能324Aの環境データと動作データによる学習が進む。
 具体的には、画像解析部327から動作パターン記録部324へ次々と送られる対とされた環境データと動作データを、その環境データの生成のきっかけとなっている疑似プレイヤキャラクタと紐付けられた動作人工知能324Aへと次々と入力する。それにより動作人工知能324Aは、ある環境データが入力されたときに出力すべき動作データを学習していくことになる。教師データとして入力される動作データは、疑似プレイヤキャラクタが販促者という人間に操作されているため、その動作データを入力されるときに同時に入力される環境データによって特定される疑似プレイヤキャラクタの周囲の環境に即したものとなっている。したがって、そのような一組の環境データと動作データとを次々と入力されることによって学習が勧められた動作人工知能324Aは、環境データで特定される疑似プレイヤキャラクタの周知の環境に対して適切な動作データを出力することが可能となるように学習が進められることになる。
 なお、動作人工知能324Aの学習は、疑似プレイヤキャラクタとプレイヤキャラクタのコミュニケーションが生じている場合に限って行われるとは限らない。また、動作人工知能324Aの学習は、疑似プレイヤキャラクタがメタバース管理装置200が作る仮想三次元空間にログインしているときに実時間的に行われる必要はなく、例えば、ある程度教師データが溜まったタイミングで、例えば、疑似プレイヤキャラクタがログインしていないタイミングで行われるようになっていても構わない。
 このような学習は、すべての動作人工知能324Aに対して行われても良い。もっともすべての動作人工知能324Aが、上述のような過程を経て疑似プレイヤキャラクタ制御装置300内で学習を行う必要はない。例えば、動作人工知能324Aとして用いることのできる人工知能、例えば、他の疑似プレイヤキャラクタ制御装置300で生成された動作人工知能や、他の何らかの方法で生成された動作人工知能のデータが存在するのであれば、それを動作パターン記録部324に記録することにより、動作パターン記録部324に学習済みの動作人工知能324Aを記録することが可能である。その場合、例えば、そのような学習済みの動作人工知能のデータを記録した記録媒体を、疑似プレイヤキャラクタ制御装置300のインターフェイスに接続された記録媒体(例えば、DVD-ROM)の読み書き装置に挿入し、読み書き装置からインターフェイス、入力部321を介して制御部322に送られた当該データを、制御部322が動作パターン記録部324へと記録するようにすることで、動作人工知能324Aを動作パターン記録部324に記録することができる。学習済みの人工知能のデータはもちろん、記録媒体経由で疑似プレイヤキャラクタ制御装置300に入力される必要はなく、ネットワーク400経由で疑似プレイヤキャラクタ制御装置300に入力されても良い。
 例えば、他の装置(他の疑似プレイヤキャラクタ制御装置300)で生成された学習済みの動作人工知能324Aのデータ(コンピュータプログラムとデータのデータセット)をある疑似プレイヤキャラクタ制御装置300の動作パターン記録部324にインストールすることが可能である。
(疑似プレイヤキャラクタの自動的な操作)
 以上の説明では、疑似プレイヤキャラクタは販促者という人間によって操作されていた。しかしながら、疑似プレイヤキャラクタは、疑似プレイヤキャラクタ制御装置300によって自動的に操作され、或いは動作させられるのが基本である。
 以下、疑似プレイヤキャラクタが疑似プレイヤキャラクタ制御装置300によって自動的に操作される場合について説明する。
 ユーザがーザ端末100からメタバース管理装置200にログインし、且つ販促者が疑似プレイヤキャラクタ制御装置300からメタバース管理装置200にログインした状態で、仮想三次元空間の中で、プレイヤキャラクタと疑似プレイヤキャラクタが出会ったとする。
 ここまでの処理は、基本的に(動作人工知能の学習)で述べた場合と同様である。もっとも、疑似プレイヤキャラクタはプレイヤキャラクタと出会う前においても、販促者ではなく疑似プレイヤキャラクタ制御装置300によって操作されていてもよい。
 メタバース管理装置200が生成する仮想三次元空間の中で、プレイヤキャラクタが疑似プレイヤキャラクタと出会う。なお、制御部322は、現在メタバース管理装置200にログインしている疑似プレイヤキャラクタのアカウントのデータを、その疑似プレイヤキャラクタがメタバース管理装置200にログインした前後に、動作決定部323に送っている。
 ユーザは、ユーザ端末100を更に操作してプレイヤキャラクタを動作させ、上述したように、質問や、依頼をある製品の販売促進を行おうとする擬似プレイヤキャラクタに対して行う場合がある。
 その間にも、メタバース管理装置200は、メタバース画像データを生成し続け、生成したメタバース画像データをユーザ端末100と疑似プレイヤキャラクタ制御装置300とに送り続ける。
 そして、疑似プレイヤキャラクタ制御装置300内の画像解析部327では環境データが生成され続ける(この場合、つまり疑似プレイヤキャラクタの動作が疑似プレイヤキャラクタ制御装置300に自動的に制御されており、動作人工知能324Aの学習が行われているのではない場合)には、画像解析部327による動作データの生成は必要ない)。環境データの内容、環境データの生成方法は既に述べた通りである。生成された、環境データは、画像解析部327から今度は動作パターン記録部324ではなく、動作決定部323に次々と送られる。
 動作決定部323は、動作パターン記録部324に記録された動作人工知能324Aのうち、制御部322から受取ったアカウントのデータに対応したアカウントが付されたものを読みだす。そして、その動作人工知能324Aに対して画像解析部327から受取った環境データを入力し、入力を行った動作人工知能324Aから、その環境データに対する出力として動作データを得る。つまり、動作人工知能324Aは、疑似プレイヤキャラクタが置かれたある環境下において、どのような動作を行うのが相応しいのかということを推定する動作推定エンジンとして機能する。そして、動作人工知能324Aの出力として得た動作データによって特定される動作を、動作決定部323は、疑似プレイヤキャラクタが行うべき動作として決定する。この動作は、そのときの疑似プレイヤキャラクタが置かれた環境に相応しいものとなっている蓋然性が高い。
 なお、動作決定部323は、動作人工知能324Aからの出力そのものを疑似プレイヤキャラクタに行わせる動作を決定づけるべきデータとしてそのまま用いなくても良い。例えば、クローリングその他の公知或いは周知の技術によりネットワーク400上から適宜のデータを収集し、収集したそのデータによって、動作人工知能324Aからの出力を変化させて変化させた後のデータを疑似プレイヤキャラクタに行わせる動作を決定づけるべきデータとすることが可能である。それにより、疑似プレイヤキャラクタの動作を、例えば、現実世界における事情(天候や、時事問題や、流行等)に即した例えばより自然なものにすることも可能である。とはいえ、疑似プレイヤキャラクタの動作をより自然なものとするには、クローリング等によって収集した上述のデータを、環境データを生成するために画像解析部327で用いられる上述した種々の人工知能に反映させたり、或いは動作人工知能324Aに反映させたりするといった他の工夫でも対応可能である。
 動作決定部323は、環境データと、動作人工知能324Aとを用いて生成した上述の動作データを、疑似操作データ生成部325へと送る。
 動作データを受取った疑似操作データ生成部325は、その動作データによって特定される動作を、上述したアカウントのデータによって特定される疑似プレイヤキャラクタに対して行わせるためのデータである疑似操作データを生成する。疑似操作データは、その疑似プレイヤキャラクタ制御装置300が紐付けられたメタバース管理装置200が受付けられるデータ形式のデータとされる。
 なお、疑似操作データ生成部325は、疑似操作データを、疑似プレイヤキャラクタに自然な動作を行わせるために調整するための人工知能を含んでいても構わない。そのような人工知能を有することにより、疑似操作データを受け取ったメタバース管理装置200の制御下で動作させられる疑似プレイヤキャラクタの動作が、自然なものとなる。例えば、仮想三次元空間内で真っ直ぐ歩いている疑似プレイヤキャラクタを左折させるにしても、ある場所で擬似プレイヤキャラクタが突然直角に向きを変えるのは人間の通常の歩き方や曲がり方に照らせば極めて不自然である。人間は普通はある程度の半径のカーブを描きながら、曲がる。そのような調整を行う人工知能(つまり、ユーザが入力装置102を用いて行う操作を推定する操作推定エンジンとしての人工知能)を疑似操作データ生成部325が持っていれば、仮想三次元空間内での擬似プレイヤキャラクタの動作は自然なものとなる。そのような人工知能は、疑似プレイヤキャラクタ毎に異なるものである必要はなく、すべての疑似プレイヤキャラクタについての疑似操作データを生成する場合において共通のものとすることができる。
 疑似操作データ生成部325は、生成した疑似操作データを出力部326へと送る。疑似操作データは、出力部326から送受信機構へ送られ、更にはネットワーク400を介してメタバース管理装置200へと送られる。
 メタバース管理装置200は、疑似操作データをその送受信機構で受取る。疑似操作データは、そこから制御部222へと送られ、更には三次元空間データ生成部223へと送られる。
 疑似操作データはユーザ端末100から送られてくる操作データと、データ形式の点で共通している。したがって、疑似操作データを受取った三次元空間データ生成部223は、操作データを受取ったときに操作データにしたがってプレイヤキャラクタに動作を行わせるのと同様にして、疑似操作データにしたがって疑似プレイヤキャラクタに対して疑似操作データにしたがった動作を行わせる。
 以後の処理は、既に述べた通りである。
 メタバース管理装置200は、メタバース画像データを生成してユーザ端末100と疑似プレイヤキャラクタ制御装置300のそれぞれへと送る。
 メタバース画像データを受取ったユーザ端末100のディスプレイ101には、メタバース画像データに基づく画像が動画で表示されることになる。その画像中で、疑似プレイヤキャラクタは、疑似操作データにしたがった動作を行う。ユーザは、疑似プレイヤキャラクタが人間に操作されているのか、疑似プレイヤキャラクタ制御装置300という機械に操作されているのかわからないかも知れない。しかしながらそれは問題ない。ユーザは、自らが操作するプレイヤキャラクタと疑似プレイヤキャラクタとのコミュニケーションを、少なくとも大きな違和感なく体験することができる。
 以上で説明した例では、疑似プレイヤキャラクタはある企業の製品の販売促進を目的としたものであった。
 もっとも、これはもちろん単なる例示である。例えば、疑似プレイヤキャラクタは、仮想三次元空間内で案内を行うようなものであってもよい。この場合の疑似プレイヤキャラクタによる案内は、例えば、ユーザの或いはユーザの操作するプレイヤキャラクタの好みに合わせて、例えば、食に着目した、景色に着目した、建築物に着目したものとすることができる。疑似プレイヤキャラクタの動作を決定する動作人工知能324Aを適切なものとして準備しておくことにより、疑似プレイヤキャラクタの動作を所望のものとすることができる。
 また、上述の例では、疑似プレイヤキャラクタとプレイヤキャラクタとは1対1の関係でコミュニケーションを取ることとして説明したが、1対多、或いは多対1の関係で両者がコミュニケーションを取るようなことも当然に起こりうるであろう。
 更には、疑似プレイヤキャラクタは上述の如き明確な目的を持ったものでなければならないというわけではない。例えば、疑似プレイヤキャラクタは、仮想三次元空間内で、ユーザが操作するプレイヤキャラクタの単なる話し相手となるものであってもよい。そのような疑似プレイヤキャラクタをユーザが望むのであれば、ユーザは自分が望むときに同一の疑似プレイヤキャラクタと仮想三次元空間内で会うことを望むはずである。たとえば、その疑似プレイヤキャラクタと紐付けられた動作人工知能324Aが、あるプレイヤキャラクタと過去に仮想三次元空間内で一緒に行動した場合におけるプレイヤキャラクタの行動や、プレイヤキャラクタの好みを、例えば上述したような環境データを用いての処理により学習していたり、或いは少なくとも過去のプレイヤキャラクタの行動の履歴を例えば動作人工知能324A内外の何らかの記録部に残したりしていれば、その疑似プレイヤキャラクタの行う動作はユーザ或いはユーザが操作するプレイヤキャラクタにとって望ましいものとなる可能性が高い。もちろん、過去に疑似プレイヤキャラクタが経験した事象についての履歴のデータは、疑似プレイヤキャラクタの目的によらず、疑似プレイヤキャラクタが上述の如きある製品の販売促進に用いられる場合であっても利用することが可能である。
 そのような場合、例えば、ユーザと疑似プレイヤキャラクタとは、メタバースのサービスの中で、互いのアカウントのデータを取り交わして、お互いのことを互いに把握していることが便利である。そのような機能は、既存のメタバース管理装置に実装されている。既存のメタバース管理装置には、一方のプレイヤキャラクタから他方のプレイヤキャラクタに対して行ういわゆる「友達申請」と、他方のプレイヤキャラクタによるその「承諾」により、お互いのアカウントをお互いに把握する機能が備えられている。
 そのようにしてお互いのアカウントの把握をしている状態であれば、ユーザないしそのユーザが操作するプレイヤキャラクタは、メタバース管理装置200が提供する仮想三次元空間内で、アカウントを既に把握している決まった疑似プレイヤキャラクタを呼び出すことが可能となる。この場合、例えば、ユーザは、ユーザ端末100の入力装置102を操作して、ある疑似プレイヤキャラクタを呼び出すための入力を行う。その入力には例えば、呼び出したい疑似プレイヤキャラクタのアカウントのデータが含まれている。その入力を受取った制御部122は、疑似プレイヤキャラクタを選択し、選択したその疑似プレイヤキャラクタを呼び出すためのデータである選択データを生成する。選択データは、ユーザ端末100からネットワーク400を介して疑似プレイヤキャラクタ制御装置300へと送られる。
 選択データは、疑似プレイヤキャラクタ制御装置300が受取る。選択データは、制御部322へと送られる。選択データを受取った疑似プレイヤキャラクタ制御装置300は、選択データに含まれていたアカウントのデータに対応したアカウントを用いてメタバース管理装置200に対してログインの処理を行う。
 そうすることで、そのアカウントと紐付けられた疑似プレイヤキャラクタがメタバース管理装置200の作る仮想三次元空間の中に現れることになる。それにより、仮想三次元空間内で、ユーザの操作するプレイヤキャラクタと、ユーザが呼び出した疑似プレイヤキャラクタとが落ち合うことができる。仮想三次元空間内でプレイヤキャラクタと疑似プレイヤキャラクタとが確実に落ち合うことができるように、選択データに対して、今現在プレイヤキャラクタがいる仮想三次元空間内での位置情報を付加する等の工夫は、公知或いは周知技術にしたがって適当に採用すれば良い。
 ユーザが複数の疑似プレイヤキャラクタを呼び出せば、仮想三次元空間内で、ユーザのプレイヤキャラクタは、複数の疑似プレイヤキャラクタとコミュニケーションを取ることが可能となる。
<変形例>
 変形例の疑似プレイヤキャラクタ制御装置300を含むメタバースステムについて説明する。
 変形例の疑似プレイヤキャラクタ制御装置300を含むメタバースシステムの概略を、図8に示す。
 変形例のメタバースシステムは、実施形態で説明したメタバースシステムと殆どの点で共通する。異なるのは、変形例では、実施形態では3つであった疑似プレイヤキャラクタ制御装置300が1つのみとされているということである。
 実施形態で説明したメタバースシステムでは、複数のメタバース管理装置200のそれぞれと、メタバース管理装置200と同数の疑似プレイヤキャラクタ制御装置300とが一対一対応しており、各メタバース管理装置200が作る仮想三次元空間内に、各メタバース管理装置200と紐付けられた疑似プレイヤキャラクタ制御装置300が疑似プレイヤキャラクタを送り込むようになっていた。
 それに対して、変形例による疑似プレイヤキャラクタ制御装置300は、複数、この変形例であれば3つのメタバース管理装置200がそれぞれ生成する仮想三次元空間のすべてに、疑似プレイヤキャラクタを送り込み、疑似プレイヤキャラクタを動作させるものとなっている。
 変形例のメタバースシステムにおけるユーザ端末100と、メタバース管理装置200の構成、機能、動作等は、変形例のユーザ端末100の制御部122の機能と、実施形態のユーザ端末100の制御部122の機能との間に後述するような僅かな相違がある点を除けばすべて、実施形態で説明したものと同じである。
 他方、変形例のメタバースシステムにおける疑似プレイヤキャラクタ制御装置300は、実施形態で説明した疑似プレイヤキャラクタ制御装置300と相違がある。とはいえ、その相違は僅かである。
 まず、ハードウェア的な観点からいえば、変形例の疑似プレイヤキャラクタ制御装置300と実施形態の疑似プレイヤキャラクタ制御装置300との間に相違はない。
 また、サーバを本願発明の疑似プレイヤキャラクタ制御装置として機能させるためのコンピュータプログラムによって変形例による疑似プレイヤキャラクタ制御装置300内に生成される機能ブロックは、図5、6に示される通りであり、実施形態で説明したものと変わりがない。また、変形例の疑似プレイヤキャラクタ制御装置300内に生成される機能ブロックの機能は、制御部322と疑似操作データ生成部325を除いて、実施形態におけるそれらの機能と同じである。
 変形例における疑似操作データ生成部325は、生成された疑似操作データが送られるメタバース管理装置200が受付けることのできるデータ形式の疑似操作データを生成できるようになっているという点で、実施形態における疑似プレイヤキャラクタ制御装置300における疑似操作データ生成部325とその機能が異なる。例えば、変形例のメタバースシステムにおける3つのメタバース管理装置200のそれぞれがユーザ端末100から受付けることが予定された操作データのデータ形式がそれぞれ異なるものであったとする。その場合、変形例の疑似操作データ生成部325は、3種類の異なるデータ形式の疑似操作データを生成できるようになっている。
 変形例のメタバースシステムの使用方法と動作について説明する。
(前提としての処理)
 前提としての処理については、変形例と実施形態とでは基本的に変わることが無い。
 ユーザは、ユーザ端末100を用いて、3つのメタバース管理装置200のうちの任意のものに対して、アカウントとプレイヤキャラクタの登録を行う。1人のユーザが複数のメタバース管理装置200に対してアカウントとプレイヤキャラクタの登録を行うことが可能である。
 他方、疑似プレイヤキャラクタ制御装置300は、3つのメタバース管理装置200に対して、実施形態で述べたのと同様の処理を実行することにより、アカウントと疑似プレイヤキャラクタの登録を行う。ただし、変形例の疑似プレイヤキャラクタ制御装置300では、どのアカウントがどのメタバース管理装置200に登録されたアカウントなのであるかということも管理される。例えば、制御部322にアカウントのデータが記録されるとすれば、そのアカウントのデータには、そのアカウントのデータがどのメタバース管理装置200に登録されたものであるのかということを特定する情報が付加される。たとえば、3つのメタバース管理装置200に、1、2、3という識別番号を付すことでそれらを区別するのであれば、その識別番号がアカウントのデータとともに制御部322に記録されることになる。
(動作人工知能の学習)
 動作人工知能の学習の場合も、変形例のメタバースシステムと実施形態のメタバースシステムとで基本的には変わりはない。
 まず、ユーザは、自分のユーザ端末100で自分のアカウントが登録されたメタバース管理装置200にログインする。
 他方、疑似プレイヤキャラクタ制御装置300は、少なくともいずれかのメタバース管理装置200にログインを行う。
 ユーザが操作するプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタが、あるメタバース管理装置200が生成した同じ仮想三次元空間に送り込まれており、同じ仮想三次元空間内で出会ったら、プレイヤキャラクタと疑似プレイヤキャラクタとのコミュニケーションが生じる。それにより実施形態で説明したのと同じ処理が実行され、動作人工知能324Aの学習が行われる。
 そのとき、プレイヤキャラクタの操作のためにユーザ端末100からメタバース管理装置200に送られる操作データと、疑似プレイヤキャラクタの操作のために疑似プレイヤキャラクタ制御装置300からメタバース管理装置200に送られる操作データとは、同じメタバース管理装置200に送られるものである限り、同じデータ形式とされる。
(疑似プレイヤキャラクタの自動的な操作)
 疑似プレイヤキャラクタの自動的な操作の場合も、変形例のメタバースシステムと実施形態のメタバースシステムとで基本的には変わりはない。
 まず、ユーザは、自分のユーザ端末100で自分のアカウントが登録されたメタバース管理装置200にログインする。
 他方、疑似プレイヤキャラクタ制御装置300は、少なくともいずれかのメタバース管理装置200にログインを行う。
 ユーザが操作するプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタが、あるメタバース管理装置200が生成した同じ仮想三次元空間に送り込まれており、同じ仮想三次元空間内で出会ったら、実施形態で説明したのと同じ処理が実行され、プレイヤキャラクタと疑似プレイヤキャラクタとのコミュニケーションが生じる。
 そのとき、プレイヤキャラクタの操作のためにユーザ端末100からメタバース管理装置200に送られる操作データと、疑似プレイヤキャラクタの操作のために疑似プレイヤキャラクタ制御装置300からメタバース管理装置200に送られる疑似操作データとは、同じメタバース管理装置200に送られるものである限り、同じデータ形式とされる。
 疑似操作データのデータ形式を、それが送られるメタバース管理装置200が受付けることが予定された操作データと同じデータ形式とするための原理は例えば以下のようなものである。
 例えば、疑似プレイヤキャラクタ制御装置300があるメタバース管理装置200にログインするときに、例えば制御部322から疑似操作データ生成部325に対して、ログインを行うメタバース管理装置200の識別番号を送る。疑似操作データ生成部325には、各メタバース管理装置200が受取ることのできる操作データのデータ形式が、メタバース管理装置200の識別番号と紐付けられた状態で記録されている。疑似操作データ生成部325は、受取った識別番号と紐付けられたデータ形式の疑似操作データを、動作データに基づいて生成する。それにより、疑似操作データのデータ形式が、それが送られるメタバース管理装置200が受付けることが予定された操作データと同じデータ形式となる。
 ユーザが、自らのプレイヤキャラクタがログインしているメタバース管理装置200が生成する仮想三次元空間に、疑似プレイヤキャラクタ制御装置300から疑似プレイヤキャラクタを呼び出すことを考える。
 ユーザは、ユーザ端末100から疑似プレイヤキャラクタ制御装置300に対して選択データを送る。上述の実施形態では、この選択データは、呼び出しの対象となる疑似プレイヤキャラクタのアカウントのデータが含まれていた。しかしながら、変形例では、ユーザ端末100から疑似プレイヤキャラクタ制御装置300に送られる選択データには、アカウントのデータに加えて、ユーザが疑似プレイヤキャラクタを呼び出すことを希望する仮想三次元空間を生成しているメタバース管理装置200の識別番号が含まれている。それにより、疑似プレイヤキャラクタ制御装置300は、どのメタバース管理装置200が生成する仮想三次元空間に、どの疑似プレイヤキャラクタを送り込むことをユーザが希望したのかということを把握することができることになる。
 後の処理は、既に述べた通りである。ユーザの操作するプレイヤキャラクタがいる仮想三次元空間内に、疑似プレイヤキャラクタ制御装置300からユーザの希望する疑似プレイヤキャラクタが送り込まれ、その仮想三次元空間内で、ユーザが操作するプレイヤキャラクタと、疑似プレイヤキャラクタ制御装置300が操作する疑似プレイヤキャラクタとが落ち合うこととなる。
 以後、プレイヤキャラクタと、疑似プレイヤキャラクタとのコミュニケーションが行われる。そのとき疑似プレイヤキャラクタ制御装置300からメタバース管理装置200に疑似プレイヤキャラクタの操作のために送られる疑似操作データのデータ形式は、上述した処理により、そのメタバース管理装置200が受取ることが予定されていた操作データのデータ形式と同じものとなる。
  100 ユーザ端末
  101 ディスプレイ
  102 入力装置
  121 入力部
  122 制御部
  123 画像制御部
  124 出力部
  200 メタバース管理装置
  221 入力部
  222 制御部
  223 仮想三次元空間データ生成部
  224 プレイヤキャラクタデータ記録部
  225 メタバースデータ記録部
  226 メタバース画像データ生成部
  227 出力部
  300 疑似プレイヤキャラクタ制御装置
  321 入力部
  322 制御部
  323 動作決定部
  324 動作パターン記録部
 324A 動作人工知能
  325 疑似操作データ生成部
  326 出力部
  327 画像解析部

Claims (10)

  1.  複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置であって、
     前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定部と、
     前記動作決定部によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成部と、
     前記疑似操作データを、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信部と、
     を有している疑似プレイヤキャラクタ制御装置。
  2.  前記メタバース管理装置から、前記仮想三次元空間内における前記疑似プレイヤキャラクタの周囲の環境についてのデータである環境データを取得する取得部と、
     前記疑似プレイヤキャラクタの動作パターンについてのデータを記録した動作パターン記録部と、
     を備えているとともに、
     前記動作決定部は、前記取得部から受取った前記環境データと、前記動作パターン記録部に記録された前記データとに基づいて、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作を決定するようになっている、
     請求項1記載の疑似プレイヤキャラクタ制御装置。
  3.  前記メタバース管理装置から、前記仮想三次元空間内における前記疑似プレイヤキャラクタの周囲の環境についてのデータである環境データを取得する取得部を備えているとともに、
     前記動作パターン記録部には、前記環境データを入力した場合に、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作を出力する人工知能である動作人工知能が記録されており、
     前記動作決定部は、前記取得部から受取った前記環境データを、前記動作パターン記録部に記録された前記動作人工知能に入力した場合に、前記動作人工知能から出力される動作を、当該環境データが示す環境に相応しい前記疑似プレイヤキャラクタの動作として決定するようになっている、
     請求項2記載の疑似プレイヤキャラクタ制御装置。
  4.  前記動作人工知能は、前記環境データと、当該環境において前記プレイヤキャラクタが採用した動作とを教師データとして事前に学習を行うことによって得られた学習済みの人工知能である、
     請求項3記載の疑似プレイヤキャラクタ制御装置。
  5.  前記環境データには、前記疑似プレイヤキャラクタと会話を行っているプレイヤキャラクタとの会話内容が含まれている、
     請求項2から4のいずれかに記載の疑似プレイヤキャラクタ制御装置。
  6.  前記動作パターン記録部には、所定の動作人工知能を記録することができるようになっている、
     請求項3又は4記載の疑似プレイヤキャラクタ制御装置。
  7.  前記メタバース管理装置は複数であり、
     前記疑似操作データ生成部は、前記疑似操作データが送信される前記メタバース管理装置それぞれがそれらの前記受信部で受付けることが予定された前記操作データのデータ形式と同じデータ形式の前記疑似操作データを生成するようになっている、
     請求項1記載の疑似プレイヤキャラクタ制御装置。
  8.  複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置であり、情報処理を実行する制御部と、前記インターネットを介して前記メタバース管理装置に所定のデータを送信する送信部とを備えているものの前記制御部にて実行される方法であって、
     前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定過程と、
     前記動作決定過程によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成過程と、
     前記疑似操作データを、前記送信部を介して、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信過程と、
     を含む、疑似プレイヤキャラクタ制御方法。
  9.  複数のユーザそれぞれに操作されるキャラクタである複数のプレイヤキャラクタがその内部に存在する仮想三次元空間を構築する機能を有しており、前記仮想三次元空間を構築する空間構築部と、複数の前記プレイヤキャラクタのそれぞれを操作するためのデータである操作データを、各ユーザが操作するユーザ端末からインターネットを介して受付ける受信部と、前記受信部で受付けた前記操作データに基づいて前記プレイヤキャラクタを前記仮想三次元空間内で動作させるキャラクタ制御部とを備えているメタバース管理装置、と組合わせて用いられるものであり、前記仮想三次元空間内で疑似プレイヤキャラクタを制御する機能を有する疑似プレイヤキャラクタ制御装置として、所定のコンピュータを機能させるためのコンピュータプログラムであって、
     前記コンピュータを、
     前記疑似プレイヤキャラクタに行わせる動作を決定する動作決定部と、
     前記動作決定部によって決定された前記疑似プレイヤキャラクタに行わせる動作を、前記疑似プレイヤキャラクタに行わせるデータである疑似操作データを、前記操作データと同じデータ形式で作成する疑似操作データ生成部と、
     前記疑似操作データを、前記インターネットを介して前記メタバース管理装置の前記受信部に送信する送信部と、
     して機能させるためのコンピュータプログラム。
  10.  請求項3記載の疑似プレイヤキャラクタ制御装置に組込んで動作人工知能として用いることのできる学習済みの人工知能であって、
     前記環境データと、当該環境において前記プレイヤキャラクタが採用した動作とを教師データとして事前に学習を行うことによって得られた、
     学習済みの人工知能。
PCT/JP2022/032461 2022-08-29 2022-08-29 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム WO2024047717A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2022/032461 WO2024047717A1 (ja) 2022-08-29 2022-08-29 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム
JP2022566398A JP7235376B1 (ja) 2022-08-29 2022-08-29 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム
PCT/JP2023/005508 WO2024047899A1 (ja) 2022-08-29 2023-02-16 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/032461 WO2024047717A1 (ja) 2022-08-29 2022-08-29 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2024047717A1 true WO2024047717A1 (ja) 2024-03-07

Family

ID=85475706

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2022/032461 WO2024047717A1 (ja) 2022-08-29 2022-08-29 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム
PCT/JP2023/005508 WO2024047899A1 (ja) 2022-08-29 2023-02-16 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/005508 WO2024047899A1 (ja) 2022-08-29 2023-02-16 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP7235376B1 (ja)
WO (2) WO2024047717A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201985A (ja) * 2005-01-20 2006-08-03 Dotcity Inc ネット上の街並み構築方法と操作システム
JP2009205370A (ja) * 2008-02-27 2009-09-10 Oki Electric Ind Co Ltd ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP2012008638A (ja) * 2010-06-22 2012-01-12 Toyota Home Kk 販売システム及びそのコンピュータプログラム
JP2013050956A (ja) * 2012-09-11 2013-03-14 Olympus Imaging Corp 画像鑑賞システム、画像鑑賞方法、画像鑑賞用サーバー、および端末機器
US20160166935A1 (en) * 2014-12-16 2016-06-16 Activision Publishing, Inc. System and method for transparently styling non-player characters in a multiplayer video game

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134394A (ja) * 2007-11-29 2009-06-18 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP5529485B2 (ja) * 2008-10-08 2014-06-25 株式会社カプコン ゲームプログラムおよびゲームシステム
US10839215B2 (en) * 2018-05-21 2020-11-17 Electronic Arts Inc. Artificial intelligence for emulating human playstyles
US11679330B2 (en) * 2018-12-18 2023-06-20 Activision Publishing, Inc. Systems and methods for generating improved non-player characters
JP2020101950A (ja) * 2018-12-21 2020-07-02 梶塚 千春 複数アバターを同時に使用するコミュニケーションの方法ならびにシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201985A (ja) * 2005-01-20 2006-08-03 Dotcity Inc ネット上の街並み構築方法と操作システム
JP2009205370A (ja) * 2008-02-27 2009-09-10 Oki Electric Ind Co Ltd ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP2012008638A (ja) * 2010-06-22 2012-01-12 Toyota Home Kk 販売システム及びそのコンピュータプログラム
JP2013050956A (ja) * 2012-09-11 2013-03-14 Olympus Imaging Corp 画像鑑賞システム、画像鑑賞方法、画像鑑賞用サーバー、および端末機器
US20160166935A1 (en) * 2014-12-16 2016-06-16 Activision Publishing, Inc. System and method for transparently styling non-player characters in a multiplayer video game

Also Published As

Publication number Publication date
JP7235376B1 (ja) 2023-03-08
WO2024047899A1 (ja) 2024-03-07

Similar Documents

Publication Publication Date Title
JP2021518197A (ja) 人工知能を使用した音声ヘルプシステム
US8066571B2 (en) System and method for enabling characters to be manifested within a plurality of different virtual spaces
CN100442313C (zh) 三维虚拟空间模拟器及其系统
US20090077475A1 (en) System for providing virtual spaces with separate places and/or acoustic areas
US20110060744A1 (en) Method and System for Dynamic Detection of Affinity Between Virtual Entities
CN103890815A (zh) 用于主管可被远程自动创建、主管和终止的瞬变虚拟世界的方法和系统
US20090113326A1 (en) Technique for controlling display images of objects
CN102918518A (zh) 基于云的个人特征简档数据
WO2022114055A1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
US20230020633A1 (en) Information processing device and method for medium drawing in a virtual system
Parmar Evaluating the effects of immersive embodied interaction on cognition in virtual reality
Ford A further analysis of the ethics of representation in virtual reality: Multi-user environments
Bonillo et al. Developing pervasive games in interactive spaces: the JUGUEMOS toolkit
WO2024047717A1 (ja) 疑似プレイヤキャラクタ制御装置、疑似プレイヤキャラクタ制御方法、及びコンピュータプログラム
JP5756969B2 (ja) 3次元フィギアを構成するデータを配信するための方法、システム、サーバ装置、端末装置およびプログラム
Huang et al. Design dimensions for holographic intelligent agents: A comparative analysis
CN114743422B (zh) 一种答题方法及装置和电子设备
JP7050884B6 (ja) 情報処理システム、情報処理方法、情報処理プログラム
Montemorano Body Language: Avatars, Identity Formation, and Communicative Interaction in VRChat
KR20220023005A (ko) 체험 교구를 사용하는 실감형 인터렉티브 에듀테인먼트 시스템
Salge et al. Applications of Artificial Intelligence in Live Action Role-Playing Games (LARP)
Egerton et al. Jimmy: searching for free-will (a competition)
TWI799195B (zh) 利用虛擬物件實現第三人稱視角的方法與系統
KR102581805B1 (ko) 메타버스 기반의 정유화학 플랜트 오퍼레이터 훈련 시스템 및 방법
US11839817B1 (en) Gaming system and method including the identification of non-player characters

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22957321

Country of ref document: EP

Kind code of ref document: A1