WO2022224504A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2022224504A1
WO2022224504A1 PCT/JP2022/000901 JP2022000901W WO2022224504A1 WO 2022224504 A1 WO2022224504 A1 WO 2022224504A1 JP 2022000901 W JP2022000901 W JP 2022000901W WO 2022224504 A1 WO2022224504 A1 WO 2022224504A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
information
user
information processing
goal
Prior art date
Application number
PCT/JP2022/000901
Other languages
English (en)
French (fr)
Inventor
智也 石川
岳 成田
高志 瀬能
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to DE112022002274.4T priority Critical patent/DE112022002274T5/de
Priority to US18/554,321 priority patent/US20240184498A1/en
Publication of WO2022224504A1 publication Critical patent/WO2022224504A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program.
  • a presentation control unit that controls presentation of information about an action goal to a first user based on the satisfaction of a predetermined condition; and after the information about the action goal is presented and an information acquisition unit that acquires the first behavior of the first user in the information processing apparatus.
  • a presentation control unit that controls presentation of information regarding an action goal to a first user based on the satisfaction of a predetermined condition
  • a program functioning as an information processing apparatus including an information acquisition unit that acquires the first behavior of the first user after the information is presented.
  • FIG. 1 is a diagram for explaining a configuration example of an information processing system according to an embodiment of the present disclosure
  • FIG. 3 is a diagram illustrating an example of functional configuration of an interface device
  • FIG. It is a figure which shows the functional structural example of an information processing apparatus.
  • 1 is a block diagram showing the overall flow of processing executed by an information processing system according to an embodiment of the present disclosure
  • FIG. 10 is a flow chart showing an example of the flow of processing in building an action log DB; It is a figure which shows the example of the detailed log recorded on detailed action log DB.
  • FIG. 10 is a diagram showing an example of an abstraction log in a virtual world recorded in an abstraction action log DB;
  • FIG. 10 is a diagram showing an example of an abstraction log in the real world recorded in an abstraction action log DB; It is a figure which shows the example of the data recorded on feedback DB.
  • FIG. 11 is a flowchart showing an example of the flow of processing in presenting a target candidate; FIG. It is a figure which shows the example of a target candidate presentation screen.
  • FIG. 11 is a flowchart showing an example of the flow of processing in presenting action candidates;
  • FIG. It is a figure which shows the example of an action candidate presentation screen.
  • It which shows the example of a model action example screen.
  • a plurality of components having substantially the same or similar functional configurations may be distinguished by attaching different numerals after the same reference numerals.
  • attaching different numerals after the same reference numerals.
  • similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals.
  • attaching different alphabets after the same reference numerals.
  • only the same reference numerals are used.
  • Patent Literature 1 described above discloses a technique for extracting actions performed by many users from actions performed by other users in the past and proposing the extracted actions to the user. .
  • the user based on the satisfaction of a predetermined condition, the user is presented with information related to the user's target behavior (behavior goal). As a result, the user is presented with information on the action goal at a more appropriate timing, so that the user's action can be assisted more efficiently.
  • target behavior behavior goal
  • the predetermined conditions are also referred to as "target candidate presentation conditions”.
  • target candidate presentation conditions The details of the target candidate presentation conditions will be described later.
  • a user is also called a “player.”
  • the user (first user) who receives the information about the action goal is also referred to as a “succeeding player”, and the action is recorded in the action log DB (database) referred to for determining the action goal.
  • This user (second user) is also referred to as a "preceding player”.
  • Patent Literature 1 describes a technique for assisting the actions of a player by presenting to the player what actions have been performed by avatars that have visited sites in the past.
  • Patent Document 1 (hereinafter also simply referred to as "prior art") is considered to have the following three points (1) to (3) that should be improved. be done.
  • the behavior of the avatar in the virtual world operated by the player can correspond to the behavior of the player in the virtual world.
  • an avatar can be an example of an object existing in the virtual world (virtual object).
  • Targeting only the virtual world In the Metaverse, it is conceivable that the virtual world and the real world (real space) influence each other. Therefore, it is desirable to propose action goals that consider not only actions in the virtual world but also actions in the real world.
  • the technology according to the embodiment of the present disclosure abstractly handles action logs obtained in the real world. That is, the technology according to the embodiment of the present disclosure differs from the prior art in that it can analyze and propose not only the virtual world but also the action log obtained in the real world.
  • the technology according to the embodiment of the present disclosure proposes time-series data of actions to the succeeding player as action candidates based on past actions of the preceding player and feedback information from the preceding player, and The action selected from the action candidates is proposed to the succeeding player.
  • FIG. 1 is a diagram for explaining a configuration example of an information processing system according to an embodiment of the present disclosure.
  • an information processing system 1 includes an information processing device 10, interface devices 20-1 to 20-4, a measurement device 31, and a measurement device 32.
  • the interface devices 20-1 to 20-4 may be referred to as the interface device 20 without particular distinction.
  • the number of preceding players is three, but the number of preceding players is not limited and may be one or more. Also, in the example shown in FIG. 1, it is mainly assumed that the number of succeeding players is one, but the number of succeeding players is not limited and may be plural. An example of determining that the player corresponds to the preceding player and an example of determining that the player corresponds to the succeeding player will be described later.
  • the measurement device 31 performs predetermined measurements regarding the preceding players P1 to P3.
  • the measurement device 31 measures the three-dimensional coordinates and three-dimensional postures of the leading players P1 to P3 in the real world.
  • the measuring device 31 is an environment-installed measuring device.
  • a predetermined image sensor for example, a surveillance camera, etc.
  • the measurement device 31 may be incorporated in the operation section 210 (FIG. 2) of the interface devices 20-1 to 20-3.
  • the measurement of the preceding players P1 to P3 is collectively performed by one measurement device 31.
  • the measurement regarding the leading players P1 to P3 may be performed by a plurality of measurement devices 31 in a distributed manner.
  • the measurement device 32 performs predetermined measurements regarding the succeeding player F1.
  • the measuring device 32 measures the three-dimensional coordinates and three-dimensional posture of the succeeding player F1 in the real world.
  • the measuring device 32 is an environment-installed measuring device.
  • a predetermined image sensor for example, a surveillance camera, etc.
  • the measurement device 32 may be incorporated in the operation section 210 (FIG. 2) of the interface device 20-4.
  • the interface device 20 is used by the corresponding player. More specifically, the interface device 20-1 is used by the preceding player P1, the interface device 20-2 is used by the preceding player P2, the interface device 20-3 is used by the preceding player P3, the interface device 20- 4 is used by subsequent player F1.
  • the interface device 20 is an AR (Augmented Reality) device (for example, AR glasses) worn on the player's body.
  • AR Augmented Reality
  • the interface device 20 is not limited to AR devices.
  • the interface device 20 may be a wearable device other than an AR device (for example, a VR (Virtual Reality) device, etc.).
  • the interface device 20 may be a device other than a wearable device (for example, a smart phone, smart watch, game machine, PC (Personal Computer), etc.).
  • a wearable device for example, a smart phone, smart watch, game machine, PC (Personal Computer), etc.
  • the interface device 20 can access the virtual world constructed by the information processing device 10 via a network (not shown).
  • An avatar corresponding to the player exists in the virtual world, and the player can operate the avatar by inputting to the interface device 20 .
  • an avatar can be an example of a virtual object that exists in the virtual world.
  • FIG. 2 is a diagram showing a functional configuration example of the interface device 20.
  • the interface device 20 includes an operation section 210 , a control section 220 , a storage section 240 , a communication section 260 and a presentation section 280 .
  • the operation unit 210 has a function of receiving operations input by the player.
  • the operation unit 210 may be configured with an input device such as a mouse, keyboard, touch panel, button, microphone, or game controller.
  • the operation unit 210 accepts an operation input by the player as a determination operation.
  • a process corresponding to the attitude of the interface device 20 may be executed by a decision operation received by the operation unit 210 .
  • control unit 220 may be configured by, for example, one or more CPUs (Central Processing Units).
  • CPUs Central Processing Units
  • the control unit 220 is configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
  • the control unit 220 can be realized by executing a program by such a processing device.
  • the storage unit 240 is a recording medium that includes a memory and stores programs executed by the control unit 220 and data necessary for executing the programs. Storage unit 240 also temporarily stores data for calculation by control unit 220 .
  • the storage unit 240 is configured by a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the communication unit 260 is configured by a communication interface.
  • the communication unit 260 communicates with the information processing apparatus 10 via a network (not shown) or communicates with the measurement device 31 via a network (not shown).
  • presentation unit 280 presents various types of information to the player under the control of the control unit 220 .
  • presentation unit 280 may include a display.
  • the display may be a transmissive display on which an image of the real world can be visually recognized, an optical see-through display, or a video see-through display.
  • the display may be a non-transmissive display that presents a virtual world image having a three-dimensional structure corresponding to the real world instead of the real world image.
  • Transmissive displays are mainly used for AR (Augmented Reality), and non-transmissive displays are mainly used for VR (Virtual Reality).
  • the presentation unit 280 may also include an XR (X Reality) display used for both AR and VR applications.
  • the presentation unit 280 displays a virtual object in AR or VR, or displays text or the like as a UI.
  • the presentation of various information by the presentation unit 280 may be performed by audio presentation by a speaker, may be performed by haptic presentation by a haptic presentation device, or may be performed by another presentation device. .
  • the information processing device 10 can be realized by a computer.
  • the information processing device 10 is connected to a network (not shown) and can communicate with the interface devices 20-1 to 20-4 via the network (not shown).
  • the information processing device 10 constructs a virtual world in which a plurality of players existing in the real world (eg, leading players P1 to P3, trailing player F1, etc.) can participate.
  • FIG. 3 is a diagram showing a functional configuration example of the information processing device 10. As shown in FIG. As shown in FIG. 3 , the information processing device 10 includes a control section 120 , a storage section 140 and a communication section 160 .
  • control unit 120 may be configured by, for example, one or more CPUs (Central Processing Units).
  • CPUs Central Processing Units
  • the control unit 120 is configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
  • the control unit 120 can be realized by executing a program by such a processing device.
  • the control unit 120 includes a recording control unit 121 , an information acquisition unit 122 and a presentation control unit 123 . Specific functions of these blocks will be described in detail later.
  • the storage unit 140 includes a memory, and is a recording medium that stores programs executed by the control unit 120 and data (various databases, etc.) necessary for executing the programs.
  • the storage unit 140 stores a detailed action log DB 141, a feedback DB 142, and an abstract action log DB 143 as examples of databases.
  • Each of the detailed action log DB 141 and the abstract action log DB 143 is an example of an action log DB.
  • the storage unit 140 temporarily stores data for calculation by the control unit 120 .
  • the storage unit 140 is configured by a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the communication unit 160 is configured by a communication interface.
  • the communication unit 160 communicates with the interface devices 20-1 to 20-4 via a network (not shown).
  • the technology according to the embodiment of the present disclosure uses the action log of the preceding player who has experienced the world in advance in the world where the Metaverse has been realized, thereby assisting the succeeding player in achieving goals more efficiently. aim.
  • Metaverse is not a world that is closed to a specific virtual world like a consumer video game, but has high data compatibility between the virtual world and the real world or between different virtual worlds. It refers to a world in which players can also contribute to the construction of the world and freely conduct economic activities.
  • the virtual world continues to change from moment to moment due to the influence not only of the developers but also of the real world (players, etc.). Therefore, it is difficult to prepare action support for the player in advance.
  • the Metaverse since the Metaverse has a high degree of freedom of action, there are various ways for players to enjoy and experience the world. Therefore, there is a possibility that the succeeding player may get lost without being able to grasp what the target should be and act in the Metaverse.
  • the technology according to the embodiment of the present disclosure improves the action support for the succeeding player in the Metaverse as described above, so that the succeeding player can set a goal that the succeeding player wants to aim for, and can achieve the goal efficiently.
  • Enable action support The technology according to the embodiment of the present disclosure implements such action support mainly by the processing of Steps 1 to 3 (three steps) below.
  • Step1 Action Log DB Construction This step may correspond to a process of recording the action of the preceding player as an abstract action log and associating the action log with the feedback information.
  • Step2 Presentation of Goal Candidates This step is a process of generating candidate goals for the succeeding player based on the action log DB constructed in Step 1 and the feedback information, and presenting information about the candidate goals according to the situation of the succeeding player. applicable.
  • Step3 Presenting Action Candidates This step can correspond to a process of generating action candidates for realizing the goal selected in Step 2 and presenting information about the action candidates according to the situation of the succeeding player.
  • FIG. 4 is a block diagram showing the overall flow of processing executed by the information processing system 1 according to the embodiment of the present disclosure. Details of each of Steps 1 to 3 will be described below with reference to FIG. 4 (and other drawings as appropriate).
  • Step 1 Action log DB construction
  • the action log and feedback information of the preceding player are accumulated in the database.
  • the action log and feedback information accumulated in the database are used for goal candidate generation and action candidate generation, which will be described later.
  • the action log is accumulated not only at a detailed level such as the 3D coordinates and 3D posture of the preceding player, but also at an abstract level such as "Player A did C to Object B". It is desirable to
  • FIG. 5 is a flow chart showing an example of the flow of processing in building an action log DB corresponding to Step 1 above.
  • the recording control unit 121 continuously collects action logs of the preceding player in the virtual world in chronological order (S21). Then, the recording control unit 121 records the collected action logs in the virtual world in the action log DB. Note that, as an example, the recording control unit 121 may determine, as the preceding player, a player whose behavior differs from that of the target candidate, which will be described later. This makes it possible to increase the variation of action logs recorded in the action log DB.
  • the recording control unit 121 records the collected detailed logs in the virtual world in the detailed action log DB 141 , and records the collected abstracted logs in the virtual world in the abstracted action log DB 143 . Detailed logs and abstracted logs are described in more detail.
  • FIG. 6 is a diagram showing an example of a detailed log recorded in the detailed action log DB 141.
  • the detailed log includes a "detailed log ID” that is an ID for identifying the detailed log, and a “related abstract log ID” that is an ID for identifying the abstracted log related to the detailed log. "log ID”, "date and time” when the detailed log was collected, and "measurement data” indicating the content of the detailed log.
  • the "measurement data” includes buttons pressed by the player (PUSH), three-dimensional coordinates (POS) of the avatar in the virtual world, three-dimensional orientation (DIR), three-dimensional posture (POSE ), etc., of the player's behavior in the virtual world.
  • measurement data does not include semantic information such as what kind of behavior caused the measurement data.
  • Detailed logs are associated with behavior semantics through abstract logs.
  • FIG. 7 is a diagram showing an example of an abstraction log in the virtual world recorded in the abstraction action log DB 143.
  • the abstraction log 143-1 includes an "abstraction log ID” that is an ID for identifying an abstraction log in the virtual world, and a "player ID” that is an ID for identifying a player. , the “date and time” when the abstraction log was collected, the “subject” of the action, the “action label” indicating the action of the player, and the “object” of the action.
  • the "subject” is mainly the player.
  • the "player ID” may include an ID for identifying the avatar.
  • “Action labels” may include relationship labels that indicate relationships between objects and subjects.
  • the recording control unit 121 collects abstract actions based on these information defined in advance, and records them in the abstract action log DB 143 as abstract logs. Furthermore, the recording control unit 121 records, in the detailed action log DB 141, a detailed log including the three-dimensional coordinates and three-dimensional posture of the avatar while the action is being executed as measurement data, thereby creating an abstract log. and detailed logs.
  • the action log in the real world is obtained by measuring the player in the real world with the measuring device 31 . Therefore, if there is a measurement device 31 that measures the preceding player ("YES" in S22), the recording control unit 121 controls the data measured by the measurement device 31 for the preceding player in the real world ( measurement data) are continuously collected along the time series (S23).
  • an environment-installed type measuring device can be used as the measuring device 31 .
  • the measurement device 31 may be incorporated in the operation section 210 .
  • the recording control unit 121 continuously collects detailed logs of the preceding player in the real world in chronological order.
  • the detailed log in the real world may include measurement data such as the 3D coordinates and 3D posture of the preceding player in the real world.
  • the three-dimensional coordinates of the leading player may be obtained by the GPS (Global Positioning System) function installed in the interface device 20 (for example, a smartphone) or by the Visual SLAM (Simultaneous Localization and Mapping) function.
  • the three-dimensional posture of the preceding player may be acquired by an environment-installed camera or the like.
  • the detailed log in the real world may include, as examples of measurement data, voice, vital signs, and the interface device 20 (for example, a head-mounted display) Surrounding environment data obtained from a camera may also be included.
  • measurement data for example, voice, vital signs
  • the interface device 20 for example, a head-mounted display
  • Surrounding environment data obtained from a camera may also be included.
  • the recording control unit 121 generates an abstract log in the real world by abstracting the measurement data included in the detailed log in the real world (S24). Abstraction logs in the real world may be generated in any way.
  • the recording control unit 121 determines the subject of the action and the object of the action based on the player and objects (including people) existing around the player, which are recognized from the measurement data included in the detailed log in the real world. , we obtain an abstract log by detecting the relationship between subject and object.
  • a method based on machine learning, a method using a three-dimensional positional relationship between objects, or the like can be employed to detect such relationships between objects.
  • FIG. 8 is a diagram showing an example of an abstraction log in the real world recorded in the abstraction behavior log DB 143.
  • the abstraction log 143-2 includes an "abstraction log ID” that is an ID for identifying an abstraction log in the real world, and a "player ID” that is an ID for identifying a player. , the “date and time” when the abstraction log was collected, the “subject” of the action, the “action label” indicating the action of the player, and the “object” of the action.
  • ction labels may include relationship labels that indicate relationships between objects and subjects.
  • the recording control unit 121 can acquire an abstract log in the real world shown in FIG. 8 as an example.
  • Such abstract logs in the real world can be handled uniformly with abstract logs in the virtual world. Since the action logs of the virtual world and the real world can be handled in a unified manner in this way, it becomes possible to provide more efficient action support for subsequent players in the Metaverse, which has a high relationship between virtual and real worlds. .
  • the recording control unit 121 records the collected action log in the action log DB (S25). More specifically, the recording control unit 121 records the collected detailed logs in the virtual world and the real world in the detailed action log DB 141 . Further, the recording control unit 121 records the collected abstraction logs in the virtual world and the real world in the abstraction action log DB 143 .
  • action logs in both the virtual world and the real world are continuously collected in chronological order and continuously recorded in the action log DB without discrimination.
  • the recording control unit 121 collects feedback information on the action of the preceding player in parallel with collecting the action log of the preceding player (S26).
  • the feedback information may be information input from the preceding player as feedback on the actions of the preceding player.
  • the recording control unit 121 records the feedback information on the action in the feedback DB 142 in association with the action.
  • FIG. 9 is a diagram showing an example of data recorded in the feedback DB 142.
  • the data recorded in the feedback DB 142 are a "feedback ID” for identifying feedback information and an ID for identifying an abstraction log associated with the feedback information. It includes "related abstract log ID”, "date and time” when the feedback information was collected, and "feedback information”.
  • the feedback information may be any information as long as it indicates feedback on actions.
  • the feedback information may include explicit feedback information such as comments written by preceding players. Comments may be written to SNS (Social Networking Service), chat, or the like.
  • feedback information may include implicit feedback information such as vital signs (eg, heart rate, blood pressure, etc.).
  • the feedback information can be used to generate target candidates, which will be explained later.
  • action log collection and measurement are to be continued ("YES” in S27)
  • the operation proceeds to S21.
  • action log collection and measurement are not to be continued (“NO” in S27)
  • construction of the action log DB ends.
  • Step 2. Target candidate presentation In this step, the presentation control unit 123 generates information regarding the target candidate to be presented to the subsequent player based on the preceding player's action log collected in Step 1 and the feedback information regarding the action from the preceding player. An example of determining whether the player corresponds to the succeeding player will be described later.
  • FIG. 10 is a flowchart showing an example of the flow of processing in presenting target candidates corresponding to Step 2 above.
  • the information acquisition unit 122 acquires the action log of the preceding player and feedback information on the action from the preceding player (S31). More specifically, the information acquisition unit 122 acquires detailed logs from the detailed action log DB 141 , abstract logs from the abstract action log DB 143 , and information (including feedback information) from the feedback DB 142 .
  • the presentation control unit 123 determines target candidates to be presented to the succeeding player based on the action log and feedback information of the preceding player (S32). This makes it possible to set target candidates that follow changes in the Metaverse even in an ever-changing Metaverse.
  • target candidates may be determined in any way.
  • the presentation control unit 123 extracts, as feedback information with high salience, feedback information with a predetermined index (hereinafter, also referred to as “index of salience”) that is equal to or greater than a predetermined number, and extracts feedback information with high salience. Actions associated with information may be determined as target candidates.
  • highly conspicuous feedback information may be extracted based on feedback information obtained from individual preceding players.
  • highly conspicuous feedback information may be extracted based on statistical data (for example, total value, average value, etc.) of feedback information obtained from a plurality of preceding players.
  • the saliency index may be any specific index.
  • the saliency metric may include the heart rate of the leading player.
  • the salience metric may include the number of comments posted by previous players.
  • the saliency indicator may include a predetermined number of words in comments written by preceding players. Note that the salience index can typically include a positive index, but can also include a negative index.
  • the subsequent player will be a new player, so the given words are positive words that are preferred by new players (e.g., information about how to easily solve a problem). It is considered desirable that However, it can also be envisaged that the subsequent player is a skilled player.
  • the predetermined word may be a negative word favored by skilled players (eg, information about difficult problems, information about difficult games, etc.).
  • the presentation control unit 123 determines whether or not the target candidate should be presented (S33). More specifically, the presentation control unit 123 determines whether or not to present the target candidate based on whether or not the target candidate presentation conditions are satisfied. For example, the presentation control unit 123 determines that the player satisfying the target candidate presentation condition is the subsequent player. As will be explained later, the subsequent player is the player to whom the information regarding the target candidate is presented.
  • target candidate presentation conditions at least one of the following target candidate presentation conditions 1 to 3 may be applied.
  • Goal Candidate Presentation Condition 1 When there is a presentation instruction from the player
  • the goal candidate presentation condition may include a condition that the player has input an instruction to present information on the action goal to the operation unit 210. .
  • This goal candidate presentation condition 1 can be used by the player when the player wants to actively receive presentation of information about the goal candidate.
  • the goal candidate presentation condition may include a condition that the player is hesitant. It is assumed that the information acquisition unit 122 acquires the player's behavior (second behavior) before the information about the target candidate is presented to the player (S47). In this case, as an example, the condition that the player is hesitant is that the action of the player is a predetermined action according to one or a plurality of statistical data of actions (indicated by the action label) recorded in the abstract action log DB 143. It may be a condition that it is different from
  • the action of the player for which it is determined whether he is hesitant may be obtained in the same manner as the action of the preceding player. That is, the behavior of the player in the real world can be acquired based on abstraction of measurement data obtained by measurement by the measurement device 32 . As the behavior of the player in the virtual world, the behavior of the avatar operated by the player in the virtual world can be acquired.
  • the statistical data may be the number of times one or more actions recorded in the abstracted action log DB 143 are performed by one or more preceding players.
  • the predetermined action is an action selected according to the frequency from one or more actions recorded in the abstracted action log DB 143 (for example, an action within a predetermined order from the one with the highest frequency, or an action with the highest frequency). more behavior than a threshold).
  • the abstracted action log DB 143 can record action logs of one or more preceding players in the real world. Furthermore, the abstracted action log DB 143 can record the action log of the avatar operated by the preceding player. That is, the abstracted action log DB 143 records at least one of the action log of the preceding player in the real world and the action log of the preceding player in the virtual world. Used for judgment.
  • the condition that the player is hesitant may include the condition that the information given by the player is predetermined information.
  • the information emitted by the player may be voice information
  • the predetermined information may be voice information indicating hesitation (for example, "Huh?" or "Where should I go?"). good.
  • Voice information is detected by a microphone included in the operation unit 210 and acquired by the information acquisition unit 122 .
  • the goal candidate presentation condition is that the saliency index of feedback information obtained from one or more preceding players in response to the target candidate rapidly increases. may include the condition that This is because a target candidate that satisfies such conditions is considered to have value to be presented.
  • the condition of a rapid increase may be a condition that the index of salience of feedback information obtained within a predetermined time is equal to or greater than a predetermined number.
  • presentation control of the information on the target candidate can be realized by controlling the communication unit 160 so that the information on the target candidate is transmitted to the interface device 20 of the subsequent player.
  • the communication section 260 receives the information regarding the target candidate, and the presentation section 280 presents the information regarding the target candidate to the subsequent player.
  • the target candidate may be uniformly determined without depending on the subsequent player who receives information about the target candidate, or may be determined depending on the subsequent player.
  • the target candidates may be determined based on the subsequent player's attribute information (eg, age, gender, tastes and preferences, etc.) (target candidates may be filtered). That is, when attribute information is input from the succeeding player (S35), the presentation control unit 123 determines a goal candidate from one or more actions included in the action log of the preceding player based on the attribute information of the succeeding player.
  • may Hobbies and preferences may include a desire to present only target candidates in the real world, a desire to present only target candidates in the virtual world, and the like.
  • attribute information is associated with each of one or more actions included in the action log of the preceding player.
  • the presentation control unit 123 may determine an action associated with attribute information that matches or is similar to attribute information of the succeeding player, among the one or more actions, as a goal candidate.
  • the presentation control unit 123 may preferentially determine, as a target candidate, an action associated with attribute information having a similar degree of similarity to the attribute information of the succeeding player among the one or more actions.
  • Information about target candidates presented to subsequent players may be generated in any way.
  • information about the candidate goal may include information obtained from one or more preceding players who have achieved the candidate goal.
  • Such information may include a screenshot of the preceding player when the candidate goal is achieved, may include feedback information obtained from the preceding player when the candidate goal is achieved, or may include feedback information obtained from the preceding player when the candidate goal is achieved.
  • Saliency information e.g., evaluation such as "good", “bad”, etc. obtained from the preceding player at the time may also be included.
  • This method of generating information about target candidates is suitable when there are comments, etc., actively input by the preceding player.
  • FIG. 11 is a diagram showing an example of a target candidate presentation screen.
  • a target candidate presentation screen G10 is shown.
  • the presentation control unit 123 controls presentation of the target candidate presentation screen G10 to the succeeding player. Note that, in the example shown in FIG. 11, screen shots G11 to G13 corresponding to three goal candidates and comments "winning a soccer game”, “cooking delicious food”, and “reaching the mountaintop” are displayed on the goal candidate presentation screen G10. included in
  • the information about the goal candidate may include information generated based on the action log regarding the achievement of the goal candidate of the leading player.
  • Such information may include a scene when the goal candidate generated from the action log of the preceding player is achieved.
  • the scene may be generated by CG (computer graphics) based on the surrounding environment data included in the preceding player's detailed log and the positional relationships between objects included in the preceding player's abstract log.
  • Such information may also include contextual descriptions such as "A did C to B" generated from the preceding player's abstraction log, or information obtained from the preceding player when the candidate goal was achieved. May include saliency information.
  • This method of generating information about the goal candidate is suitable when the place where the preceding player has achieved the goal candidate is a place in the real world where other players cannot enter, or when it is a private space. . In this way, even if the place where the goal candidate is achieved is a place in the real world that the subsequent player cannot physically reach, the subsequent player can experience the same experience as the preceding player by utilizing the abstraction log.
  • Candidate goals may be presented as achievable.
  • Step 3. Action candidate presentation In this step, the presentation control unit 123 controls presentation of information about the action candidate to the subsequent player based on the selection of one of the goal candidates by the subsequent player. Furthermore, in this step, the presentation control unit 123 controls the presentation of the information regarding the model behavior to the subsequent player based on the selection of any of the behavior candidates by the subsequent player.
  • FIG. 12 is a flowchart showing an example of the flow of processing in presenting action candidates corresponding to Step 3 above. As shown in FIGS. 4 and 12, the subsequent player selects one or more target candidates (S41).
  • the information acquisition unit 122 acquires the action log of the preceding player who has achieved the target candidate selected by the succeeding player and the feedback information from the preceding player regarding the action (S42). More specifically, the information acquisition unit 122 acquires detailed logs from the detailed action log DB 141 , abstract logs from the abstract action log DB 143 , and information (including feedback information) from the feedback DB 142 .
  • the presentation control unit 123 Based on the action log of the preceding player who has achieved the goal candidate selected by the subsequent player, the presentation control unit 123 acquires time-series data of a plurality of actions leading to the achievement of the goal candidate by the preceding player as an action series.
  • the action sequence that leads to the achievement of the goal candidate may be one or more actions of the preceding player included in the abstraction log, which are subsequently executed until the goal candidate is reached.
  • the presentation control unit 123 performs statistical processing on a plurality of action sequences to determine action candidates (S43). More specifically, the presentation control unit 123 maps a plurality of behavioral sequences and feedback information corresponding to the behavioral sequences in a feature space (multidimensional feature space) centered on a predetermined parameter for each behavioral sequence. Then, the presentation control unit 123 clusters the plurality of action sequences mapped in the feature space.
  • a feature space multidimensional feature space
  • the predetermined parameters may include at least one of the time required to achieve the goal, difficulty of operation, number of enemies, and enjoyment.
  • the time required to achieve the goal can be calculated from the average time it takes for the preceding player to reach the goal.
  • Operation difficulty, the number of enemies, etc. can be acquired from the application.
  • enjoyment can be obtained from the feedback information of the preceding player or the like.
  • the presentation control unit 123 labels each of a plurality of clusters generated by clustering (S44).
  • labels attached to clusters salient parameters for the clusters may be used. For example, the cluster with the shortest time required to achieve a goal may be labeled with "shortest goal achievement course" corresponding to the parameter "time required to reach goal”.
  • the presentation control unit 123 controls presentation of information regarding action candidates according to a plurality of action sequences of one or more preceding players who have achieved the goal candidate to the succeeding player.
  • information about action candidates may include labels assigned to clusters as described above.
  • the information about the action candidates may include information obtained from one or more preceding players who have achieved the goal candidates, similarly to the information regarding the goal candidates, or based on the action log regarding the achievement of the goal candidates of the preceding players. may include information generated by
  • FIG. 13 is a diagram showing an example of the action candidate presentation screen.
  • an action candidate presentation screen G20 is shown.
  • the presentation control unit 123 controls presentation of the action candidate presentation screen G20 to the succeeding player.
  • the action candidate presentation screen G20 includes screen shots G21 and G22 corresponding to two clusters (action candidates) and label information "short-term goal achievement course" and "leisurely course”. there is
  • an action candidate is time-series data of a plurality of actions. Therefore, when the subsequent player selects an action candidate, the presentation control unit 123 acquires an action corresponding to the current action of the subsequent player among the selected action candidates as a model action. Then, the presentation control unit 123 controls the presentation of the information regarding the model behavior to the succeeding player. This may assist the subsequent player in achieving the goal smoothly. The presentation control unit 123 changes the model behavior according to the behavior change of the succeeding player.
  • FIG. 14 is a diagram showing an example of a model behavior example screen.
  • a model behavior example screen G30 is shown.
  • the presentation control unit 123 controls presentation of the model behavior example screen G30 to the succeeding player.
  • the avatar G31 currently operated by the subsequent player is displayed.
  • Avatar G31 is playing a soccer match with avatar G33.
  • a virtual object G32 that performs model behavior is presented.
  • a virtual object G32 that performs exemplary behavior can also be expressed as a ghost.
  • the presentation control unit 123 determines, based on the measurement data, that the succeeding player A ghost may be presented at the timing when the player tries to move in a direction. Behavior that deviates from the goal can thereby be suppressed.
  • information about exemplary behavior does not have to be a ghost.
  • the information about the exemplary behavior may be various information describing the exemplary behavior (for example, an arrow indicating the direction in which the player performing the exemplary behavior moves, text information describing the exemplary behavior, etc.).
  • the information acquisition unit 122 acquires the behavior (first behavior) of the succeeding player.
  • the behavior of the subsequent player may include at least one of the behavior of the subsequent player in the real world and the behavior of the avatar (virtual object) operated by the subsequent player.
  • the presentation control unit 123 determines whether or not the subsequent player has achieved the target candidate based on the behavior of the subsequent player and the target candidate selected by the subsequent player (S48). ).
  • FIG. 15 is a block diagram showing a hardware configuration example of the information processing apparatus 900. As shown in FIG. Note that the information processing apparatus 10 does not necessarily have all of the hardware configuration shown in FIG. 15, and part of the hardware configuration shown in FIG. It doesn't have to be.
  • the information processing device 900 includes a CPU (Central Processing Unit) 901 , ROM (Read Only Memory) 903 , and RAM (Random Access Memory) 905 .
  • the information processing device 900 may also include a host bus 907 , a bridge 909 , an external bus 911 , an interface 913 , an input device 915 , an output device 917 , a storage device 919 , a drive 921 , a connection port 923 and a communication device 925 .
  • the information processing apparatus 900 may have a processing circuit called DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or together with the CPU 901 .
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or part of the operations in the information processing device 900 according to various programs recorded in the ROM 903, RAM 905, storage device 919, or removable recording medium 927.
  • a ROM 903 stores programs and calculation parameters used by the CPU 901 .
  • a RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901, ROM 903, and RAM 905 are interconnected by a host bus 907 configured by an internal bus such as a CPU bus. Furthermore, the host bus 907 is connected via a bridge 909 to an external bus 911 such as a PCI (Peripheral Component Interconnect/Interface) bus.
  • PCI Peripheral Component Interconnect/Interface
  • the input device 915 is, for example, a device operated by a user, such as a button.
  • the input device 915 may include a mouse, keyboard, touch panel, switches, levers, and the like.
  • Input device 915 may also include a microphone to detect the user's voice.
  • the input device 915 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone corresponding to the operation of the information processing device 900 .
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the signal to the CPU 901 . By operating the input device 915, the user inputs various data to the information processing apparatus 900 and instructs processing operations.
  • An imaging device 933 which will be described later, can also function as an input device by imaging the movement of the user's hand, the user's finger, and the like. At this time, the pointing position may be determined according to the movement of the hand or the direction of the finger.
  • the output device 917 is configured by a device capable of visually or audibly notifying the user of the acquired information.
  • the output device 917 can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, or a sound output device such as a speaker or headphones.
  • the output device 917 may include a PDP (Plasma Display Panel), a projector, a hologram, a printer device, and the like.
  • the output device 917 outputs the result obtained by the processing of the information processing device 900 as a video such as text or an image, or as a sound such as voice or sound.
  • the output device 917 may also include lights or the like to brighten the surroundings.
  • the storage device 919 is a data storage device configured as an example of the storage unit of the information processing device 900 .
  • the storage device 919 is composed of, for example, a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, and various data acquired from the outside.
  • a drive 921 is a reader/writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900 .
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs it to the RAM 905 . Also, the drive 921 writes records to the attached removable recording medium 927 .
  • a connection port 923 is a port for directly connecting a device to the information processing device 900 .
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is, for example, a communication interface configured with a communication device for connecting to the network 931.
  • the communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various types of communication.
  • the communication device 925 for example, transmits and receives signals to and from the Internet and other communication devices using a predetermined protocol such as TCP/IP.
  • a network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, home LAN, infrared communication, radio wave communication, or satellite communication.
  • a presentation control unit that controls presentation of information about an action goal to a first user based on the satisfaction of a predetermined condition, and after the information about the action goal is presented and an information acquisition unit that acquires the first behavior of the first user in the information processing apparatus. According to such a configuration, the user's actions can be assisted more efficiently.
  • a presentation control unit that controls presentation of information about action goals to the first user based on the satisfaction of a predetermined condition; an information acquisition unit that acquires a first action of the first user after the information on the action goal is presented; An information processing device.
  • the presentation control unit determines whether the first user has achieved the action goal based on the first action and the action goal.
  • the information processing device according to (1) above.
  • the information acquisition unit acquires a second behavior of the first user before the information on the behavior goal is presented,
  • the predetermined condition includes a condition that the second behavior is different from a predetermined behavior according to statistical data of one or more behaviors recorded in the behavior log database, The information processing apparatus according to (1) or (2).
  • the statistical data is the frequency of each action performed by one or more second users of the one or more actions recorded in the action log database;
  • the predetermined action is an action selected from the one or more actions according to the frequency,
  • At least one of the behavior of the second user in the real space and the behavior of the virtual object operated by the second user is recorded as the one or more behaviors in the behavior log database.
  • the predetermined condition includes a condition that the information issued by the first user is predetermined information, The information processing apparatus according to (1) or (2).
  • the predetermined condition includes a condition that the first user has input an instruction to present information related to the action goal, The information processing apparatus according to (1) or (2).
  • the predetermined condition includes a condition that a predetermined number of predetermined indicators obtained from one or more second users within a predetermined period of time for the action goal is equal to or greater than a predetermined number.
  • the information processing apparatus according to (1) or (2).
  • the presentation control unit selects, from among the one or more actions recorded in the action log database, an action for which a predetermined index obtained from one or more second users is equal to or greater than a predetermined number as the action goal. decide, The information processing apparatus according to (1) or (2).
  • the predetermined index includes at least one of heart rate, number of comments, and number of predetermined words in comments, The information processing apparatus according to (8) or (9).
  • the information about the action goal is information obtained from one or more second users who have achieved the action goal, and information generated based on an action log regarding the second user's achievement of the action goal. including at least one of The information processing apparatus according to (1) or (2).
  • the presentation control unit determines the action goal from one or more actions recorded in an action log database, based on the attribute information of the first user.
  • Attribute information is associated with each of the one or more actions, The presentation control unit determines, from among the one or more actions, an action associated with attribute information that matches or is similar to the attribute information of the first user as the action goal.
  • the information processing device according to (12) above.
  • Attribute information is associated with each of the one or more actions
  • the presentation control unit preferentially determines, from among the one or more actions, actions associated with attribute information having a similar degree of similarity to the attribute information of the first user as the action goal.
  • the information processing device according to (12) above.
  • the first behavior includes at least one of behavior of the first user in real space and behavior of a virtual object operated by the first user, The information processing apparatus according to (1) or (2).
  • the presentation control unit when the action goal is selected by the first user, provides the information on action candidates according to a plurality of action sequences of one or more second users who have achieved the action goal. controlling presentation to the first user; The information processing apparatus according to (1) or (2).
  • the presentation control unit maps the plurality of behavioral sequences in a feature space with a predetermined parameter as an axis for each behavioral sequence, and maps each of the plurality of clusters generated by clustering the plurality of behavioral sequences mapped in the feature space. labeling and controlling presentation of the label to the first user as information about the candidate action; The information processing device according to (16) above. (18) The presentation control unit, when the action candidate is selected by the first user, presents to the first user information on an action corresponding to the current action of the first user among the action candidates. control presentation, The information processing apparatus according to (16) or (17).
  • a method of processing information comprising: (20) the computer, a presentation control unit that controls presentation of information about action goals to the first user based on the satisfaction of a predetermined condition; an information acquisition unit that acquires a first action of the first user after the information on the action goal is presented;
  • a program that functions as an information processing device comprising
  • information processing system 10 information processing device 120 control unit 121 recording control unit 122 information acquisition unit 123 presentation control unit 140 storage unit 141 detailed action log DB 142 Feedback DB 143 Abstraction Action Log DB 160 communication unit 20 interface device 210 operation unit 220 control unit 240 storage unit 260 communication unit 280 presentation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザの行動をより効率よく支援することが可能な技術が提供されることが望まれる。 【解決手段】所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法およびプログラム
 本開示は、情報処理装置、情報処理方法およびプログラムに関する。
 近年、ユーザの行動を支援するための様々な技術が知られている。例えば、過去に実行された他のユーザの行動の中から、多くのユーザによって実行された行動を抽出し、抽出した行動をユーザに提案する技術が開示されている(例えば、特許文献1参照)。
特開2009-201809号公報
 しかしながら、ユーザの行動をより効率よく支援することが可能な技術が提供されることが望まれる。
 本開示のある観点によれば、所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、を備える、情報処理装置が提供される。
 また、本開示の別の観点によれば、所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御することと、プロセッサが前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得することと、を備える、情報処理方法が提供される。
 また、本開示の別の観点によれば、コンピュータを、所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、を備える情報処理装置として機能させるプログラムが提供される。
本開示の実施形態に係る情報処理システムの構成例を説明するための図である。 インターフェース装置の機能構成例を示す図である。 情報処理装置の機能構成例を示す図である。 本開示の実施形態に係る情報処理システムによって実行される処理の全体的な流れを示すブロック図である。 行動ログDB構築における処理の流れの例を示すフローチャートである。 詳細行動ログDBに記録される詳細ログの例を示す図である。 抽象化行動ログDBに記録される仮想世界における抽象化ログの例を示す図である。 抽象化行動ログDBに記録される現実世界における抽象化ログの例を示す図である。 フィードバックDBに記録されるデータの例を示す図である。 目標候補提示における処理の流れの例を示すフローチャートである。 目標候補提示画面の例を示す図である。 行動候補提示における処理の流れの例を示すフローチャートである。 行動候補提示画面の例を示す図である。 模範行動例示画面の例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 0.概要
 1.実施形態の詳細
  1.1.システム構成例
  1.2.機能構成例
  1.3.機能詳細
 2.ハードウェア構成例
 3.まとめ
 <0.概要>
 まず、本開示の実施形態の概要について説明する。近年、ユーザの行動を支援するための様々な技術が知られている。例えば、上記した特許文献1には、過去に実行された他のユーザの行動の中から、多くのユーザによって実行された行動を抽出し、抽出した行動をユーザに提案する技術が開示されている。しかしながら、ユーザの行動をより効率よく支援することが可能な技術が提供されることが望まれる。
 本開示の実施形態においては、所定の条件が満たされたことに基づいて、ユーザの目標となる行動(行動目標)に関する情報がユーザに提示される。これによって、より適切なタイミングに行動目標に関する情報がユーザに提示されるため、ユーザの行動がより効率よく支援され得る。
 なお、以下では、所定の条件を「目標候補の提示条件」とも言う。目標候補の提示条件の詳細については、後に説明する。また、以下では、ユーザを「プレイヤ」とも称する。さらに、以下では、行動目標に関する情報の提示を受けるユーザ(第1のユーザ)を「後続プレイヤ」とも言い、その行動目標の決定のために参照される行動ログDB(データベース)に行動が記録されるユーザ(第2のユーザ)を「先行プレイヤ」とも言う。
 より詳細に、仮想世界(仮想空間)を初めて訪れたアバタを操作するプレイヤにとっては、アバタをサイト内においてどのように行動させればよいかを把握するのが難しい場合があり得る。そこで、特許文献1には、過去にサイトを訪れたアバタがどのような行動を実行したのかをプレイヤに提示することによって、プレイヤの行動を支援する技術が記載されている。
 しかし、かかる特許文献1に記載された技術(以下、単に「先行技術」とも言う。)は、主に以下の3つの改善されるべき点(1)~(3)を有していると考えられる。なお、アバタは、プレイヤの仮想世界に存在する分身に該当し得るため、プレイヤによって操作される仮想世界におけるアバタの行動は、仮想世界におけるプレイヤの行動に該当し得る。後にも説明するように、アバタは、仮想世界に存在するオブジェクト(仮想オブジェクト)の一例に該当し得る。
(1)仮想世界のみを対象としていること:メタバースにおいては、仮想世界と現実世界(実空間)とが相互に影響することが考えられる。そのため、仮想世界における行動のみならず現実世界における行動も考慮した行動目標の提案が望まれる。本開示の実施形態に係る技術は、一例として現実世界において得られた行動ログを抽象的に扱う。すなわち、本開示の実施形態に係る技術は、仮想世界だけではなく現実世界において得られた行動ログも分析および提案の対象にし得る点が先行技術と異なる。
(2)画一的な行動目標が強制されること:メタバースにおけるプレイヤの行動目標は様々であると考えられる。そのため、多くの先行プレイヤによって実行された過去の行動を行動目標として後続プレイヤに提案するだけでは、後続プレイヤにとって適切な支援が行われない場合も想定され得る。本開示の実施形態では、先行プレイヤによって実行された過去の行動および先行プレイヤからのフィードバック情報に基づいて、後続プレイヤに対して目標候補が提案され得る。そして、目標候補から後続プレイヤによって選択された行動が後続プレイヤに提案され得る。
(3)提案される行動に選択肢がないこと:行動スタイルは千差万別であり、プレイヤに対する画一的な行動支援(操作支援を含む)は役に立たない場合があり得る。そこで、本開示の実施形態に係る技術は、先行プレイヤの過去の行動および先行プレイヤからのフィードバック情報に基づいて、後続プレイヤに対して行動の時系列データを行動候補として提案し、後続プレイヤの好みに応じて行動候補から選択された行動を後続プレイヤに対して提案する。
 以上、本開示の実施形態の概要について説明した。
 <1.実施形態の詳細>
 続いて、本開示の実施形態について詳細に説明する。
 (1.1.システム構成例)
 まず、本開示の実施形態に係る情報処理システムの構成例について説明する。
 図1は、本開示の実施形態に係る情報処理システムの構成例を説明するための図である。図1に示されるように、本開示の実施形態に係る情報処理システム1は、情報処理装置10と、インターフェース装置20-1~20-4と、計測デバイス31と、計測デバイス32とを備える。以下では、インターフェース装置20-1~20-4の一部または全部が、特に区別されずにインターフェース装置20と称される場合がある。
 図1に示されるように、現実世界に複数のプレイヤ(例えば、先行プレイヤP1~P3、後続プレイヤF1など)が存在する。図1に示された例では、先行プレイヤの数が3人である場合が主に想定されているが、先行プレイヤの数は限定されず、1または複数であってよい。また、図1に示された例では、後続プレイヤの数が1人である場合が主に想定されているが、後続プレイヤの数は限定されず、複数であってもよい。プレイヤが先行プレイヤに該当することの判定の例、および、プレイヤが後続プレイヤに該当することの判定の例については後に説明する。
 (計測デバイス31)
 計測デバイス31は、先行プレイヤP1~P3に関する所定の計測を行う。一例として、計測デバイス31は、現実世界における先行プレイヤP1~P3の3次元座標および3次元姿勢などを計測する。なお、本開示の実施形態においては、計測デバイス31が、環境設置型の計測デバイスである場合を主に想定する。環境設置型の計測デバイスとしては、所定の画像センサ(例えば、監視カメラなど)などが用いられ得る。しかし、計測デバイス31は、インターフェース装置20-1~20-3の操作部210(図2)に組み込まれていてもよい。
 図1に示された例では、先行プレイヤP1~P3に関する計測が1台の計測デバイス31によって一括して行われる場合が想定されている。しかし、先行プレイヤP1~P3に関する計測は、複数の計測デバイス31によって分散して行われてもよい。
 (計測デバイス32)
 計測デバイス32は、後続プレイヤF1に関する所定の計測を行う。一例として、計測デバイス32は、現実世界における後続プレイヤF1の3次元座標および3次元姿勢などを計測する。なお、本開示の実施形態においては、計測デバイス32が、環境設置型の計測デバイスである場合を主に想定する。環境設置型の計測デバイスとしては、所定の画像センサ(例えば、監視カメラなど)などが用いられ得る。しかし、計測デバイス32は、インターフェース装置20-4の操作部210(図2)に組み込まれていてもよい。
 (インターフェース装置20)
 インターフェース装置20は、対応するプレイヤによって用いられる。より詳細に、インターフェース装置20-1は、先行プレイヤP1によって用いられ、インターフェース装置20-2は、先行プレイヤP2によって用いられ、インターフェース装置20-3は、先行プレイヤP3によって用いられ、インターフェース装置20-4は、後続プレイヤF1によって用いられる。
 本開示の実施形態では、インターフェース装置20がプレイヤの身体に装着されるAR(Augmented Reality)デバイス(例えば、ARグラス)である場合を主に想定する。しかし、インターフェース装置20は、ARデバイスに限定されない。例えば、インターフェース装置20は、ARデバイス以外のウェアラブルデバイス(例えば、VR(Virtual Reality)デバイスなど)であってもよい。
 あるいは、インターフェース装置20は、ウェアラブルデバイス以外の装置(例えば、スマートフォン、スマートウォッチ、ゲーム機、PC(Personal Computer)など)であってもよい。
 インターフェース装置20は、図示しないネットワークを介して、情報処理装置10によって構築される仮想世界にアクセスし得る。仮想世界には、プレイヤに対応するアバタが存在し、プレイヤは、インターフェース装置20への入力によってアバタを操作し得る。上記したように、アバタは、仮想世界に存在する仮想オブジェクトの一例に該当し得る。
 図2は、インターフェース装置20の機能構成例を示す図である。図2に示されるように、インターフェース装置20は、操作部210と、制御部220と、記憶部240と、通信部260と、提示部280とを備える。
 (操作部210)
 操作部210は、プレイヤによって入力される操作を受け付ける機能を有する。例えば、操作部210は、マウス、キーボード、タッチパネル、ボタン、マイクロフォンまたはゲームコントローラなどといった入力デバイスにより構成されていてもよい。例えば、操作部210は、プレイヤによって入力される操作を決定操作として受け付ける。また、操作部210によって受け付けられる決定操作によって、インターフェース装置20の姿勢に応じた処理が実行されてもよい。
 (制御部220)
 制御部220は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などによって構成されていてよい。制御部220がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。制御部220は、かかる処理装置によってプログラムが実行されることによって実現され得る。
 (記憶部240)
 記憶部240は、メモリを含んで構成され、制御部220によって実行されるプログラムを記憶したり、このプログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部240は、制御部220による演算のためにデータを一時的に記憶する。記憶部240は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
 (通信部260)
 通信部260は、通信インターフェースによって構成される。例えば、通信部260は、図示しないネットワークを介して情報処理装置10との間で通信を行ったり、図示しないネットワークを介して計測デバイス31との間で通信を行ったりする。
 (提示部280)
 提示部280は、制御部220による制御に従ってプレイヤに対して各種情報を提示する。例えば、提示部280は、ディスプレイを含み得る。このとき、ディスプレイは、現実世界の像を視認可能な透過型ディスプレイであってもよいし、光学シースルーディスプレイであってもよいし、ビデオシースルーディスプレイであってもよい。あるいは、ディスプレイは、現実世界の像に代えて、現実世界に対応した三次元構造を有する仮想世界の像を提示する非透過型ディスプレイであってもよい。
 透過型ディスプレイは主にAR(Augmented Reality)に、非透過型ディスプレイは主にVR(Virtual Reality)に用いられる。さらに、提示部280には、ARおよびVRのいずれの用途にも用いられるXR(X Reality)ディスプレイも含まれ得る。例えば、提示部280は、仮想オブジェクトをAR表示またはVR表示したり、テキストなどをUI表示したりする。
 なお、提示部280による各種情報の提示は、スピーカによる音声提示によって行われてもよいし、力覚提示装置による力覚提示によって行われてもよいし、他の提示デバイスによって行われてもよい。
 図1に戻って、情報処理装置10について説明を続ける。
 (情報処理装置10)
 情報処理装置10は、コンピュータによって実現され得る。情報処理装置10は、図示しないネットワークに接続されており、図示しないネットワークを介してインターフェース装置20-1~20-4と通信を行うことが可能である。情報処理装置10は、現実世界に存在する複数のプレイヤ(例えば、先行プレイヤP1~P3、後続プレイヤF1など)によって参加され得る仮想世界を構築する。
 図3は、情報処理装置10の機能構成例を示す図である。図3に示されるように、情報処理装置10は、制御部120と、記憶部140と、通信部160とを備える。
 (制御部120)
 制御部120は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などによって構成されていてよい。制御部120がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。制御部120は、かかる処理装置によってプログラムが実行されることによって実現され得る。制御部120は、記録制御部121と、情報取得部122と、提示制御部123とを備える。これらのブロックの具体的な機能については、後に詳細に説明する。
 (記憶部140)
 記憶部140は、メモリを含んで構成され、制御部120によって実行されるプログラムを記憶したり、このプログラムの実行に必要なデータ(各種データベースなど)を記憶したりする記録媒体である。記憶部140は、データベースの例として、詳細行動ログDB141、フィードバックDB142、抽象化行動ログDB143を記憶する。詳細行動ログDB141および抽象化行動ログDB143それぞれは、行動ログDBの例である。これらのデータベースについては、後に詳細に説明する。
 また、記憶部140は、制御部120による演算のためにデータを一時的に記憶する。記憶部140は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
 (通信部160)
 通信部160は、通信インターフェースによって構成される。例えば、通信部160は、図示しないネットワークを介してインターフェース装置20-1~20-4との間で通信を行ったりする。
 以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
 (1.2.機能詳細)
 続いて、本開示の実施形態に係る情報処理システム1の機能詳細について説明する。
 本開示の実施形態に係る技術は、メタバースが実現された世界において、その世界を先行体験している先行プレイヤの行動ログを利用することによって、後続プレイヤの目標達成の効率化を支援することを目的とする。
 メタバースとは、コンシューマビデオゲームのように特定の仮想世界に閉じた世界ではなく、仮想世界と現実世界との間または異なる仮想世界間においても高いデータ互換性を有し、ゲーム開発者のみならずプレイヤもその世界構築に貢献し、自由に経済活動を行うことが可能な世界を指す。
 そのようなメタバースでは、一般的なアプリケーション(例えば、ゲームアプリケーションなど)におけるチュートリアルのように、特定の状況における行動支援を作り込んでおくことが困難であると言える。
 より詳細に、一般的なゲームアプリケーションなどにおいては、開発者の意図しない状況が発生することが想定されないため、開発者が、想定した状況においてプレイヤにどのような行動支援を行うかをあらかじめ作り込んでおくことが可能である。
 それに対して、メタバースでは、開発者のみならず現実世界(プレイヤなど)からの影響により、仮想世界も時々刻々と変化を続ける。そのため、プレイヤへの行動支援をあらかじめ作り込んでおくことが困難である。また、メタバースにおいては、行動の自由度が高いために、プレイヤによる楽しみ方およびプレイヤによる世界の体験の仕方なども様々である。そのため、後続プレイヤが、何を目標にしてメタバースにおいて行動すれば良いのかを把握できずに迷ってしまう場合があり得る。
 そこで、本開示の実施形態に係る技術は、上記のようなメタバースにおける後続プレイヤへの行動支援を改善することによって、後続プレイヤが目指したい目標を設定し、その目標を効率的に達成するための行動支援を可能にする。本開示の実施形態に係る技術は、そのような行動支援を、主に以下のStep1~3(3ステップ)の処理によって実現する。
 Step1.行動ログDB構築
 このステップは、先行プレイヤの行動を抽象的な行動ログとして記録し、行動ログとフィードバック情報とを対応付ける処理に該当し得る。
 Step2.目標候補提示
 このステップは、Step1において構築された行動ログDBとフィードバック情報とに基づいて、後続プレイヤに対して目標候補を生成し、後続プレイヤの状況に応じて目標候補に関する情報を提示する処理に該当し得る。
 Step3.行動候補提示
 このステップは、Step2において選択された目標を実現するための行動候補を生成し、後続プレイヤの状況に応じて行動候補に関する情報を提示する処理に該当し得る。
 図4は、本開示の実施形態に係る情報処理システム1によって実行される処理の全体的な流れを示すブロック図である。以下では、図4を参照しながら(適宜他の図も参照しながら)、上記Step1~3それぞれの詳細を説明する。
 (Step1.行動ログDB構築)
 このステップでは、先行プレイヤの行動ログとフィードバック情報とがデータベースに蓄積される。データベースに蓄積された行動ログおよびフィードバック情報は、後に説明する目標候補生成および行動候補生成に利用される。特に仮想世界と現実世界との関わりの強いメタバースにおいては、両世界の行動ログが区別なく扱われることが望ましい。そのため、行動ログは、先行プレイヤの3次元座標および3次元姿勢といった詳細なレベルで蓄積されるだけでなく、「プレイヤAがオブジェクトBに対してCを行った」といった抽象的なレベルでも蓄積されるのが望ましい。
 図5は、上記Step1に該当する行動ログDB構築における処理の流れの例を示すフローチャートである。
 (S21.仮想世界行動ログ収集)
 図4および図5に示されるように、記録制御部121は、仮想世界における先行プレイヤの行動ログを時系列に沿って連続的に収集する(S21)。そして、記録制御部121は、収集した仮想世界における行動ログを行動ログDBに記録する。なお、一例として、記録制御部121は、後に説明する目標候補と異なる行動をしているプレイヤを先行プレイヤとして判定してもよい。これによって、行動ログDBに記録される行動ログのバリエーションを増やすことが可能となる。
 ここでは、記録制御部121によって収集される仮想世界における先行プレイヤの行動ログの例として、詳細ログおよび抽象化ログの2種類が収集される場合を主に想定する。記録制御部121は、収集した仮想世界における詳細ログを詳細行動ログDB141に記録し、収集した仮想世界における抽象化ログを抽象化行動ログDB143に記録する。詳細ログおよび抽象化ログについて、さらに詳細に説明する。
 図6は、詳細行動ログDB141に記録される詳細ログの例を示す図である。図6に示されるように、詳細ログは、詳細ログを識別するためのIDである「詳細ログID」と、当該詳細ログと関連する抽象化ログを識別するためのIDである「関連抽象化ログID」と、当該詳細ログが収集された「日時」と、当該詳細ログの内容を示す「計測データ」とを含む。
 図6に示されるように、「計測データ」は、プレイヤによって押下されたボタン(PUSH)、仮想世界におけるアバタの3次元座標(POS)、3次元的な向き(DIR)、3次元姿勢(POSE)などといった、仮想世界におけるプレイヤの行動の詳細なデータに該当し得る。
 詳細ログが用いられることによって、仮想世界における先行プレイヤの過去の行動が再現され得る。しかし、計測データは、どのような行動によってその計測データが生じたかといった意味的な情報までを含まない。詳細ログには、抽象化ログによって行動の意味が関連付けられる。
 図7は、抽象化行動ログDB143に記録される仮想世界における抽象化ログの例を示す図である。図7に示されるように、抽象化ログ143-1は、仮想世界における抽象化ログを識別するためのIDである「抽象化ログID」と、プレイヤを識別するためのIDである「プレイヤID」と、当該抽象化ログが収集された「日時」と、行動の「主体」と、プレイヤの行動を示す「行動ラベル」と、行動の「客体」とを含む。
 「主体」は、主にプレイヤである。また、「プレイヤID」には、アバタを識別するためのIDが含まれ得る。「行動ラベル」には、客体と主体との関係を示す関係ラベルが含まれ得る。
 仮想世界においては、イベントの発生タイミングおよびイベントにおける抽象的な行動などが事前に定義されている。そのため、記録制御部121は、事前に定義されたこれらの情報に基づいて抽象的な行動を収集し、抽象化ログとして抽象化行動ログDB143に記録する。さらに、記録制御部121は、その行動が実行されている間のアバタの3次元座標および3次元姿勢などを計測データとして含んだ詳細ログを、詳細行動ログDB141に記録することによって、抽象化ログと詳細ログとを対応付ける。
 図5に示されるように、先行プレイヤに対して計測を行う計測デバイス31が存在しない場合には(S22において「NO」)、S25に動作が移行される。
 (S23.現実世界計測)
 現実世界における行動ログは、仮想世界における行動ログとは異なり、現実世界におけるプレイヤを計測デバイス31によって計測することによって得られる。そこで、記録制御部121は、先行プレイヤに対して計測を行う計測デバイス31が存在する場合には(S22において「YES」)、現実世界における先行プレイヤに対して計測デバイス31によって計測されたデータ(計測データ)を時系列に沿って連続的に収集する(S23)。
 ここで、上記したように、計測デバイス31としては、環境設置型の計測デバイスが用いられ得る。しかし、計測デバイス31は、操作部210に組み込まれていてもよい。記録制御部121は、このようにして収集された計測データに基づいて、現実世界における先行プレイヤの詳細ログを時系列に沿って連続的に収集する。
 例えば、現実世界における詳細ログには、現実世界における先行プレイヤの3次元座標および3次元姿勢などの計測データが含まれてよい。このとき、先行プレイヤの3次元座標は、インターフェース装置20(例えば、スマートフォンなど)に搭載されたGPS(Global Positioning System)機能によって取得されてもよいし、Visual SLAM(Simultaneous Localization and Mapping)機能によって取得されてもよい。また、先行プレイヤの3次元姿勢は、環境設置型のカメラなどによって取得されてもよい。
 その他、現実世界における詳細ログには、計測データの例として、音声が含まれてもよいし、バイタルサインが含まれてもよいし、インターフェース装置20(例えば、ヘッドマウントディスプレイなど)に搭載されたカメラから得られる周辺環境データなどが含まれてもよい。詳細ログに含まれるこれらの計測データは、後に説明する計測データの抽象化の対象となる。
 (S24.計測データ抽象化)
 図4および図5に示されるように、記録制御部121は、現実世界における詳細ログに含まれる計測データを抽象化することに基づいて、現実世界における抽象化ログを生成する(S24)。現実世界における抽象化ログはどのように生成されてもよい。
 一例として、記録制御部121は、現実世界における詳細ログに含まれる計測データから認識される、プレイヤの周辺に存在する物体(人物を含む)とプレイヤとに基づいて、行動の主体、行動の客体、主体と客体との関係を検出することによって、抽象化ログを得る。このような物体間の関係の検出には、機械学習による方法または物体間の3次元的な位置関係を利用する方法などが採用され得る。
 図8は、抽象化行動ログDB143に記録される現実世界における抽象化ログの例を示す図である。図8に示されるように、抽象化ログ143-2は、現実世界における抽象化ログを識別するためのIDである「抽象化ログID」と、プレイヤを識別するためのIDである「プレイヤID」と、当該抽象化ログが収集された「日時」と、行動の「主体」と、プレイヤの行動を示す「行動ラベル」と、行動の「客体」とを含む。
 「主体」は、主にプレイヤである。「行動ラベル」には、客体と主体との関係を示す関係ラベルが含まれ得る。
 物体間の関係の検出によれば、記録制御部121は、一例として図8に示された現実世界における抽象化ログを取得可能である。かかる現実世界における抽象化ログは、仮想世界における抽象化ログと統一的に扱われ得る。このように仮想世界および現実世界それぞれの行動ログが統一的に扱われ得ることによって、仮想と現実との間に高い関連性を有するメタバースにおいて、後続プレイヤに対するより効率的な行動支援が可能になる。
 例えば、メタバース内でのサッカーゲームで勝ちたいという目標に対する行動を支援することを想定する。かかる場合に、仮想世界における行動ログのみを分析したとしても、サッカーゲームを何度もプレイして練習するといったような行動の提案しかできないかもしれない。
 一方、分析対象として現実世界における行動ログも追加することによって、仮想世界におけるサッカーゲームの成績に、現実世界におけるサッカーの経験が大きく関わっていること、サッカーゲームに関する現実世界における情報収集などの行動が大きく関わっていることなどが発見される可能性がある。
 実際に、仮想世界における行動および行動の結果に対して、現実世界における行動が関わっている可能性が高いため、本開示の実施形態に係る技術は、現実世界における行動も分析対象となり得る点が優れていると言える。
 そして、記録制御部121は、収集した行動ログを行動ログDBに記録する(S25)。より詳細に、記録制御部121は、収集した仮想世界および現実世界それぞれにおける詳細ログを詳細行動ログDB141に記録する。さらに、記録制御部121は、収集した仮想世界および現実世界それぞれにおける抽象化ログを抽象化行動ログDB143に記録する。
 このようにして、仮想世界および現実世界それぞれにおける行動ログは、時系列に沿って連続的に収集され、区別なく行動ログDBに記録され続ける。
 (S26.フィードバック情報収集)
 図4および図5に示されるように、記録制御部121は、先行プレイヤの行動ログの収集と並行して、先行プレイヤの行動に対するフィードバック情報も収集する(S26)。フィードバック情報は、先行プレイヤの行動に対するフィードバックとして、先行プレイヤから入力される情報であり得る。そして、記録制御部121は、行動に対するフィードバック情報を行動に対応付けてフィードバックDB142に記録する。
 図9は、フィードバックDB142に記録されるデータの例を示す図である。図9に示されるように、フィードバックDB142に記録されるデータは、フィードバック情報を識別するためのIDである「フィードバックID」と、当該フィードバック情報と関連する抽象化ログを識別するためのIDである「関連抽象化ログID」と、当該フィードバック情報が収集された「日時」と、「フィードバック情報」とを含む。
 フィードバック情報は、行動に対するフィードバックを示す情報であればどのような情報であってもよい。例えば、フィードバック情報には、先行プレイヤが書き込んだコメントなどの明示的なフィードバック情報が含まれてもよい。コメントの書き込み先は、SNS(Social Networking Service)またはチャットなどであってよい。あるいは、フィードバック情報には、バイタルサイン(例えば、心拍数、血圧など)などの暗黙的なフィードバック情報が含まれてもよい。
 フィードバック情報は、後に説明する目標候補の生成に用いられ得る。図5に示されるように、行動ログの収集および計測を継続する場合には(S27において「YES」)、S21に動作が移行される。一方、行動ログの収集および計測を継続しない場合には(S27において「NO」)、行動ログDBの構築が終了する。
 (Step2.目標候補提示)
 このステップでは、提示制御部123が、Step1において収集された先行プレイヤの行動ログと、その行動に対する先行プレイヤからのフィードバック情報とに基づいて、後続プレイヤに提示される目標候補に関する情報を生成する。なお、プレイヤが後続プレイヤに該当することの判定の例については後に説明する。
 図10は、上記Step2に該当する目標候補提示における処理の流れの例を示すフローチャートである。図10に示されるように、情報取得部122は、先行プレイヤの行動ログおよび行動に対する先行プレイヤからのフィードバック情報を取得する(S31)。より詳細に、情報取得部122は、詳細行動ログDB141から詳細ログを取得し、抽象化行動ログDB143から抽象化ログを取得し、フィードバックDB142から(フィードバック情報を含んだ)情報を取得する。
 (S32.目標候補生成)
 図4および図10に示されるように、提示制御部123は、先行プレイヤの行動ログとフィードバック情報とに基づいて、後続プレイヤに提示される目標候補を決定する(S32)。これによって、変化し続けるメタバースにおいても、メタバースの変化に追従した目標候補の設定が可能になる。
 ここで、目標候補はどのようにして決定されてもよい。一例として、提示制御部123は、所定の指標(以下、「顕著性の指標」とも言う。)が所定の数以上であるフィードバック情報を顕著性の高いフィードバック情報として抽出し、顕著性の高いフィードバック情報に対応付けられた行動を目標候補として決定してもよい。
 このとき、顕著性の高いフィードバック情報は、個々の先行プレイヤから得られるフィードバック情報に基づいて抽出されてもよい。あるいは、顕著性の高いフィードバック情報は、複数の先行プレイヤから得られるフィードバック情報の統計データ(例えば、合計値、平均値など)に基づいて抽出されてもよい。
 顕著性の指標は、具体的にどのような指標であってもよい。一例として、顕著性の指標は、先行プレイヤの心拍数を含んでもよい。あるいは、顕著性の指標は、先行プレイヤから書き込まれたコメント数を含んでもよい。あるいは、顕著性の指標は、先行プレイヤから書き込まれたコメントにおける所定のワードの数を含んでもよい。なお、顕著性の指標には、典型的にはポジティブな指標が含まれ得るが、ネガティブな指標も含まれ得る。
 より詳細に、典型的には後続プレイヤが新規のプレイヤである場合が想定されるため、所定のワードは、新規のプレイヤにより好まれるポジティブなワード(例えば、問題を簡単に解く方法に関する情報など)であるのが望ましいと考えられる。しかし、後続プレイヤが熟練のプレイヤである場合も想定され得る。したがって、所定のワードは、熟練のプレイヤにより好まれるネガティブなワード(例えば、難易度の高い問題に関する情報、難易度の高いゲームに関する情報など)であってもよい。
 (S33.目標候補提示判断)
 図4および図10に示されるように、提示制御部123は、目標候補を提示すべきか否かを判断する(S33)。より詳細に、提示制御部123は、目標候補の提示条件が満たされるか否かによって目標候補を提示すべきか否かを判断する。例えば、提示制御部123は、目標候補の提示条件が満たされたプレイヤを後続プレイヤであると判定する。後に説明するように、後続プレイヤは、目標候補に関する情報の提示されるプレイヤとなる。
 目標候補の提示条件の例としては、様々な条件が想定され得る。例えば、目標候補の提示条件として、以下の目標候補の提示条件1~3の少なくともいずれか一つが適用され得る。
(1)目標候補の提示条件1:プレイヤから提示指示があった場合
 目標候補の提示条件は、プレイヤから行動目標に関する情報の提示指示が操作部210に対して入力されたという条件を含んでもよい。この目標候補の提示条件1は、プレイヤが能動的に目標候補に関する情報の提示を受けたい場合にプレイヤによって用いられ得る。
(2)目標候補の提示条件2:プレイヤが迷っていると判断される場合
 目標候補の提示条件は、プレイヤが迷っているという条件を含んでもよい。目標候補に関する情報がプレイヤに提示される前におけるプレイヤの行動(第2の行動)が情報取得部122によって取得される場合が想定される(S47)。かかる場合、一例として、プレイヤが迷っているという条件は、当該プレイヤの行動が、抽象化行動ログDB143に記録された1または複数の(行動ラベルが示す)行動の統計データに応じた所定の行動とは異なるという条件であってもよい。
 なお、迷っているか否かが判断される当該プレイヤの行動は、先行プレイヤの行動と同様に取得されてよい。すなわち、現実世界における当該プレイヤの行動は、計測デバイス32による計測によって得られた計測データを抽象化することに基づいて取得され得る。仮想世界における当該プレイヤの行動としては、当該プレイヤによって操作されるアバタの仮想世界における行動が取得され得る。
 ここで、統計データは、抽象化行動ログDB143に記録されている1または複数の行動が1または複数の先行プレイヤによって実行された行動ごとの度数であってもよい。そして、所定の行動は、抽象化行動ログDB143に記録されている1または複数の行動から度数に応じて選択された行動(例えば、度数が多いほうから所定の順位以内の行動、または、度数が閾値よりも多い行動など)であってもよい。
 なお、上記したように、抽象化行動ログDB143には、現実世界における1または複数の先行プレイヤの行動ログが記録され得る。さらに、抽象化行動ログDB143には、先行プレイヤによって操作されるアバタの行動ログが記録され得る。すなわち、抽象化行動ログDB143には、現実世界における先行プレイヤの行動ログおよび仮想世界における先行プレイヤの行動ログの少なくともいずれか一方が記録されており、これらの行動ログが、プレイヤが迷っているかの判断に用いられる。
 他の一例として、プレイヤが迷っているという条件は、プレイヤから発せられた情報があらかじめ定められた所定の情報であるという条件を含んでもよい。例えば、プレイヤから発せられた情報は、音声情報であってもよく、所定の情報は、迷いを示す音声情報(例えば、「あれ?」または「どこにいけばいいの?」など)であってもよい。なお、音声情報は、操作部210に含まれるマイクロフォンによって検出され、情報取得部122によって取得される。
(2)目標候補の提示条件3:フィードバック情報が増加した場合
 目標候補の提示条件は、目標候補に対応して1または複数の先行プレイヤから得られたフィードバック情報の顕著性の指標が急激に増加したという条件を含んでもよい。かかる条件を満たす目標候補は提示される価値を有すると考えられるからである。急激に増加したという条件は、所定の時間以内に得られたフィードバック情報の顕著性の指標が所定の数以上であるという条件であってもよい。
 (S36.目標候補提示)
 図10に示されるように、提示制御部123は、目標候補を提示しないと判断した場合には(S34において「NO」)、S31に動作を移行させる。一方、提示制御部123は、目標候補を提示すると判断した場合には(S34において「YES」)、目標候補を提示すると判断したことに基づいて、目標候補に関する情報の後続プレイヤへの提示を制御する(S36)。
 なお、目標候補に関する情報の提示制御は、目標候補に関する情報が後続プレイヤのインターフェース装置20に送信されるように通信部160を制御することによって実現され得る。後続プレイヤのインターフェース装置20においては、通信部260によって目標候補に関する情報が受信され、提示部280によって目標候補に関する情報が後続プレイヤに提示される。
 目標候補は、目標候補に関する情報の提示を受ける後続プレイヤに依存せずに画一的に決定されてもよいし、後続プレイヤに依存して決定されてもよい。一例として、目標候補は、後続プレイヤの属性情報(例えば、年齢、性別、趣味嗜好など)に基づいて決定されてもよい(目標候補に対するフィルタリングが行われてもよい)。すなわち、提示制御部123は、後続プレイヤから属性情報が入力された場合(S35)、後続プレイヤの属性情報に基づいて、先行プレイヤの行動ログに含まれる1または複数の行動から目標候補を決定してもよい。なお、趣味嗜好には、現実世界における目標候補のみの提示を希望すること、仮想世界における目標候補のみの提示を希望することなどが含まれてもよい。
 先行プレイヤの行動ログに含まれる1または複数の行動それぞれに、属性情報が対応付けられている場合が想定される。かかる場合、提示制御部123は、当該1または複数の行動のうち、後続プレイヤの属性情報と一致または類似する属性情報に対応付けられた行動を目標候補として決定してもよい。あるいは、提示制御部123は、当該1または複数の行動のうち、後続プレイヤの属性情報との類似度が近い属性情報に対応付けられた行動から優先して目標候補として決定してもよい。
 後続プレイヤに提示される目標候補に関する情報は、どのように生成されてもよい。例えば、目標候補に関する情報は、目標候補を達成した1または複数の先行プレイヤから得られた情報を含んでもよい。かかる情報は、目標候補を達成したときの先行プレイヤを写したスクリーンショットを含んでもよいし、目標候補を達成したときの先行プレイヤから得られたフィードバック情報を含んでもよいし、目標候補を達成したときの先行プレイヤから得られた顕著性の情報(例えば、「良い」「悪い」などといった評価など)を含んでもよい。
 かかる目標候補に関する情報の生成手法は、先行プレイヤが能動的に入力したコメントなどが存在する場合に適した手法である。
 図11は、目標候補提示画面の例を示す図である。図11を参照すると、目標候補提示画面G10が示されている。一例として、提示制御部123は、目標候補提示画面G10の後続プレイヤへの提示を制御する。なお、図11に示された例では、3つの目標候補に対応するスクリーンショットG11~G13、コメント「サッカーの試合にて優勝」「美味しい料理をつくる」「山頂にたどり着く」が目標候補提示画面G10に含まれている。
 また、目標候補に関する情報は、先行プレイヤの目標候補の達成に関する行動ログに基づいて生成される情報を含んでもよい。かかる情報は、先行プレイヤの行動ログから生成された目標候補を達成したときの情景を含んでもよい。例えば、情景は、先行プレイヤの詳細ログに含まれる周辺環境データ、および、先行プレイヤの抽象化ログに含まれる物体間の位置関係などに基づいて、CG(コンピュータグラフィックス)により生成されてもよい。また、かかる情報は、先行プレイヤの抽象化ログから生成される「AがBにCをした」といったような状況説明文を含んでもよいし、目標候補を達成したときの先行プレイヤから得られた顕著性の情報を含んでもよい。
 かかる目標候補に関する情報の生成手法は、先行プレイヤが目標候補を達成した場所が、現実世界において他のプレイヤが入れない場所である場合、または、プライベートな空間である場合などに適した手法である。このように、目標候補の達成される場所が、物理的に後続プレイヤの到達できない現実世界の場所であったとしても、抽象化ログの活用によって、先行プレイヤの体験と同質の体験を後続プレイヤが達成し得るように目標候補が提示され得る。
 (Step3.行動候補提示)
 このステップでは、提示制御部123が、後続プレイヤによっていずれかの目標候補が選択されたことに基づいて、行動候補に関する情報の後続プレイヤへの提示を制御する。さらに、このステップでは、提示制御部123が、後続プレイヤによっていずれかの行動候補が選択されたことに基づいて、模範行動に関する情報の後続プレイヤへの提示を制御する。
 図12は、上記Step3に該当する行動候補提示における処理の流れの例を示すフローチャートである。図4および図12に示されるように、後続プレイヤは、1または複数の目標候補のいずれかを選択する(S41)。
 (S42.目標関連行動ログ収集)
 図4および図12に示されるように、情報取得部122は、後続プレイヤによって選択された目標候補を達成した先行プレイヤの行動ログおよび行動に対する先行プレイヤからのフィードバック情報を取得する(S42)。より詳細に、情報取得部122は、詳細行動ログDB141から詳細ログを取得し、抽象化行動ログDB143から抽象化ログを取得し、フィードバックDB142から(フィードバック情報を含んだ)情報を取得する。
 (S43.行動ログ統計処理)
 提示制御部123は、後続プレイヤによって選択された目標候補を達成した先行プレイヤの行動ログに基づいて、先行プレイヤによる当該目標候補の達成につながる複数の行動の時系列データを行動系列として取得する。例えば、目標候補の達成につながる行動系列は、抽象化ログに含まれる先行プレイヤの1または複数の行動のうち、目標候補に達するまでに続いて実行された行動であってよい。
 図4および図12に示されるように、提示制御部123は、複数の行動系列に対して統計処理を行って行動候補を決定する(S43)。より詳細に、提示制御部123は、複数の行動系列とその行動系列に対応するフィードバック情報とを、所定のパラメータを軸とする特徴空間(多次元特徴空間)に行動系列ごとにマッピングする。そして、提示制御部123は、特徴空間にマッピングされた複数の行動系列に対するクラスタリングを行う。
 ここで、所定のパラメータは、目標達成に要する時間、操作難易度、敵の多さ、および、楽しさの少なくともいずれか一つを含んでもよい。なお、目標達成に要する時間は、先行プレイヤの目標達成までの平均的な時間から計算され得る。操作難易度、敵の多さなどは、アプリケーションから取得され得る。また、楽しさは、先行プレイヤのフィードバック情報などから取得され得る。
 (S44.行動クラスタラベル付与)
 図4および図12に示されるように、提示制御部123は、クラスタリングによって生じる複数のクラスタそれぞれにラベルを付する(S44)。クラスタに付されるラベルとしては、そのクラスタに顕著なパラメータが用いられてもよい。例えば、目標達成に要する時間が最短のクラスタには、パラメータ「目標達成に要する時間」に対応する「最短目標達成コース」がラベルとして付されてもよい。
 (S45.行動候補提示)
 図4および図12に示されるように、提示制御部123は、目標候補を達成した1または複数の先行プレイヤの複数の行動系列に応じた行動候補に関する情報の後続プレイヤへの提示を制御する。例えば、行動候補に関する情報は、上記のようにクラスタに付与されたラベルを含んでもよい。また、行動候補に関する情報は、目標候補に関する情報と同様に、目標候補を達成した1または複数の先行プレイヤから得られた情報を含んでもよいし、先行プレイヤの目標候補の達成に関する行動ログに基づいて生成される情報を含んでもよい。
 図13は、行動候補提示画面の例を示す図である。図13を参照すると、行動候補提示画面G20が示されている。一例として、提示制御部123は、行動候補提示画面G20の後続プレイヤへの提示を制御する。なお、図13に示された例では、2つのクラスタ(行動候補)に対応するスクリーンショットG21~G22、ラベルに関する情報「短期目標達成コース」「のんびりコース」が行動候補提示画面G20に含まれている。
 (S46.模範行動例示)
 そして、行動候補のいずれかが後続プレイヤによって選択される。ここで、行動候補は、複数の行動の時系列データである。そこで、提示制御部123は、後続プレイヤによって行動候補が選択された場合に、選択された行動候補のうち後続プレイヤの現在の行動に対応する行動を模範行動として取得する。そして、提示制御部123は、模範行動に関する情報の後続プレイヤへの提示を制御する。これによって、後続プレイヤによる円滑な目標達成が支援され得る。提示制御部123は、後続プレイヤの行動の変化に従って、模範行動を変化させる。
 図14は、模範行動例示画面の例を示す図である。図14を参照すると、模範行動例示画面G30が示されている。一例として、提示制御部123は、模範行動例示画面G30の後続プレイヤへの提示を制御する。なお、図14に示された例では、後続プレイヤによって現在操作されているアバタG31が表示されている。アバタG31は、アバタG33とともにサッカーの試合をしている。そして、模範行動を行う仮想オブジェクトG32が提示されている。模範行動を行う仮想オブジェクトG32は、ゴーストとも表現され得る。
 なお、後続プレイヤに模範行動が例示される空間は、必ずしも先行プレイヤが行動した空間と一致するとは限らない。そこで、空間同士が一致しない場合であっても、ゴーストを後続プレイヤの空間に応じて模範行動させる公知の技術が適用されてもよい。また、提示制御部123は、後続プレイヤの仮想世界または現実世界での行動が計測されている場合には(S47)、計測データに基づいて、後続プレイヤが迷っていると判断したタイミングまたは間違った方向に進もうとしたタイミングに、ゴーストを提示させてもよい。これによって目標から逸脱した行動が抑制され得る。
 また、模範行動に関する情報は、ゴーストでなくてもよい。例えば、模範行動に関する情報は、模範行動を説明する各種情報(例えば、模範行動をするプレイヤが進む方向を示す矢印、模範行動を説明するテキスト情報など)であってもよい。
 (S48.目標達成判断)
 情報取得部122は、後続プレイヤの行動(第1の行動)を取得する。後続プレイヤの行動には、現実世界における後続プレイヤの行動および後続プレイヤによって操作されるアバタ(仮想オブジェクト)の行動の少なくともいずれか一方が含まれ得る。そして、図12に示されるように、提示制御部123は、後続プレイヤの行動と後続プレイヤによって選択された目標候補とに基づいて、後続プレイヤが目標候補を達成したか否かを判断する(S48)。
 提示制御部123は、後続プレイヤが目標候補を達成していないと判断した場合には(S48において「NO」)、S42に動作が移行される。一方、提示制御部123は、後続プレイヤが目標候補を達成したと判断した場合には(S48において「YES」)、行動候補の提示を終了する。
 以上、本開示の実施形態に係る情報処理システム1の機能詳細について説明した。
 <2.ハードウェア構成例>
 続いて、図15を参照して、本開示の実施形態に係る情報処理装置10の例としての情報処理装置900のハードウェア構成例について説明する。図15は、情報処理装置900のハードウェア構成例を示すブロック図である。なお、情報処理装置10は、必ずしも図15に示したハードウェア構成の全部を有している必要はなく、情報処理装置10の中に、図15に示したハードウェア構成の一部は存在しなくてもよい。
 図15に示すように、情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換され得る。
 通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 <3.まとめ>
 本開示の実施形態によれば、所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、を備える、情報処理装置が提供される。かかる構成によれば、ユーザの行動がより効率よく支援され得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、
 前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、
 を備える、情報処理装置。
(2)
 前記提示制御部は、前記第1の行動と前記行動目標とに基づいて、前記第1のユーザが前記行動目標を達成したか否かを判断する、
 前記(1)に記載の情報処理装置。
(3)
 前記情報取得部は、前記行動目標に関する情報が提示される前における前記第1のユーザの第2の行動を取得し、
 前記所定の条件は、前記第2の行動が行動ログデータベースに記録されている1または複数の行動の統計データに応じた所定の行動とは異なるという条件を含む、
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記統計データは、前記行動ログデータベースに記録されている前記1または複数の行動が1または複数の第2のユーザによって実行された行動ごとの度数であり、
 前記所定の行動は、前記1または複数の行動から前記度数に応じて選択された行動である、
 前記(3)に記載の情報処理装置。
(5)
 前記行動ログデータベースには、実空間における前記第2のユーザの行動および前記第2のユーザによって操作される仮想オブジェクトの行動の少なくともいずれか一方が前記1または複数の行動として記録されている、
 前記(4)に記載の情報処理装置。
(6)
 前記所定の条件は、前記第1のユーザから発せられた情報があらかじめ定められた所定の情報であるという条件を含む、
 前記(1)または(2)に記載の情報処理装置。
(7)
 前記所定の条件は、前記第1のユーザから前記行動目標に関する情報の提示指示が入力されたという条件を含む、
 前記(1)または(2)に記載の情報処理装置。
(8)
 前記所定の条件は、前記行動目標に対して1または複数の第2のユーザから所定の時間以内に得られた所定の指標が所定の数以上であるという条件を含む、
 前記(1)または(2)に記載の情報処理装置。
(9)
 前記提示制御部は、行動ログデータベースに記録されている1または複数の行動のうち、1または複数の第2のユーザから得られた所定の指標が所定の数以上である行動を前記行動目標として決定する、
 前記(1)または(2)に記載の情報処理装置。
(10)
 前記所定の指標は、心拍数、コメント数およびコメントにおける所定のワードの数の少なくともいずれか一つを含む、
 前記(8)または(9)に記載の情報処理装置。
(11)
 前記行動目標に関する情報は、前記行動目標を達成した1または複数の第2のユーザから得られた情報、および、前記第2のユーザの前記行動目標の達成に関する行動ログに基づいて生成される情報の少なくともいずれか一方を含む、
 前記(1)または(2)に記載の情報処理装置。
(12)
 前記提示制御部は、前記第1のユーザの属性情報に基づいて、行動ログデータベースに記録されている1または複数の行動から前記行動目標を決定する、
 前記(1)または(2)に記載の情報処理装置。
(13)
 前記1または複数の行動それぞれに属性情報が対応付けられており、
 前記提示制御部は、前記1または複数の行動のうち、前記第1のユーザの属性情報と一致または類似する属性情報に対応付けられた行動を前記行動目標として決定する、
 前記(12)に記載の情報処理装置。
(14)
 前記1または複数の行動それぞれに属性情報が対応付けられており、
 前記提示制御部は、前記1または複数の行動のうち、前記第1のユーザの属性情報との類似度が近い属性情報に対応付けられた行動から優先して前記行動目標として決定する、
 前記(12)に記載の情報処理装置。
(15)
 前記第1の行動は、実空間における前記第1のユーザの行動および前記第1のユーザによって操作される仮想オブジェクトの行動の少なくともいずれか一方を含む、
 前記(1)または(2)に記載の情報処理装置。
(16)
 前記提示制御部は、前記第1のユーザによって前記行動目標が選択された場合に、前記行動目標を達成した1または複数の第2のユーザの複数の行動系列に応じた行動候補に関する情報の前記第1のユーザへの提示を制御する、
 前記(1)または(2)に記載の情報処理装置。
(17)
 前記提示制御部は、前記複数の行動系列を所定のパラメータを軸とする特徴空間に行動系列ごとにマッピングし、前記特徴空間にマッピングされた前記複数の行動系列に対するクラスタリングによって生じる複数のクラスタそれぞれにラベルを付し、前記行動候補に関する情報として前記ラベルの前記第1のユーザへの提示を制御する、
 前記(16)に記載の情報処理装置。
(18)
 前記提示制御部は、前記第1のユーザによって前記行動候補が選択された場合に、前記行動候補のうち前記第1のユーザの現在の行動に対応する行動に関する情報の前記第1のユーザへの提示を制御する、
 前記(16)または(17)に記載の情報処理装置。
(19)
 所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御することと、
 プロセッサが前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得することと、
 を備える、情報処理方法。
(20)
 コンピュータを、
 所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、
 前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、
 を備える情報処理装置として機能させるプログラム。
 1   情報処理システム
 10  情報処理装置
 120 制御部
 121 記録制御部
 122 情報取得部
 123 提示制御部
 140 記憶部
 141 詳細行動ログDB
 142 フィードバックDB
 143 抽象化行動ログDB
 160 通信部
 20  インターフェース装置
 210 操作部
 220 制御部
 240 記憶部
 260 通信部
 280 提示部

Claims (20)

  1.  所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、
     前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、
     を備える、情報処理装置。
  2.  前記提示制御部は、前記第1の行動と前記行動目標とに基づいて、前記第1のユーザが前記行動目標を達成したか否かを判断する、
     請求項1に記載の情報処理装置。
  3.  前記情報取得部は、前記行動目標に関する情報が提示される前における前記第1のユーザの第2の行動を取得し、
     前記所定の条件は、前記第2の行動が行動ログデータベースに記録されている1または複数の行動の統計データに応じた所定の行動とは異なるという条件を含む、
     請求項1に記載の情報処理装置。
  4.  前記統計データは、前記行動ログデータベースに記録されている前記1または複数の行動が1または複数の第2のユーザによって実行された行動ごとの度数であり、
     前記所定の行動は、前記1または複数の行動から前記度数に応じて選択された行動である、
     請求項3に記載の情報処理装置。
  5.  前記行動ログデータベースには、実空間における前記第2のユーザの行動および前記第2のユーザによって操作される仮想オブジェクトの行動の少なくともいずれか一方が前記1または複数の行動として記録されている、
     請求項4に記載の情報処理装置。
  6.  前記所定の条件は、前記第1のユーザから発せられた情報があらかじめ定められた所定の情報であるという条件を含む、
     請求項1に記載の情報処理装置。
  7.  前記所定の条件は、前記第1のユーザから前記行動目標に関する情報の提示指示が入力されたという条件を含む、
     請求項1に記載の情報処理装置。
  8.  前記所定の条件は、前記行動目標に対して1または複数の第2のユーザから所定の時間以内に得られた所定の指標が所定の数以上であるという条件を含む、
     請求項1に記載の情報処理装置。
  9.  前記提示制御部は、行動ログデータベースに記録されている1または複数の行動のうち、1または複数の第2のユーザから得られた所定の指標が所定の数以上である行動を前記行動目標として決定する、
     請求項1に記載の情報処理装置。
  10.  前記所定の指標は、心拍数、コメント数およびコメントにおける所定のワードの数の少なくともいずれか一つを含む、
     請求項8に記載の情報処理装置。
  11.  前記行動目標に関する情報は、前記行動目標を達成した1または複数の第2のユーザから得られた情報、および、前記第2のユーザの前記行動目標の達成に関する行動ログに基づいて生成される情報の少なくともいずれか一方を含む、
     請求項1に記載の情報処理装置。
  12.  前記提示制御部は、前記第1のユーザの属性情報に基づいて、行動ログデータベースに記録されている1または複数の行動から前記行動目標を決定する、
     請求項1に記載の情報処理装置。
  13.  前記1または複数の行動それぞれに属性情報が対応付けられており、
     前記提示制御部は、前記1または複数の行動のうち、前記第1のユーザの属性情報と一致または類似する属性情報に対応付けられた行動を前記行動目標として決定する、
     請求項12に記載の情報処理装置。
  14.  前記1または複数の行動それぞれに属性情報が対応付けられており、
     前記提示制御部は、前記1または複数の行動のうち、前記第1のユーザの属性情報との類似度が近い属性情報に対応付けられた行動から優先して前記行動目標として決定する、
     請求項12に記載の情報処理装置。
  15.  前記第1の行動は、実空間における前記第1のユーザの行動および前記第1のユーザによって操作される仮想オブジェクトの行動の少なくともいずれか一方を含む、
     請求項1に記載の情報処理装置。
  16.  前記提示制御部は、前記第1のユーザによって前記行動目標が選択された場合に、前記行動目標を達成した1または複数の第2のユーザの複数の行動系列に応じた行動候補に関する情報の前記第1のユーザへの提示を制御する、
     請求項1に記載の情報処理装置。
  17.  前記提示制御部は、前記複数の行動系列を所定のパラメータを軸とする特徴空間に行動系列ごとにマッピングし、前記特徴空間にマッピングされた前記複数の行動系列に対するクラスタリングによって生じる複数のクラスタそれぞれにラベルを付し、前記行動候補に関する情報として前記ラベルの前記第1のユーザへの提示を制御する、
     請求項16に記載の情報処理装置。
  18.  前記提示制御部は、前記第1のユーザによって前記行動候補が選択された場合に、前記行動候補のうち前記第1のユーザの現在の行動に対応する行動に関する情報の前記第1のユーザへの提示を制御する、
     請求項16に記載の情報処理装置。
  19.  所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御することと、
     プロセッサが前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得することと、
     を備える、情報処理方法。
  20.  コンピュータを、
     所定の条件が満たされたことに基づいて行動目標に関する情報の第1のユーザへの提示を制御する提示制御部と、
     前記行動目標に関する情報が提示された後における前記第1のユーザの第1の行動を取得する情報取得部と、
     を備える情報処理装置として機能させるプログラム。
PCT/JP2022/000901 2021-04-22 2022-01-13 情報処理装置、情報処理方法およびプログラム WO2022224504A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112022002274.4T DE112022002274T5 (de) 2021-04-22 2022-01-13 Datenverarbeitungseinrichtung, datenverarbeitungsverfahren und programm
US18/554,321 US20240184498A1 (en) 2021-04-22 2022-01-13 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021072624 2021-04-22
JP2021-072624 2021-04-22

Publications (1)

Publication Number Publication Date
WO2022224504A1 true WO2022224504A1 (ja) 2022-10-27

Family

ID=83723446

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000901 WO2022224504A1 (ja) 2021-04-22 2022-01-13 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20240184498A1 (ja)
DE (1) DE112022002274T5 (ja)
WO (1) WO2022224504A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088861A (ja) * 2011-10-13 2013-05-13 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2020179283A (ja) * 2020-08-12 2020-11-05 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5366173B2 (ja) 2008-02-28 2013-12-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 操作支援サーバ装置、操作支援方法およびコンピュータ・プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088861A (ja) * 2011-10-13 2013-05-13 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2020179283A (ja) * 2020-08-12 2020-11-05 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム

Also Published As

Publication number Publication date
US20240184498A1 (en) 2024-06-06
DE112022002274T5 (de) 2024-04-04

Similar Documents

Publication Publication Date Title
US11052321B2 (en) Applying participant metrics in game environments
US20230105027A1 (en) Adapting a virtual reality experience for a user based on a mood improvement score
US20240152548A1 (en) Electronic apparatus for searching related image and control method therefor
LaViola Jr 3d gestural interaction: The state of the field
US10860345B2 (en) System for user sentiment tracking
US9244533B2 (en) Camera navigation for presentations
CN109074166A (zh) 使用神经数据改变应用状态
JP6683938B2 (ja) 採点支援プログラム、採点支援装置および採点支援方法
JP2022525829A (ja) 神経筋データに基づく制御スキームのためのシステムおよび方法
US20240082734A1 (en) In-game resource surfacing platform
CN103218041A (zh) 增强的基于相机的输入
JP2015153101A (ja) 情報共有システム、情報処理装置、プログラム及び情報共有方法
LaViola Jr Context aware 3D gesture recognition for games and virtual reality
CN102918518A (zh) 基于云的个人特征简档数据
EP3352051A1 (en) Information processing device, information processing method, and program
JP2015150172A (ja) 情報共有システム、情報処理装置、プログラム及び情報共有方法
US11741986B2 (en) System and method for passive subject specific monitoring
JPWO2015098304A1 (ja) 解析装置、記録媒体および解析方法
US10600329B2 (en) Providing live feedback using a wearable computing device
KR20180043866A (ko) 웨어러블 디바이스와의 연동을 통한 컨텐츠 소비 방법 및 시스템
WO2022224504A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN110446996A (zh) 一种控制方法、终端及系统
CN118103835A (zh) 对情绪进行视觉标记和热映射
Schade et al. On the advantages of hand gesture recognition with data gloves for gaming applications
CN112788390A (zh) 一种基于人机交互的控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22791291

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18554321

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112022002274

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22791291

Country of ref document: EP

Kind code of ref document: A1