WO2020003670A1 - 情報処理装置、および情報処理方法 - Google Patents

情報処理装置、および情報処理方法 Download PDF

Info

Publication number
WO2020003670A1
WO2020003670A1 PCT/JP2019/013846 JP2019013846W WO2020003670A1 WO 2020003670 A1 WO2020003670 A1 WO 2020003670A1 JP 2019013846 W JP2019013846 W JP 2019013846W WO 2020003670 A1 WO2020003670 A1 WO 2020003670A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
situation
behavior
user
history information
Prior art date
Application number
PCT/JP2019/013846
Other languages
English (en)
French (fr)
Inventor
亮 中橋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020527215A priority Critical patent/JP7375751B2/ja
Priority to US17/254,920 priority patent/US20210260482A1/en
Publication of WO2020003670A1 publication Critical patent/WO2020003670A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/305Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Definitions

  • the present disclosure relates to an information processing device and an information processing method.
  • Non-Patent Document 1 a training application in which a user learns a technique while taking steps one by one.
  • the training application is uniform, and it has been difficult to provide advice information according to the behavior of the user.
  • the present disclosure proposes an information processing apparatus and an information processing method that can provide advice information according to the behavior of a user.
  • an information processing apparatus includes an extraction unit configured to extract a specific situation of a content whose situation changes according to the behavior of the user, based on a behavior model of the user. And an output control unit that outputs advice information on the specific situation.
  • FIG. 1 is a schematic diagram illustrating an example of an information processing system according to a first embodiment of the present disclosure, a modification of the first embodiment, and a second embodiment.
  • FIG. 2 is a schematic diagram illustrating an example of content according to the first embodiment of the present disclosure.
  • FIG. 1 is a diagram illustrating an example of a functional block diagram of an information processing device and a terminal device according to a first embodiment and a second embodiment of the present disclosure.
  • FIG. 2 is a schematic diagram illustrating an example of a data configuration of first action history information and second action history information according to the first embodiment of the present disclosure.
  • FIG. 4 is an explanatory diagram illustrating an example of extraction of an occurrence factor according to the first embodiment of the present disclosure.
  • FIG. 1 is a schematic diagram illustrating an example of an information processing system according to a first embodiment of the present disclosure, a modification of the first embodiment, and a second embodiment.
  • FIG. 2 is a schematic diagram illustrating an example of content according to the first embodiment of the present disclosure.
  • FIG. 2 is a schematic diagram illustrating an example of a display screen according to the first embodiment of the present disclosure.
  • 5 is a flowchart illustrating an example of an information processing procedure according to the first embodiment of the present disclosure.
  • 5 is a flowchart illustrating an example of a procedure of an output process according to the first embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of a functional block diagram of an information processing device and a terminal device according to a modified example of the first embodiment of the present disclosure.
  • FIG. 11 is an explanatory diagram illustrating an example of generation of third action history information according to a modified example of the first embodiment of the present disclosure.
  • 11 is a flowchart illustrating an example of a procedure of information processing according to a modified example of the first embodiment of the present disclosure.
  • FIG. 10 is a schematic diagram illustrating an example of a display screen according to a second embodiment of the present disclosure.
  • 13 is a flowchart illustrating an example of an information processing procedure according to the second embodiment of the present disclosure.
  • FIG. 1 is a hardware configuration diagram illustrating an example of a computer that realizes functions of an information processing device and a terminal device according to the present disclosure.
  • FIG. 1 is a schematic diagram illustrating an example of an information processing system 1 according to the present embodiment.
  • the information processing system 1 includes an information processing device 10 and a terminal device 12.
  • the information processing device 10 and the terminal device 12 are communicably connected via a network N.
  • the information processing device 10 and the terminal device 12 need only be communicably connected wirelessly or by wire, and the communication mode is not limited.
  • the information processing device 10 is a device that provides advice information on content according to the behavior of the user U.
  • Content is an event whose situation changes according to the behavior of the user U.
  • the content is an application program that changes the situation in the content according to the input action of the user U and outputs the changed situation.
  • the content is represented by a set of changes in the situation with respect to the behavior of the user U.
  • the content outputs situation information indicating a changed situation according to the action signal.
  • the action signal may be simply referred to as action
  • the situation information may be referred to simply as situation.
  • the content is a game executed on a computer.
  • the game indicates a simulation game or a computer game in which a real event or experience progresses virtually.
  • FIG. 2 is a schematic diagram showing an example of the content 32.
  • the content 32 is a drive game 32A, an action game 32B, a board game 32C, a board game 32D, a sports game 32E, and the like.
  • the drive game 32A is a game in which a vehicle runs in a virtual space.
  • the action game 32B is a game in which the situation in the game changes according to the movement of the character.
  • the board game 32C is a Go board game.
  • the board game 32D is a shogi board game.
  • the sports game 32E is a game indicating a sport such as a game or competition.
  • the type of the content 32 is not limited to these.
  • the content 32 may be an application program for simulation that virtually executes a real event or experience such as a sport or a vehicle running in the real world.
  • the content 32 may be an application program that simply executes a part of an event performed in the real world. That is, the content 32 may provide an event such as a sport performed by the user U in the real space as a program that simulates at least a part of the event.
  • the information processing device 10 of the present embodiment outputs advice information according to the behavior of the user U with respect to the content 32. Details of the action and advice information of the user U will be described later. In the present embodiment, the information processing device 10 outputs the advice information by transmitting the advice information to the terminal device 12. Details of the information processing device 10 will be described later.
  • the terminal device 12 is a device that outputs the advice information received from the information processing device 10.
  • a program (hereinafter, referred to as a game program) for implementing the content 32 is installed in the terminal device 12 in advance.
  • the terminal device 12 outputs the advice information at a predetermined timing such as when the content 32 is executed or before execution.
  • the terminal device 12 may be any device that can output the advice information received from the information processing device 10 in a form that the user U can check. Further, from the viewpoint of outputting the advice information at the time of executing the content 32 or before the execution, the terminal device 12 is preferably a device capable of executing the content 32 and capable of outputting the advice information.
  • FIG. 1 shows a game device 12A and a portable terminal 12B as examples of the terminal device 12.
  • the game device 12A is a device that executes a game as an example of the content 32.
  • the game device 12A has, for example, a ROM (Read Only Memory) drive, and operates as the game device 12A by inserting a game ROM into the ROM drive and executing a game program.
  • the game device 12A can also operate as an emulation device that executes an image file of the game program by activating the emulator program.
  • the emulator program may be obtained via the network N, or may be pre-installed at the time of shipment.
  • the output unit 14 and the input unit 16 are connected to the game device 12A by wire or wirelessly.
  • the input unit 16 is an input interface device for the user U to perform an operation input to the game device 12A.
  • the input unit 16 outputs an operation signal according to the operation instruction of the user U to the game device 12A.
  • the input unit 16 is a controller, a keyboard, a touch panel, a pointing device, a mouse, an input button, and the like.
  • the output unit 14 is a display for displaying various images.
  • the output unit 14 is, for example, a known LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence).
  • the output unit 14 may further have a speaker function of outputting sound in addition to the image display function.
  • the portable terminal 12B is a terminal device 12 that can be carried by the user U.
  • the mobile terminal 12B is, for example, a tablet terminal or a smartphone.
  • the mobile terminal 12B includes a UI (user interface) unit 26.
  • the UI unit 26 receives various operation inputs from the user U and outputs various information.
  • the UI unit 26 includes an output unit 26A and an input unit 26B.
  • the output unit 26A displays various information.
  • the output unit 26A is an organic EL, an LCD, or the like. Note that the output unit 26A may include a speaker function of outputting sound in addition to the display function.
  • the input unit 26B receives various operation inputs from the user U.
  • the input unit 26B outputs an operation signal according to the operation instruction of the user U to the control unit of the mobile terminal 12B.
  • the input unit 26B is, for example, a keyboard, a pointing device, a mouse, an input button, and the like.
  • the output unit 26A and the input unit 26B may be integrally configured to form a touch panel.
  • FIG. 3 is an example of a functional block diagram of the information processing device 10 and the terminal device 12.
  • the information processing apparatus 10 includes a control unit 18, a storage unit 20, and a communication unit 22.
  • the storage unit 20, the communication unit 22, and the control unit 18 are connected so that data and signals can be exchanged.
  • the communication unit 22 is a communication interface for communicating with various devices such as the terminal device 12 via the network N.
  • the storage unit 20 stores various information.
  • the storage unit 20 stores first action history information 20A, second action history information 20B, and an action model DB 20C.
  • the first action history information 20A is information indicating a history of actions of the first user U1.
  • the second action history information 20B is information indicating a history of actions of the second user U2.
  • the first user U1 and the second user U2 are examples of the user U.
  • the second user U2 is a user U who has a higher level of proficiency and skill in the content 32 than the first user U1. Note that, when the first user U1 and the second user U2 are collectively described, they will be simply referred to as the user U.
  • FIG. 4 is a schematic diagram showing an example of a data configuration of the first action history information 20A and the second action history information 20B.
  • the first action history information 20A and the second action history information 20B are represented by a set of correspondence between the situation s of the content 32 and the behavior a of the user U with respect to the situation s.
  • the status s of the content 32 indicates an environment provided by the content 32.
  • the situation s is, specifically, a screen output during the game, a position and an activity state of a character moving in response to an operation instruction by the user U in the game, a state of a surrounding environment other than the character, a progress state of the game, And a game score.
  • the state of the surrounding environment includes the position and state of an object other than the character in the game, the brightness, the weather, and the like.
  • the content 32 may provide an event such as a sport performed by the user U in the real space as a program that simulates at least a part of the event.
  • the situation s may be information indicating the state of the real space.
  • the state of the real space may be any environment that changes according to the action of the user U.
  • the action a of the user U is represented by an action signal indicating the action of the user U.
  • the action signal is information indicating an action a such as an operation instruction of the input unit 16 by the user U, and a movement (action a) of at least a part of the body of the user U.
  • the action a indicated in the first action history information 20A and the second action history information 20B is an action signal input by the user U operating the input unit 16 with respect to the situation s provided by the content 32
  • Information indicating at least one of a detection result of an action signal indicating movement of at least a part of the body of the user U in the real space may be used.
  • the action signal indicating at least a part of the movement of the body of the user U includes, for example, a detection result detected by a known image processing technique for detecting the movement of at least a part of the body of the user U or a technique using a known sensor detection. May be used.
  • the history information of the action a of the user U indicated in the first action history information 20A and the second action history information 20B indicates that the user U It may be history information when operation input is performed using the unit 26B or the like.
  • the history information of the action a of the user U shown in the first action history information 20A and the second action history information 20B is the history information when the user U performs an operation such as a sport corresponding to the content 32 in the real space. It may be.
  • the content 32 is changed from the status s of the content 32 to the next status s by the user U's operation instruction such as the operation instruction of the input unit 16 or the movement of the body. That is, the content 32 outputs the changed situation s according to the input action a. Further, the situation s changes to the next situation s according to the action a of the user U with respect to the situation s after the change. By this repetition, a game or a story provided by the content 32 progresses.
  • At least one of the first action history information 20A and the second action history information 20B may be a time series set corresponding to the situation s and the action a of the user U. That is, at least one of the first action history information 20A and the second action history information 20B may be a time-series set indicating the correspondence between the situation s and the action a for each time-series timing.
  • the time series set may be a continuous or stepwise time series set, or may be a discrete time series set.
  • the action a of the first user U1 will be described as a first action aa.
  • the behavior a of the second user U2 will be described as a recommended behavior ab.
  • the second user U2 is a user U who has a higher level of proficiency and skill in the content 32 than the first user U1. Therefore, in the present embodiment, the action a of the second user U2 will be described as a recommended action a for the situation s, that is, a recommended action ab.
  • FIG. 4 shows, as an example of the first action history information 20A, a plurality of situations s (situation s1 to situation sm (m is an integer of 2 or more)) corresponding to each timing, and a first user for each situation s.
  • a time series set of the action a performed by U1 (first action aa (first action aa1 to first action aam)) is shown.
  • FIG. 4 shows, as an example of the second action history information 20B, a plurality of situations s (situation s1 to situation sn (n is an integer of 2 or more)) corresponding to each timing, and A set of the action a (recommended action ab (recommended action ab1 to recommended action abn)) performed by two users U2 is shown as an example.
  • the first action history information 20A may be a set of first actions aa derived by inputting the situation s into a first action model learned by the control unit 18 described later.
  • history information obtained by playing the content 32 virtually using the first behavior model can be used as the first behavior history information 20A.
  • the first action history information 20A including the first action aa for the inexperienced situation s of the first user U1 can be obtained. Details of the first behavior model will be described later.
  • the second action history information 20B may be a set of recommended actions ab derived by inputting the situation s into the second action model learned by the control unit 18 described later.
  • history information obtained by playing the content 32 virtually using the second behavior model can be used as the second behavior history information 20B.
  • the second action history information 20B including the recommended action ab for the inexperienced situation s of the second user U2 can be obtained. Details of the second behavior model will be described later.
  • the information processing apparatus 10 may collect the first action history information 20A and the second action history information 20B from one or a plurality of terminal devices 12 and external devices via the network N, and store them in the storage unit 20.
  • the information processing apparatus 10 transmits the first action history information 20A and the second action history information 20B generated by the control unit 18 using the action model (the first action model and the second action model), The information may be stored in the storage unit 20.
  • the behavior model DB 20C is a database for registering a behavior model learned by the control unit 18.
  • the data format of the behavior model DB 20C is not limited to a database.
  • the control unit 18 controls the information processing device 10.
  • the control unit 18 includes a first learning unit 18A, a second learning unit 18B, an extraction unit 18C, and an output control unit 18D.
  • a part or all of the first learning unit 18A, the second learning unit 18B, the extraction unit 18C, and the output control unit 18D may be realized, for example, by causing a processing device such as a CPU to execute a program, that is, realized by software. It may be realized by hardware such as an IC (Integrated Circuit) or by using software and hardware together.
  • the first learning unit 18A learns the first behavior model based on the first behavior history information 20A.
  • the first behavior model is an example of a behavior model.
  • the behavior model is a learning model for deriving the behavior a from the situation s.
  • the behavior model is a classifier or a classifier represented by an algorithm indicating a behavior pattern of the user U according to the situation s.
  • the first behavior model is a learning model for deriving the first behavior aa from the situation s.
  • the first behavior model is represented, for example, by the following equation (1).
  • s indicates a situation s provided by the content 32.
  • aa indicates the first action aa of the first user U1 in a certain situation s.
  • the first behavior model may be a learning model indicating the probability of taking a specific first behavior aa in a certain situation s.
  • the first behavior model is represented by, for example, the following equation (2).
  • the first learning unit 18A uses a pair of the situation s and the first action aa corresponding to each timing indicated in the first action history information 20A as teacher data. Then, the first learning unit 18A learns an action model for deriving a first action aa performed by the first user U1 in a certain situation s, using the teacher data.
  • the first learning unit 18A may learn the first behavior model by a known machine learning for learning the imitation of the behavior of the user U such as a known Imination @ Learning.
  • the second learning unit 18B learns the second behavior model based on the second behavior history information 20B.
  • the second behavior model is an example of a behavior model.
  • the second behavior model is a learning model for deriving the recommended behavior ab from the situation s.
  • the second behavior model is represented by, for example, the following equation (3).
  • s indicates a situation s provided by the content 32.
  • ab indicates the recommended action ab of the second user U2 in a certain situation s.
  • the second behavior model may be a learning model indicating the probability of taking a specific recommended behavior ab in a certain situation s.
  • the second behavior model is represented by, for example, the following equation (4).
  • the second learning unit 18B uses a pair of the situation s and the recommended action ab corresponding to each timing indicated in the second action history information 20B as teacher data. Then, the second learning unit 18B learns an action model for deriving a recommended action ab performed by the second user U2 in a certain situation s using the teacher data.
  • the second learning unit 18B may learn the second behavior model by a known machine learning that learns the imitation of the behavior of the user U such as a known Imination @ Learning.
  • the first learning unit 18A and the second learning unit 18B classify the learned first behavior model and the second behavior model according to the classification rules and associate them with the identification information of each classification rule. May be registered in the behavior model DB 20C.
  • the classification rule may be determined in advance.
  • the classification rules are, for example, for each user U used for learning these behavior models, for each group to which the user U belongs, for each application target of the behavior model, and the like. Note that the classification rules are not limited to these.
  • the extraction unit 18C extracts the specific situation of the content 32 based on the behavior model of the user U.
  • the behavior model of the user U used to extract the specific situation of the content 32 is at least one of the first behavior model of the first user U1 and the second behavior model of the second user U2.
  • the extraction unit 18C extracts a specific situation based on the first behavior model of the first user U1.
  • the specific situation indicates a set of one or more specific situations s among the situations s included in the content 32.
  • the specific situation may be a time series set of continuous or stepwise situations s, or may be a time series set of discrete situations s. Note that the specific situation may be a set of one or more situations s, and is not limited to a time-series set.
  • Specific situation is, specifically, a situation s defined as an abnormality defined in the content 32 in advance.
  • the abnormal situation s is, for example, a situation s deviating from a predetermined traveling route or a situation s colliding with another vehicle. .
  • the extraction unit 18C determines that the evaluation value of the situation s output from the content 32 is equal to or less than the first threshold. Is extracted as a specific situation.
  • the state in which the evaluation value is equal to or less than the first threshold value is a state s defined as an abnormality defined in the content 32 in advance.
  • a threshold for discriminating between the abnormal situation s and the normal situation s may be determined in advance.
  • the upper limit of the range of the evaluation value regarded as the abnormal situation s may be set in advance as the first threshold.
  • the extraction unit 18C may determine a first threshold value in advance for each content 32 and store the first threshold value in the storage unit 20 in association with the identification information of the content 32. Then, when extracting the specific situation, the extracting unit 18C may read the first threshold value corresponding to the identification information of the content 32 to be extracted of the specific situation from the storage unit 20 and use the first threshold value for extracting the specific situation.
  • the extraction unit 18C acquires the first behavior aa for the situation s by introducing the situation s provided by the content 32 into the first behavior model. Then, the extraction unit 18C obtains the changed next situation s by inputting the obtained first action aa as the action a to the content 32. Then, the extraction unit 18C repeatedly executes this processing. That is, the extraction unit 18C virtually executes the game realized by the content 32 using the first behavior model.
  • the model representing the content 32 is represented by, for example, the following equation (5).
  • Equation (5) indicates that when an action a that is a certain situation s is input, the next situation s is output.
  • the extraction unit 18C calculates the evaluation value of the situation s each time a new situation s after the change is output from the content 32 in response to the input of the first action aa (action a).
  • the extraction unit 18C calculates a higher evaluation value as the content indicated by the situation s is closer to a predetermined recommended situation s in the content 32 that provides the situation s.
  • the method of calculating the evaluation value may be determined in advance according to the content 32.
  • the extraction unit 18C calculates an evaluation value using a situation determination function.
  • the situation determination function is represented by, for example, the following equation (6) or equation (7).
  • Expression (6) is an expression indicating a situation determination function r for deriving an evaluation value R for a certain situation s.
  • Equation (7) is an equation indicating a situation determination function r for deriving an evaluation value R when the action a that is a certain situation s is performed.
  • the extraction unit 18C calculates the changed situation s output from the content 32, or the changed situation s and the action a as the first action aa input to the changed situation s, using the above equation ( 6) or the equation (7) is used to calculate the evaluation value R.
  • the extraction unit 18C determines that the situation s in which the calculated evaluation value R is equal to or less than the first threshold value is a situation in which the evaluation value R is bad, that is, a situation s far from the recommended situation s, and extracts the situation as a specific situation. I do.
  • the extraction unit 18C extracts the specific situation of the content 32 based on the first behavior model of the first user U1.
  • the extraction unit 18C may further extract the extracted cause of the specific situation.
  • the extraction unit 18C further extracts the correspondence between the situation s in the period before the occurrence timing of the specific situation and the first action aa as the occurrence factor of the specific situation.
  • the extraction unit 18C virtually executes the game realized by the content 32 using the first behavior model. Then, as described above, the extraction unit 18C specifies the specific situation and also specifies the occurrence timing of the specific situation. Furthermore, the extraction unit 18C determines a correspondence between at least one situation s in the time series set of the situation s in the period before the occurrence timing of the specific situation and the first action aa input in the situation s. Is extracted as a cause of occurrence of a specific situation.
  • FIG. 5 is an explanatory diagram showing an example of extraction of the cause of occurrence.
  • the vertical axis indicates the evaluation value R represented by the situation determination function r (s, a), and the horizontal axis indicates the timing.
  • the extraction unit 18C extracts the situation s10 at the timing t4 as the specific situation. Further, the extraction unit 18C specifies the timing t4 as the occurrence timing t4 of the specific situation.
  • the extraction unit 18 ⁇ / b> C selects the status s (the status s9, the status s8, and the status s7 in FIG. 5) of the timing before the occurrence timing t4 among the statuses s in the period A before the generation timing t4 of the specific status.
  • the corrected action obtained by correcting the first action aa for each is input to the content 32 as the action a.
  • the extraction unit 18C goes back to the situation s one by one toward the (past) timing before the occurrence timing t4, and is performed for the situation s that goes back every time the situation s is gone back.
  • the first action aa is corrected to a correction action having a value different from the first action aa. Then, the corrected action is input to the content 32 as the action a for the timing of the situation s.
  • the extraction unit 18C corrects the first action aa input for the situation s9 at the timing t3 which is one situation s earlier than the timing t4, to the correction action. Then, the extraction unit 18C obtains the corrected situation s9 'by inputting the correction action to the content 32 as the action a corresponding to the timing t3.
  • the extraction unit 18C may use the recommended behavior ab of the second user U2 with respect to the situation s traced back as a correction behavior. That is, the extraction unit 18C may use the recommended behavior ab of the second user U2 input for the situation s that has been traced back as the correction behavior.
  • the extraction unit 18C may acquire the recommended behavior ab for the situation s by inputting the situation s traced back to the second behavior model learned by the second learning unit 18B.
  • the extraction unit 18C may obtain the recommended action ab for the situation s by reading the recommended action ab corresponding to the situation s traced back from the second action history information 20B.
  • the control unit 18 may not include the second learning unit 18B.
  • the extraction unit 18C After inputting the corrective action to the content 32 as the action a for the situation s at the previous timing, the extraction unit 18C extracts the content 32 using the first action model in the same manner as described above toward the occurrence timing t4 of the specific situation. Run virtually.
  • the extraction unit 18C sets the timing before (occurrence) the occurrence timing t4 until the evaluation value R of the situation s output from the content 32 at the occurrence timing t4 of the specific situation exceeds the first threshold T1. Then, the situation s is traced back one by one, and the input of the correction action to the content 32 and the determination of the evaluation value R of the situation s at the occurrence timing t4 are repeatedly executed.
  • the extraction unit 18C determines the correspondence between the situation s at the timing when the evaluation value R of the situation s output from the content 32 at the occurrence timing t4 exceeds the first threshold T1, and the first action aa for the situation s. May be extracted as an occurrence factor.
  • the extraction unit 18C extracts the correspondence between the situation s8 at the timing t2 and the first action aa of the first user U1 with respect to the situation s8 as the occurrence factor of the specific situation (situation s10) at the occurrence timing t4. I do.
  • the extraction unit 18 ⁇ / b> C inputs, to the content 32, a correction action obtained by correcting the first action aa for the situation s in the period before the occurrence timing t ⁇ b> 4 of the specific situation. Then, when the corrective action is input to the content 32 in the previous period, the extraction unit 18C determines that the evaluation value R of the situation s output from the content 32 at the occurrence timing t4 exceeds the first threshold T1, and The correspondence between the situation s at the timing t closest to t4 and the first action aa is extracted as an occurrence factor.
  • the output control unit 18D outputs advice information on a specific situation.
  • the output control unit 18D receives the specific situation from the extraction unit 18C.
  • the output control unit 18D may receive both the specific situation and the occurrence factor from the extraction unit 18C. Then, the extraction unit 18C outputs the advice information on the specific situation. Note that the extraction unit 18C may output advice information regarding the specific situation and the occurrence factor.
  • the advice information is information that provides advice to the first user U1 regarding a specific situation. Specifically, the advice information indicates at least one of the content of the specific situation, the cause of the specific situation, and the method of avoiding the specific situation.
  • the content of the specific situation is information indicating the situation s indicated by the specific situation and the first action aa of the first user U1 with respect to the situation s.
  • the situation s indicated by the specific information includes, for example, a screen output during the game, a position and an activity state of a character moving in response to an operation instruction by the first user U1 in the game, a state of a surrounding environment other than the character, and a state of the game. It is represented by a progress status, a game score, and the like.
  • the content of the specific situation may include information indicating the position and the occurrence timing of the specific situation in the content 32.
  • the content of the specific situation may include information indicating that the location indicated by the position or the occurrence timing of the specific situation is a location to which the first user U1 should draw attention.
  • the cause of the specific situation may be information indicating the correspondence between the situation s indicating the cause extracted by the extraction unit 18C and the first action aa of the first user U1.
  • the occurrence factor may be information indicating what kind of action the first user U1 performs in a certain situation s and the situation s indicated in the specific situation occurs at the occurrence timing.
  • the specific situation avoidance method is information indicating the action a taken by the first user U1 to avoid the specific information.
  • the method of avoiding the specific situation is, for example, information indicating the recommended action ab corresponding to the situation s indicated by the specific situation, or information indicating the recommended action ab corresponding to the situation s indicated by the occurrence factor.
  • the output control unit 18D may generate and output the advice information using the specific situation received from the extraction unit 18C or the specific situation and the cause.
  • the output control unit 18D outputs the advice information by transmitting the advice information on the specific situation to the terminal device 12 that can provide the information to the first user U1.
  • the output control unit 18D may transmit the advice information on the specific situation to the terminal device 12 operated by the first user U1 via the communication unit 22 and the network N.
  • the storage unit 20 may store in advance the identification information of the first user U1 and the identification information of the terminal device 12 operated by the first user U1 in association with each other. Then, the output control unit 18D reads the identification information of the terminal device 12 operated by the first user U1 corresponding to the identification information of the first user U1 to be provided from the storage unit 20, and is identified by the identification information. What is necessary is just to transmit the advice information to the terminal device 12.
  • the output control unit 18D may output the advice information on the specific situation to an output device such as a display device directly connected to the information processing device 10.
  • the terminal device 12 outputs the advice information received from the information processing device 10.
  • the terminal device 12 includes a control unit 24, a UI unit 26, a communication unit 28, and a storage unit 30.
  • the UI unit 26, the communication unit 28, the storage unit 30, and the control unit 24 are connected so that data and signals can be exchanged.
  • the UI unit 26 includes the output unit 26A and the input unit 26B as described above.
  • the output unit 26A corresponds to the output unit 14
  • the input unit 26B corresponds to the input unit 16.
  • the communication unit 28 is a communication interface that communicates with the information processing device 10 and other devices via the network N.
  • the storage unit 30 stores various information.
  • the control unit 24 controls the terminal device 12.
  • the control unit 24 includes an acquisition unit 24A and an output control unit 24B.
  • a part or all of the acquisition unit 24A and the output control unit 24B may be realized by, for example, causing a processing device such as a CPU to execute a program, that is, realized by software or realized by hardware such as an IC. Alternatively, it may be realized by using software and hardware together.
  • the acquisition unit 24A acquires the advice information from the information processing device 10.
  • the output control unit 24B outputs the advice information to the UI unit 26.
  • the output control unit 24B displays a display screen showing the advice information on the UI unit 26.
  • FIG. 6 is a schematic diagram showing an example of the display screen 40.
  • the content 32 is a drive game 32A (see FIG. 2).
  • the output control unit 24B of the terminal device 12 generates a display screen 40 in which an icon P indicating advice information is arranged on a game screen provided in the drive game 32A, and outputs the display screen 40 to the UI unit 26.
  • the display screen 40 may be generated by the output control unit 18D of the information processing device 10.
  • the first user U1 selects the display position of the icon P on the display screen 40 by operating the UI unit 26 (the input unit 26B or the input unit 16).
  • the output control unit 24B may display details of the advice information corresponding to the selected icon P on the UI unit 26.
  • the display form of the advice information is not limited to the form shown in FIG.
  • the output timing of the advice information in the terminal device 12 is not limited.
  • the control unit 24 displays the advice information on the UI unit 26 when receiving a game start instruction signal according to an operation instruction of the UI unit 26 by the first user U1.
  • the control unit 24 may output the advice information to the UI unit 26 while the terminal device 12 is executing the game program of the content 32.
  • the control unit 24 transmits the advice information to the UI unit 26 when the situation s provided by the content 32 becomes the specific situation indicated by the advice information, the situation s of the occurrence factor, or when the situation approaches the specific situation.
  • FIG. 7 is a flowchart illustrating an example of a procedure of information processing executed by the information processing apparatus 10.
  • the first learning unit 18A acquires the first action history information 20A from the storage unit 20 (Step S100). Next, the first learning unit 18A learns the first behavior model based on the first behavior history information 20A acquired in step S100 (step S102).
  • the second learning unit 18B acquires the second action history information 20B from the storage unit 20 (Step S104). Next, the second learning unit 18B learns a second behavior model based on the second behavior history information 20B acquired in step S104 (step S106).
  • the extraction unit 18C virtually executes the game realized by the content 32 using the first behavior model learned in step S102 (step S108). That is, in step 108, the extraction unit 18C sequentially inputs the first action aa derived from the first action model to the content 32 as the action a, and obtains a situation s that is sequentially output.
  • the extraction unit 18C specifies the content 32 based on the evaluation value R of the situation s sequentially output from the content 32 in step S108 based on the first behavior model of the first user U1 learned in step S102.
  • the situation is extracted (step S110).
  • the extraction unit 18C extracts the cause of the specific situation extracted in step S110 (step S112).
  • the output control unit 18D outputs the specific situation extracted in step S110 and the advice information on the cause of occurrence extracted in step S112 to the terminal device 12 (step S114). Then, this routine ends.
  • the control unit 18 executes at least one of the learning of the first behavior model and the learning of the second behavior model in steps S100 to S106 at a different timing from the extraction of the specific situation by the extraction unit 18C. Is also good. Specifically, a series of processes in steps S100 to S106 may be executed at a timing different from the series of processes in steps S108 to S114.
  • FIG. 8 is a flowchart illustrating an example of a procedure of an output process performed by the terminal device 12.
  • FIG. 8 illustrates an example in which the terminal device 12 is the game device 12 ⁇ / b> A and the game program is executed as the content 32.
  • step S200 determines whether a game start instruction signal has been received from the input unit 16 (Step S200). If a negative determination is made in step S200 (step S200: No), this routine ends. On the other hand, if a positive determination is made in step S200 (step S200: Yes), the process proceeds to step S202.
  • step S202 the obtaining unit 24A obtains the advice information from the information processing device 10 via the communication unit 28.
  • the control unit 24 of the terminal device 12 may store the advice information received from the information processing device 10 in the storage unit 30. Then, the obtaining unit 24A may obtain the advice information by reading the advice information from the storage unit 30.
  • the output control unit 24B outputs the advice information to the UI unit 26 (Step S204). For this reason, a display screen 40 including an icon P indicating advice information shown in FIG. 6 is displayed on the UI unit 26 of the terminal device 12, for example.
  • control unit 24 executes a game program corresponding to the game start instruction signal received in step S200 (step S206). Then, the control unit 24 repeats the negative determination until it determines that the game end instruction has been received from the input unit 16 (Step S208: No), and when the affirmative determination is made (Step S208: Yes), ends this routine. As described above, the control unit 24 may output the advice information to the UI unit 26 during the execution of the game.
  • the information processing device 10 of the present embodiment includes the extraction unit 18C and the output control unit 18D.
  • the extraction unit 18C extracts a specific situation of the content 32 whose situation changes according to the behavior of the user U, based on the behavior model of the user U.
  • the output control unit 18D outputs advice information on a specific situation.
  • training contents that allow the user to acquire skills while stepping on each step have been prepared.
  • training contents such as a smooth acceleration method and a method for entering a corner have been separately prepared.
  • the training content is uniform, and it has been difficult to provide advice information according to the behavior of the user U.
  • the extraction unit 18C extracts a specific situation based on the behavior model of the user U. Then, the output control unit 18D outputs advice information on the specific situation extracted based on the behavior model of the user U.
  • the information processing apparatus 10 of the present embodiment can provide advice information according to the behavior of the user U.
  • the first learning unit 18A determines the first action from the situation s based on the first action history information 20A indicating the correspondence between the situation s and the first action aa of the first user U1 as the user U.
  • the first behavior model is learned as a behavior model for deriving the behavior aa.
  • the extraction unit 18C extracts, as a specific situation, a situation s in which the evaluation value R of the situation s output from the content 32 when the first behavior aa derived from the first behavior model is input as the behavior a is equal to or less than the first threshold T1. I do.
  • the information processing apparatus 10 of the present embodiment obtains the first action aa of the first user U1 for inputting to the content 32 using the first action model. For this reason, even if at least one of the situations s provided by the content 32 is not registered in the first action history information 20A, the information processing apparatus 10 performs the first Action aa can be obtained. Then, the extraction unit 18C of the information processing device 10 uses the evaluation value R of the situation s output from the content 32 when the first action aa derived from the first action model is input as the action a, and determines the specific situation. Extract.
  • the information processing apparatus 10 of the present embodiment can accurately extract a specific situation in addition to the above-described effects.
  • the extraction unit 18C further extracts the correspondence between the situation s and the first action aa in a period before the occurrence timing of the specific situation as the occurrence factor of the specific situation.
  • the information processing apparatus 10 of the present embodiment can provide the user U with appropriate advice information in addition to the above effects.
  • the extraction unit 18C determines the occurrence timing when the correction action obtained by correcting the first action aa is input to the content 32 as the action a in the situation s in the period before the occurrence timing of the specific situation. , The correspondence between the situation s in which the evaluation value R of the situation s output from the content 32 exceeds the first threshold value T1 and the first action aa is extracted as an occurrence factor.
  • the extraction unit 18C determines A situation s at which the evaluation value R is good and a first action aa performed on the situation s are extracted as occurrence factors.
  • the information processing apparatus 10 of the present embodiment can accurately extract the cause of occurrence in addition to the above-described effects.
  • action history information obtained by correcting the first action history information 20A of the first user U1 is generated, and a recommendation situation is extracted based on an action model learned based on the action history information.
  • FIG. 1 is a schematic diagram illustrating an example of an information processing system 1A according to the present modification.
  • the information processing system 1A includes an information processing device 10A and a terminal device 12.
  • the information processing system 1A is the same as the information processing system 1 of the first embodiment except that the information processing system 1A includes an information processing device 10A instead of the information processing device 10.
  • FIG. 9 is an example of a functional block diagram of the information processing device 10A and the terminal device 12.
  • the functional configuration of the terminal device 12 is the same as in the first embodiment.
  • the information processing device 10 ⁇ / b> A includes the control unit 17, the storage unit 21, and the communication unit 22.
  • the storage unit 21, the communication unit 22, and the control unit 17 are connected so that data and signals can be exchanged.
  • the communication unit 22 is the same as in the first embodiment.
  • the storage unit 21 stores various information.
  • the storage unit 21 stores first action history information 20A, second action history information 20B, third action history information 20D, and an action model DB 20C.
  • the first action history information 20A, the second action history information 20B, and the action model DB 20C are the same as in the first embodiment.
  • the third action history information 20D is action history information obtained by correcting the first action history information 20A.
  • the third action history information 20D is generated by the processing of the control unit 17 and stored in the storage unit 21 (details will be described later).
  • the control unit 17 controls the information processing device 10A.
  • the control unit 17 includes a first learning unit 18A, a second learning unit 18B, a generation unit 17E, a third learning unit 17F, an extraction unit 17C, and an output control unit 18D.
  • Some or all of the first learning unit 18A, the second learning unit 18B, the generation unit 17E, the third learning unit 17F, the extraction unit 17C, and the output control unit 18D cause a processing device such as a CPU to execute a program. That is, it may be realized by software, may be realized by hardware such as an IC, or may be realized by using software and hardware together.
  • the first learning unit 18A, the second learning unit 18B, and the output control unit 18D are the same as in the first embodiment.
  • the generation unit 17E corrects the first action history information 20A of the first user U1, and generates the third action history information 20D.
  • FIG. 10 is an explanatory diagram showing an example of generation of the third action history information 20D.
  • the generation unit 17E determines that the difference between the recommended action ab and the first action aa of the first action history information 20A is equal to or greater than a predetermined value.
  • the third action history information 20D is generated by replacing the first action aa with the recommended action ab.
  • the generation unit 17E compares the first action aa and the recommended action ab corresponding to the same situation s for the first action history information 20A and the second action history information 20B. In other words, the generation unit 17E compares the corresponding first action aa and the recommended action ab for the same situation s for the first action history information 20A and the second action history information 20B.
  • the generation unit 17E specifies, in one or a plurality of situations s defined in the first action history information 20A, a situation s in which the difference between the corresponding first action aa and the recommended action ab is equal to or more than a predetermined value.
  • the first action aa is a normal or good action a.
  • the larger the difference between the first action aa and the recommended action ab the more the first action aa is abnormal or bad.
  • the lower limit of the range of the difference between the first action aa and the recommended action ab which is regarded as abnormal or bad action a, may be set in advance as the predetermined value.
  • the generation unit 17E may determine a predetermined value in advance for each of the content 32 and the user U, and store the predetermined value in the storage unit 21 in advance in association with the content 32 and the identification information of the user U. Then, when generating the third action history information 20D, the generation unit 17E reads a predetermined value corresponding to the identification information of the content 32 to be processed and the user U from the storage unit 21 and is used to generate the third action history information 20D. Just fine.
  • the generation unit 17E corresponds to the situation s in which the difference is specified to be equal to or more than the predetermined value among the first behaviors aa corresponding to one or more situations s defined in the first behavior history information 20A.
  • the first action aa is replaced with the recommended action ab corresponding to the same situation s in the second action history information 20B. With this replacement, the generation unit 17E generates the third action history information 20D.
  • the difference between the first action aa2 corresponding to the situation s2 of the first action history information 20A and the recommended action ab2 corresponding to the same situation s2 of the second action history information 20B is , Is equal to or greater than a predetermined value. It is also assumed that the difference between the first action aa3 corresponding to the situation s3 in the first action history information 20A and the recommended action ab3 corresponding to the same situation s3 in the second action history information 20B is equal to or greater than a predetermined value.
  • the generation unit 17E converts the first action aa2 and the first action aa3 of the first action history information 20A (see the frame 42A in FIG. 10) into the recommended action ab2 and the recommended action ab2 of the second action history information 20B. ab3 (refer to the frame 42B in FIG. 10). Through this processing, the generation unit 17E generates the third action history information 20D.
  • the third learning unit 17F learns a third behavior model as a behavior model for deriving a third behavior ac in the third behavior history information 20D from the situation s, based on the third behavior history information 20D.
  • the third action ac is an action a defined in the third action history information 20D, and the first action aa in the first action history information 20A and the recommended action in the second action history information 20B. ab.
  • the third behavior model is an example of a behavior model.
  • the third behavior model is a learning model for deriving the third behavior ac from the situation s.
  • the third learning unit 17F uses the teacher data indicating the correspondence between the situation s corresponding to each timing indicated in the third action history information 20D and the third action ac in the same manner as the first learning unit 18A. What is necessary is just to learn three action models.
  • the extraction unit 17C extracts, as a specific situation, a situation s in which the evaluation value R of the situation s output from the content 32 when the third action ac derived from the third action model is input as the action a exceeds the third threshold value. I do.
  • the extraction unit 17C is similar to the extraction unit 18C of the first embodiment except that the evaluation value R is calculated using the third behavior model instead of the first behavior model and the second behavior model. , To extract specific situations.
  • the third action history information 20D is generated by replacing the first action aa whose difference from the recommended action ab in the first action history information 20A is equal to or more than a predetermined value with the recommended action ab. Action history information.
  • the extraction unit 17C extracts a situation s in which the evaluation value R is improved by replacing the first behavior aa with the recommended behavior ab as a specific situation.
  • the extraction unit 17C uses the third threshold value to determine the evaluation value R.
  • the lower limit of the range of the evaluation value R for determining that the situation s has been improved by replacing the first action aa with the recommended action ab may be set as the third threshold. Then, the extraction unit 17C may extract the situation s in which the evaluation value R is equal to or more than the third threshold as the specific situation.
  • the extraction unit 17C may further extract the cause of occurrence of the specific situation, similarly to the extraction unit 18C of the first embodiment.
  • the extraction of the cause of the specific situation may be performed in the same manner as the extraction unit 18C.
  • FIG. 11 is a flowchart illustrating an example of a procedure of information processing executed by the information processing apparatus 10.
  • the first learning unit 18A acquires the first action history information 20A from the storage unit 21 (Step S300). Next, the first learning unit 18A learns the first behavior model based on the first behavior history information 20A acquired in step S300 (step S302).
  • the second learning unit 18B acquires the second action history information 20B from the storage unit 21 (Step S304). Next, the second learning unit 18B learns the second behavior model based on the second behavior history information 20B acquired in step S304 (step S306).
  • the generation unit 17E generates the third action history information 20D using the first action history information 20A and the second action history information 20B (Step S308).
  • the third learning unit 17F learns a third behavior model based on the third behavior history information 20D generated in step S308 (step S310).
  • the extraction unit 17C virtually executes the game realized by the content 32 using the third behavior model learned in step S310 (step S312). That is, in step 312, the extraction unit 17C sequentially inputs the third action ac derived from the third action model to the content 32 as the action a.
  • the extraction unit 17C extracts a specific situation of the content 32 based on the evaluation value R of the situation s sequentially output from the content 32 in step S312 based on the third behavior model learned in step S310 ( Step S314).
  • the extraction unit 18C extracts the cause of the specific situation extracted in step S314 (step S316).
  • the output control unit 18D outputs the specific situation extracted in step S316 and the advice information on the cause of occurrence extracted in step S316 to the terminal device 12 (step S318). Then, this routine ends.
  • the generation unit 17E determines the second action aa of the first action history information 20A based on the first action history information 20A and the second action history information 20B.
  • the third action history information 20D is generated by replacing the first action aa whose difference from the recommended action ab of the action history information 20B is equal to or more than a predetermined value with the recommended action ab.
  • the third learning unit 17F Based on the third action history information 20D, the third learning unit 17F generates a first action aa in the third action history information 20D and a third action ac as the recommended action ab in the third action history information 20D based on the situation s. 3. Learn the behavior model.
  • the extraction unit 17C extracts, as a specific situation, a situation s in which the evaluation value R of the situation s output from the content 32 when the third action ac derived from the third action model is input as the action a is equal to or greater than the third threshold. I do.
  • the generation unit 17E stores the first action history information 20A of the first user U1 in the second action history of the second user U2 having a higher proficiency or skill in the content 32 than the first user U1.
  • the third action history information 20D corrected using the information 20B is generated.
  • the extraction unit 17C extracts a specific situation based on the third behavior model of the user U, which is learned from the third behavior history information 20D.
  • the information processing apparatus 10A can provide advice information according to the action a of the user U.
  • identification is performed based on the difference between the first action aa defined in the first action history information 20A of the first user U1 and the recommended action ab derived from the second action model of the second user U2.
  • a mode for extracting a situation will be described.
  • FIG. 1 is a schematic diagram illustrating an example of an information processing system 1B according to the present modification.
  • the information processing system 1B includes an information processing device 10B and a terminal device 12.
  • the information processing system 1B is the same as the information processing system 1 of the first embodiment except that the information processing system 1B includes an information processing device 10B instead of the information processing device 10.
  • FIG. 3 is an example of a functional block diagram of the information processing device 10B and the terminal device 12.
  • the functional configuration of the terminal device 12 is the same as in the first embodiment.
  • the information processing device 10 ⁇ / b> B includes a control unit 19, a storage unit 20, and a communication unit 22.
  • the storage unit 21, the communication unit 22, and the control unit 19 are connected so that data and signals can be exchanged.
  • the storage unit 20 and the communication unit 22 are the same as in the first embodiment.
  • the control unit 19 controls the information processing device 10B.
  • the control unit 19 includes a first learning unit 18A, a second learning unit 18B, an extraction unit 19C, and an output control unit 18D.
  • Some or all of the first learning unit 18A, the second learning unit 18B, the extraction unit 19C, and the output control unit 18D may be configured to execute a program by a processing device such as a CPU, that is, may be realized by software. Alternatively, it may be realized by hardware such as an IC, or may be realized by using software and hardware together.
  • the first learning unit 18A, the second learning unit 18B, and the output control unit 18D are the same as in the first embodiment.
  • the extraction unit 19C determines the first action aa and the recommended action ab based on the first action history information 20A indicating the correspondence between the situation s and the first action aa of the first user U1, and the second action model.
  • the situation s whose difference is equal to or greater than the second threshold is extracted as a specific situation.
  • the second learning unit 18B of the control unit 19 learns the second behavior model from the second behavior history information 20B in the same manner as in the first embodiment.
  • the extraction unit 19C obtains the recommended action ab for the situation s by introducing each of the situations s indicated in the first action history information 20A into the second action model.
  • the situation s indicated in the first action history information 20A and the situation s indicated in the second action history information 20B sometimes do not match.
  • the output status s of the content 32 changes according to the input action a of the user U. Therefore, when the behavior a of the first user U1 and the second user U2 for a certain situation s is different, the changed situation s output from the content 32 is different. For this reason, at least a part of the situation s indicated in the first action history information 20A and the situation s indicated in the second action history information 20B may not match.
  • the situation s changed by the first action aa by the first user U1 may include a situation s not caused by the recommended action ab by the second user U2.
  • the extraction unit 19C derives the recommended behavior ab corresponding to the situation s by introducing each of the situations s indicated in the first behavior history information 20A into the second behavior model.
  • the extracting unit 19C calculates, for each situation s indicated in the first action history information 20A, a difference between the corresponding first action aa and the corresponding recommended action ab derived using the second action model. I do.
  • the extraction unit 19C extracts a situation s in which the difference between the first action aa and the recommended action ab is equal to or more than a second threshold as a specific situation.
  • the first action aa is a normal or good action a.
  • the larger the difference between the first action aa and the recommended action ab the more abnormal or poor the first action aa is.
  • the lower limit of the range of the difference between the first action aa and the recommended action ab which is regarded as abnormal or bad action a, may be set in advance as the second threshold.
  • the extraction unit 19C may determine a second threshold value in advance for each of the content 32, the first user U1, and the second user U2, and store the second threshold value in the storage unit 20 in advance in association with the identification information. Then, when extracting the specific situation, the extraction unit 19C reads from the storage unit 20 the second threshold value corresponding to the identification information of the first user U1, the second user U2, and the content 32 to be processed, and extracts the specific situation. It may be used.
  • the extracting unit 19C determines that the difference between the first action aa and the recommended action ab is the second based on the first action history information 20A of the first user U1 and the second action model of the second user U2. A situation s equal to or greater than the threshold is extracted as a specific situation.
  • the extraction unit 19C calculates the degree of deviation between a set of continuous first actions aa in the first action history information 20A and a set of continuous recommended actions ab in the second action history information 20B as the difference.
  • the situation s in which the difference is equal to or greater than the second threshold may be extracted as the specific situation.
  • the extraction unit 19C may further extract the extracted cause of the specific situation.
  • the extraction of the occurrence factor may be performed using the first behavior model learned by the first learning unit 18A, as in the first embodiment.
  • the control unit 19 may be configured not to include the first learning unit 18A.
  • the output control unit 18D outputs the advice information on the specific situation, as in the first embodiment.
  • the specific situation is the situation s where the difference between the first action aa and the recommended action ab is equal to or greater than the second threshold.
  • the advice information may further include information indicating a difference between the first action aa of the first user U1 and the recommended action ab of the second user U2.
  • the advice information indicates at least one of the content of the specific situation, the cause of the specific situation, the difference between the action a and the recommended action ab of the user U for the specific situation, and the method of avoiding the specific situation. Any information is acceptable.
  • the advice information includes information indicating the difference between the first action aa of the first user U1 and the recommended action ab of the second user U2 as the information on the specific situation
  • the information output by the terminal device 12 is the difference May be included.
  • FIG. 12 is a schematic diagram showing an example of the display screen 44 including the advice information.
  • FIG. 12 shows an example in which the content 32 is a drive game 32A (see FIG. 2).
  • the control unit 24 of the terminal device 12 outputs to the UI unit 26 a display screen 44 in which a line P1 and a line P2 indicating advice information are arranged on a game screen provided in the drive game 32A.
  • the line P1 is an image indicating the first action aa of the first user U1.
  • the line P2 is an image indicating the recommended action ab of the second user U2.
  • the terminal device 12 displays information indicating the difference between the first action aa of the first user U1 and the recommended action ab of the second user U2 by displaying the display screen 44 indicating the line P1 and the line P2. May be.
  • the display screen 44 may be generated on the information processing device 10B side or may be generated on the terminal device 12 side.
  • FIG. 13 is a flowchart illustrating an example of a procedure of information processing executed by the information processing apparatus 10B.
  • the first learning unit 18A acquires the first action history information 20A from the storage unit 20 (Step S400). Next, the first learning unit 18A learns the first behavior model based on the first behavior history information 20A acquired in step S400 (step S402).
  • the second learning unit 18B acquires the second action history information 20B from the storage unit 20 (Step S404). Next, the second learning unit 18B learns a second behavior model based on the second behavior history information 20B acquired in step S404 (step S406).
  • the extraction unit 19C derives a recommended action ab corresponding to the situation s by inputting each of the situations s indicated in the first action history information 20A to the second behavior model learned in step S406. (Step S408).
  • the extracting unit 19C calculates, for each situation s indicated in the first action history information 20A, the difference between the corresponding first action aa and the corresponding recommended action ab derived using the second action model in step S408. Extracts the situation s equal to or greater than the second threshold value as the specific situation (step S410).
  • the extraction unit 19C extracts in step S410 in the same manner as the extraction unit 18C in the first embodiment.
  • the cause of the occurrence of the specified situation is extracted (step S412).
  • the output control unit 18D outputs, to the terminal device 12, the advice information on the specific situation extracted in step S410 and the occurrence factor extracted in step S412 (step S414). Then, this routine ends.
  • the second learning unit 18B uses the second behavior as the behavior model for deriving the recommended behavior ab from the situation s based on the second behavior history information 20B.
  • the extracting unit 19C extracts, as a specific situation, a situation s in which the difference between the first behavior aa and the recommended behavior ab is equal to or greater than a second threshold based on the first behavior history information 20A and the second behavior model.
  • the information processing apparatus 10B includes the first behavior aa corresponding to the situation s indicated in the first behavior history information 20A of the first user U1 and the situation s derived from the second behavior model.
  • a situation s in which a difference from the corresponding recommended action ab is equal to or more than a second threshold is extracted as a specific situation.
  • the first action history information 20A indicates The recommended behavior ab of the second user U2 corresponding to each of the situations s to be performed can be derived.
  • the information processing apparatus 10 ⁇ / b> B of the present embodiment can accurately provide advice information according to the behavior of the user U.
  • the advice information indicates at least one of the content of the specific situation, the cause of the specific situation, the difference between the action a of the user U and the recommended action ab with respect to the specific situation, and the method of avoiding the specific situation.
  • the information processing apparatus 10B of the present embodiment can provide appropriate advice information according to the behavior of the user U in addition to the above-described effects.
  • the application targets of the information processing apparatuses 10, 10A, and 10B according to the embodiment and the modification are not limited.
  • the present invention can be applied to a system using the game device 12A, a development tool kit for game developers, various systems for providing advice information on the behavior of the user U in the real space, and the like.
  • a training game for characters and avatars operating in the game and an AI (Artificial Intelligence) installed in the game are provided. Development efficiency can be improved.
  • FIG. 14 is a hardware configuration diagram illustrating an example of a computer 1000 that implements the functions of the information processing apparatuses 10, 10A, and 10B and the terminal device 12 according to the embodiment and the modification.
  • the computer 1000 includes a CPU 1100, a RAM 1200, a read only memory (ROM) 1300, a hard disk drive (HDD) 1400, a communication interface 1500, and an input / output interface 1600. Each unit of the computer 1000 is connected by a bus 1050.
  • the CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. For example, the CPU 1100 expands a program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.
  • the ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 starts up, a program that depends on the hardware of the computer 1000, and the like.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium for non-temporarily recording a program executed by the CPU 1100, data used by the program, and the like.
  • HDD 1400 is a recording medium that records a program according to the present disclosure, which is an example of program data 1450, and the like.
  • the communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
  • the CPU 1100 receives data from another device via the communication interface 1500 or transmits data generated by the CPU 1100 to another device.
  • the input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000.
  • the CPU 1100 receives data from an input device such as a keyboard and a mouse via the input / output interface 1600.
  • the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600.
  • the input / output interface 1600 may function as a media interface that reads a program or the like recorded on a predetermined recording medium (media).
  • the medium is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical Disk), a tape medium, a magnetic recording medium, or a semiconductor memory. It is.
  • an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable Disk)
  • a magneto-optical recording medium such as an MO (Magneto-Optical Disk)
  • a tape medium such as a magnetic tape, a magnetic recording medium, or a semiconductor memory. It is.
  • the CPU 1100 of the computer 1000 executes the information processing program loaded on the RAM 1200 to realize the functions of the extraction unit 18C and the like. I do.
  • the HDD 1400 stores an information processing program according to the present disclosure and data in the storage unit 20 and the storage unit 21. Note that the CPU 1100 reads and executes the program data 1450 from the HDD 1400. However, as another example, the CPU 1100 may acquire these programs from another device via the external network 1550.
  • An extracting unit configured to extract a specific situation of a content whose situation changes according to the behavior of the user, based on a behavior model of the user;
  • An output control unit that outputs advice information regarding the specific situation;
  • An information processing apparatus comprising: (2) Learning a first behavior model as the behavior model for deriving the first behavior from the situation based on first behavior history information indicating a correspondence between the situation and a first behavior of a first user as the user
  • a first learning unit that performs The extraction unit includes: When the first action derived from the first action model is input as the action, the situation where the evaluation value of the situation output from the content is equal to or less than a first threshold is extracted as the specific situation,
  • the information processing device according to (1).
  • the extraction unit includes: Further extracting a correspondence between the situation and the first action in a period before the occurrence timing of the specific situation as a cause of the specific situation, The information processing device according to (2).
  • the extraction unit includes: When a correction action obtained by correcting the first action is input to the content as the action in the situation before the occurrence timing of the specific situation, the situation output from the content at the occurrence timing Extracting the correspondence between the situation where the evaluation value exceeds the first threshold value and the first action as the occurrence factor; The information processing device according to (3).
  • the extraction unit includes: Based on the first action history information indicating the correspondence between the situation and the first action of the first user as the user, and the second action model, a difference between the first action and the recommended action is set to Extracting the situation having two or more thresholds as the specific situation, The information processing device according to (1).
  • First action history information indicating a correspondence between the situation and a first action of a first user as the user, second action history information indicating a correspondence between the situation and a recommended action of a second user as the user, ,On the basis of the,
  • a generation unit configured to generate third action history information in which the first action of the first action history information, in which a difference from the recommended action is a predetermined value or more, replaces the first action with the recommended action; Based on the third action history information, a third action model is learned as the action model for deriving the first action and the third action as the recommended action in the third action history information from the situation.
  • the extraction unit includes: When the third action derived from the third action model is input as the action, the situation where the evaluation value of the situation output from the content is equal to or greater than a third threshold is extracted as the specific situation, The information processing device according to (1).
  • the advice information is The content of the specific situation, the cause of the specific situation, the difference between the user's behavior and the recommended behavior for the specific situation, and at least one of the specific situation avoidance method, The information processing apparatus according to any one of (1) to (6).
  • (8) Computer Based on the behavior model of the user, extracting a specific situation of the content whose situation changes according to the behavior of the user, Outputting advice information on the specific situation; Information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

情報処理装置(10)は、抽出部(18C)と、出力制御部(18D)と、を備える。抽出部(18C)は、ユーザの行動モデルに基づいて、ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する。出力制御部(18D)は、特定状況に関するアドバイス情報を出力する。

Description

情報処理装置、および情報処理方法
 本開示は、情報処理装置、および情報処理方法に関する。
 コンピュータゲームや実空間で行われるスポーツでは、ユーザがスキルを身につけたときの成功感や達成感が、醍醐味の一つである。しかし、難易度の高いスキルの獲得には、時間を要する場合がある。そこで、1つ1つステップを踏みながら技術を習得させる、トレーニング用のアプリケーションが知られている(例えば、非特許文献1)。
David Silver1他、「Mastering the game of Go with deep neural networks and tree search」、ARTICLE、doi:10.1038/nature16961
 しかしながら、トレーニング用のアプリケーションは画一的であり、ユーザの行動に応じたアドバイス情報を提供することは困難であった。
 そこで、本開示では、ユーザの行動に応じたアドバイス情報を提供することができる、情報処理装置、および情報処理方法を提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、前記特定状況に関するアドバイス情報を出力する出力制御部と、を備える。
 本開示によれば、ユーザの行動に応じたアドバイス情報を提供することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施形態、第1の実施形態の変形例、および第2の実施形態に係る情報処理システムの一例を示す模式図である。 本開示の第1の実施形態に係るコンテンツの一例を示す模式図である。 本開示の第1の実施形態および第2の実施形態に係る情報処理装置および端末装置の機能ブロック図の一例を示す図である。 本開示の第1の実施形態に係る第1行動履歴情報および第2行動履歴情報のデータ構成の一例を示す模式図である。 本開示の第1の実施形態に係る発生要因の抽出の一例を示す説明図である。 本開示の第1の実施形態に係る表示画面の一例を示す模式図である。 本開示の第1の実施形態に係る情報処理の手順の一例を示すフローチャートである。 本開示の第1の実施形態に係る出力処理の手順の一例を示すフローチャートである。 本開示の第1の実施形態の変形例に係る情報処理装置および端末装置の機能ブロック図の一例を示す図である。 本開示の第1の実施形態の変形例に係る第3行動履歴情報の生成の一例を示す説明図である。 本開示の第1の実施形態の変形例に係る情報処理の手順の一例を示すフローチャートである。 本開示の第2の実施形態に係る表示画面の一例を示す模式図である。 本開示の第2の実施形態に係る情報処理の手順の一例を示すフローチャートである。 本開示の情報処理装置および端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
(第1の実施形態)
[第1の実施形態に係る情報処理システムの構成]
 図1は、本実施形態の情報処理システム1の一例を示す模式図である。
 情報処理システム1は、情報処理装置10と、端末装置12と、を備える。情報処理装置10と端末装置12とは、ネットワークNを介して通信可能に接続されている。情報処理装置10と端末装置12とは、無線または有線により通信可能に接続されていればよく、通信形態は限定されない。
 情報処理装置10は、コンテンツに対する、ユーザUの行動に応じたアドバイス情報を提供する装置である。
 コンテンツは、ユーザUの行動に応じて状況が変化する事象である。言い換えると、コンテンツは、入力されたユーザUの行動に応じてコンテンツ内の状況が変化し、変化後の状況を出力するアプリケーションプログラムである。詳細には、コンテンツは、ユーザUの行動に対する状況の変化の集合によって表される。例えば、コンテンツにユーザUの行動を示す行動信号が入力されると、コンテンツは、行動信号に応じた変化後の状況を示す状況情報を出力する。なお、以下では、行動信号を単に行動と称し、状況情報を単に状況と称して説明する場合がある。
 具体的には、コンテンツは、コンピュータで実行されるゲームである。ゲームは、現実の事象や体験を仮想的に進行するシミュレーションゲームや、コンピュータゲームを示す。
 図2は、コンテンツ32の一例を示す模式図である。例えば、コンテンツ32は、ドライブゲーム32A、アクションゲーム32B、ボードゲーム32C、ボードゲーム32D、スポーツゲーム32E、などである。ドライブゲーム32Aは、仮想空間内で車両を走行させるゲームである。アクションゲーム32Bは、キャラクタの動きによりゲーム内の状況が変化するゲームである。ボードゲーム32Cは、囲碁のボードゲームである。ボードゲーム32Dは、将棋のボードゲームである。スポーツゲーム32Eは、試合や競技などのスポーツを示すゲームである。
 なお、コンテンツ32の種類は、これらに限定されない。例えば、コンテンツ32は、現実の世界で行われるスポーツや車両の走行などの現実の事象や体験を、仮想的に実行するシミュレーション用のアプリケーションプログラムであってもよい。また、コンテンツ32は、現実の世界で行われる事象の一部を簡易的に実行するアプリケーションプログラムであってもよい。すなわち、コンテンツ32は、ユーザUが実空間で行うスポーツなどの事象を、該事象の少なくとも一部を模擬的に示すプログラムとして提供したものであってもよい。
 図1に戻り説明を続ける。本実施形態の情報処理装置10は、コンテンツ32に対するユーザUの行動に応じたアドバイス情報を出力する。ユーザUの行動およびアドバイス情報の詳細は後述する。本実施形態では、情報処理装置10は、アドバイス情報を端末装置12へ送信することで、アドバイス情報を出力する。情報処理装置10の詳細は後述する。
 端末装置12は、情報処理装置10から受信したアドバイス情報を出力する装置である。端末装置12には、コンテンツ32を実現するためのプログラム(以下、ゲームプログラムと称する)が予めインストールされている。端末装置12は、コンテンツ32の実行時や実行前などの所定のタイミングで、アドバイス情報を出力する。
 端末装置12は、情報処理装置10から受信したアドバイス情報をユーザUが確認可能な形態で出力可能な装置であればよい。また、コンテンツ32の実行時または実行前などにアドバイス情報を出力する観点から、端末装置12は、コンテンツ32を実行可能な装置であり、且つ、アドバイス情報を出力可能な装置であることが好ましい。図1には、端末装置12の一例として、ゲーム装置12Aと、携帯端末12Bと、を示した。
 ゲーム装置12Aは、コンテンツ32の一例であるゲームを実行する装置である。ゲーム装置12Aは、例えば、ROM(Read Only Memory)ドライブを有し、ゲーム用ROMをROMドライブに挿入してゲームプログラムを実行することで、ゲーム装置12Aとして動作する。なお、ゲーム装置12Aは、エミュレータプログラムを起動することで、ゲームプログラムのイメージファイルを実行するエミュレーション装置としても動作できる。なおエミュレータプログラムは、ネットワークNを介して取得してもよく、また出荷時にプリインストールされていてもよい。
 ゲーム装置12Aには、出力部14および入力部16が有線または無線により接続されている。入力部16は、ユーザUがゲーム装置12Aに対して操作入力を行うための入力インターフェース装置である。入力部16は、ユーザUの操作指示に応じた動作信号をゲーム装置12Aへ出力する。入力部16は、コントローラ、キーボード、タッチパネル、ポインティングデバイス、マウス、入力ボタンなどである。
 出力部14は、各種画像を表示するディスプレイである。出力部14は、例えば、公知のLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)などである。出力部14は、画像の表示機能に加えて、音を出力するスピーカ機能を更に有していてもよい。
 携帯端末12Bは、ユーザUによって携帯可能な端末装置12である。携帯端末12Bは、例えば、タブレット端末やスマートフォンである。携帯端末12Bは、UI(ユーザ・インターフェース)部26を備える。UI部26は、ユーザUによる各種操作入力の受付および各種情報の出力を行う。UI部26は、出力部26Aと、入力部26Bと、を備える。出力部26Aは、各種情報を表示する。出力部26Aは、有機ELやLCDなどである。なお、出力部26Aは、表示機能に加えて、音を出力するスピーカ機能を備えていてもよい。入力部26Bは、ユーザUによる各種操作入力を受付ける。本実施形態では、入力部26Bは、ユーザUの操作指示に応じた動作信号を携帯端末12Bの制御部へ出力する。入力部26Bは、例えば、キーボード、ポインティングデバイス、マウス、入力ボタンなどである。なお、出力部26Aと入力部26Bとを一体的に構成し、タッチパネルとしてもよい。
[第1の実施形態に係る情報処理装置10の構成]
 図3は、情報処理装置10および端末装置12の機能ブロック図の一例である。
 情報処理装置10は、制御部18と、記憶部20と、通信部22と、を備える。記憶部20および通信部22と、制御部18とは、データや信号を授受可能に接続されている。
 通信部22は、ネットワークNを介して端末装置12などの各種装置と通信するための通信インターフェースである。
 記憶部20は、各種情報を記憶する。本実施形態では、記憶部20は、第1行動履歴情報20Aと、第2行動履歴情報20Bと、行動モデルDB20Cと、を記憶する。
 第1行動履歴情報20Aは、第1ユーザU1の行動の履歴を示す情報である。第2行動履歴情報20Bは、第2ユーザU2の行動の履歴を示す情報である。第1ユーザU1および第2ユーザU2は、ユーザUの一例である。第2ユーザU2は、第1ユーザU1に比べて、コンテンツ32に対する習熟度やスキルの高いユーザUである。なお、第1ユーザU1および第2ユーザU2を総称して説明する場合には、単に、ユーザUと称して説明する。
 図4は、第1行動履歴情報20Aおよび第2行動履歴情報20Bのデータ構成の一例を示す模式図である。
 第1行動履歴情報20Aおよび第2行動履歴情報20Bは、コンテンツ32の状況sと、状況sに対するユーザUの行動aと、の対応の集合によって表される。
 コンテンツ32の状況sとは、コンテンツ32によって提供される環境を示す。状況sは、具体的には、ゲーム中に出力される画面、ゲーム内においてユーザUによる操作指示などに応じて動くキャラクタの位置や活動状態、キャラクタ以外の周辺環境の状態、ゲームの進行状況、およびゲームスコア等によって表される。周辺環境の状態は、ゲーム内における上記キャラクタ以外の物の位置や物の状態、明るさや天候などを含む。なお、上述したように、コンテンツ32が、ユーザUが実空間で行うスポーツなどの事象を、該事象の少なくとも一部を模擬的に示すプログラムとして提供したものである場合がある。この場合、状況sは、実空間の状態を示す情報であってもよい。実空間の状態とは、ユーザUの行動に応じて変化する環境であればよい。
 ユーザUの行動aは、ユーザUの行動を示す行動信号によって表される。行動信号は、ユーザUによる入力部16の操作指示などの行動aや、ユーザUの身体の少なくとも一部の動き(行動a)を示す情報である。
 すなわち、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示される行動aは、コンテンツ32によって提供される状況sに対してユーザUが入力部16を操作することで入力した行動信号と、実空間におけるユーザUの身体の少なくとも一部の動きを示す行動信号の検出結果と、の少なくとも一方を示す情報であればよい。ユーザUの身体の少なくとも一部の動きを示す行動信号には、例えば、ユーザUの身体の少なくとも一部の動きを検出する公知の画像処理技術や公知のセンサ検知による技術により検出された検出結果を用いればよい。
 このように、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示されるユーザUの行動aの履歴情報は、コンテンツ32によって提供されるゲームに対してユーザUが過去に入力部16や入力部26Bなどを用いて操作入力を行ったときの履歴情報であってもよい。また、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示されるユーザUの行動aの履歴情報は、ユーザUが実空間においてコンテンツ32に対応するスポーツなどの動作を行ったときの履歴情報であってもよい。
 コンテンツ32は、ユーザUによる入力部16の操作指示や身体の動きなどの行動aにより、コンテンツ32の状況sが次の状況sへと変化する。すなわち、コンテンツ32は、入力された行動aに応じて変化後の状況sを出力する。そして、更に、変化後の状況sに対するユーザUの行動aに応じて、該状況sが次の状況sへと変化する。この繰返しにより、コンテンツ32によって提供されるゲームやストーリなどが進行する。
 このため、第1行動履歴情報20Aおよび第2行動履歴情報20Bには、コンテンツ32の状況sと、状況sに対するユーザUの行動aと、の対応の集合が登録される。
 なお、第1行動履歴情報20Aおよび第2行動履歴情報20Bの少なくとも一方は、状況sと、ユーザUの行動aと、の対応の時系列集合であってもよい。すなわち、第1行動履歴情報20Aおよび第2行動履歴情報20Bの少なくとも一方は、状況sと行動aとの対応を時系列のタイミングごとに示した時系列集合であってもよい。なお、時系列集合は、連続的または段階的な時系列集合であってもよく、離散的な時系列集合であってもよい。
 以下では、第1ユーザU1の行動aを、第1行動aaと称して説明する。また、第2ユーザU2の行動aを、推奨行動abと称して説明する。上述したように、第2ユーザU2は、第1ユーザU1に比べて、コンテンツ32に対する習熟度やスキルの高いユーザUである。このため、本実施形態では、第2ユーザU2の行動aを、状況sに対する推奨される行動a、すなわち推奨行動abと称して説明する。
 図4には、第1行動履歴情報20Aの一例として、各タイミングに応じた複数の状況s(状況s1~状況sm(mは2以上の整数))と、各状況sに対して第1ユーザU1の行った行動a(第1行動aa(第1行動aa1~第1行動aam))と、の時系列集合を示した。
 また、図4には、第2行動履歴情報20Bの一例として、各タイミングに応じた複数の状況s(状況s1~状況sn(nは2以上の整数))と、各状況sに対して第2ユーザU2の行った行動a(推奨行動ab(推奨行動ab1~推奨行動abn))と、の集合を一例として示した。
 なお、第1行動履歴情報20Aは、後述する制御部18で学習した第1行動モデルに、状況sを入力することで導出される第1行動aaの集合であってもよい。この場合、第1行動モデルを用いて仮想的にコンテンツ32をプレイさせることで得られる履歴情報を、第1行動履歴情報20Aとして用いることが可能となる。また、この場合、第1ユーザU1の未経験の状況sに対する第1行動aaを含む、第1行動履歴情報20Aを得ることができる。第1行動モデルの詳細は後述する。
 同様に、第2行動履歴情報20Bは、後述する制御部18で学習した第2行動モデルに状況sを入力することで導出される推奨行動abの集合であってもよい。この場合、第2行動モデルを用いて仮想的にコンテンツ32をプレイさせることで得られた履歴情報を、第2行動履歴情報20Bとして用いることが可能となる。また、この場合、第2ユーザU2の未経験の状況sに対する推奨行動abを含む、第2行動履歴情報20Bを得ることができる。第2行動モデルの詳細は後述する。
 図3に戻り説明を続ける。情報処理装置10は、ネットワークNを介して1または複数の端末装置12や外部装置などから、第1行動履歴情報20Aおよび第2行動履歴情報20Bを収集し、記憶部20へ記憶すればよい。
 また、上述したように、情報処理装置10は、制御部18で行動モデル(第1行動モデル、第2行動モデル)を用いて生成した第1行動履歴情報20Aおよび第2行動履歴情報20Bを、記憶部20へ記憶してもよい。
 次に、行動モデルDB20Cについて説明する。行動モデルDB20Cは、制御部18で学習された行動モデルを登録するためのデータベースである。なお、行動モデルDB20Cのデータ形式は、データベースに限定されない。
 次に、制御部18について説明する。制御部18は、情報処理装置10を制御する。
 制御部18は、第1学習部18Aと、第2学習部18Bと、抽出部18Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、抽出部18C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
 第1学習部18Aは、第1行動履歴情報20Aに基づいて、第1行動モデルを学習する。
 第1行動モデルは、行動モデルの一例である。行動モデルは、状況sから行動aを導出するための学習モデルである。言い換えると、行動モデルは、状況sに応じたユーザUの行動パターンを示すアルゴリズムによって表される分類器や識別器である。
 第1行動モデルは、状況sから第1行動aaを導出するための学習モデルである。第1行動モデルは、例えば、下記式(1)で表される。
 π(s)→aa 式(1)
 式(1)中、sは、コンテンツ32によって提供される状況sを示す。式(1)中、aaは、ある状況sのときの第1ユーザU1の第1行動aaを示す。
 なお、第1行動モデルは、ある状況sのときに特定の第1行動aaをとる確率を示す学習モデルであってもよい。この場合、第1行動モデルは、例えば、下記式(2)で表される。
 π(aa|s)→[0,1]   式(2)
 式(2)中、aaおよびsは、式(1)と同様である。
 第1学習部18Aは、第1行動履歴情報20Aに示される各タイミングに対応する状況sと第1行動aaとの対を教師データとして用いる。そして、第1学習部18Aは、該教師データを用いて、ある状況sのときに第1ユーザU1が行う第1行動aaを導出するための行動モデルを学習する。第1学習部18Aは、公知のImitation LearningなどのユーザUの行動模倣を学習する公知の機械学習により、第1行動モデルを学習すればよい。
 第2学習部18Bは、第2行動履歴情報20Bに基づいて、第2行動モデルを学習する。第2行動モデルは、行動モデルの一例である。第2行動モデルは、状況sから推奨行動abを導出するための学習モデルである。
 第2行動モデルは、例えば、下記式(3)で表される。
 π’(s)→ab 式(3)
 式(3)中、sは、コンテンツ32によって提供される状況sを示す。式(3)中、abは、ある状況sのときの第2ユーザU2の推奨行動abを示す。
 なお、第2行動モデルは、ある状況sのときに特定の推奨行動abをとる確率を示す学習モデルであってもよい。この場合、第2行動モデルは、例えば、下記式(4)で表される。
 π’(ab|s)→[0,1]   式(4)
 式(4)中、abおよびsは、上記式(3)と同様である。
 第2学習部18Bは、第2行動履歴情報20Bに示される各タイミングに対応する状況sと推奨行動abとの対を教師データとして用いる。そして、第2学習部18Bは、該教師データを用いて、ある状況sのときに第2ユーザU2が行う推奨行動abを導出するための行動モデルを学習する。第2学習部18Bは、公知のImitation LearningなどのユーザUの行動模倣を学習する公知の機械学習により、第2行動モデルを学習すればよい。
 なお、第1学習部18Aおよび第2学習部18Bは、学習した第1行動モデルおよび第2行動モデルを、これらの行動モデルを分類規則に応じて分類し、各分類規則の識別情報に対応付けて行動モデルDB20Cへ登録してもよい。分類規則は、予め定めればよい。分類規則は、例えば、これらの行動モデルの学習に用いたユーザUごと、ユーザUの属するグループごと、行動モデルの適用対象ごと、などである。なお、分類規則は、これらに限定されない。
 次に、抽出部18Cについて説明する。
 抽出部18Cは、ユーザUの行動モデルに基づいて、コンテンツ32の特定状況を抽出する。コンテンツ32の特定状況に抽出に用いるユーザUの行動モデルは、第1ユーザU1の第1行動モデル、および、第2ユーザU2の第2行動モデル、の少なくとも一方である。本実施形態では、抽出部18Cは、第1ユーザU1の第1行動モデルに基づいて、特定状況を抽出する。
 特定状況とは、コンテンツ32に含まれる状況sの内、特定の1または複数の状況sの集合を示す。特定状況は、連続的または段階的な状況sの時系列集合であってもよいし、離散的な状況sの時系列集合であってもよい。なお、特定状況は、1または複数の状況sの集合であればよく、時系列の集合に限定されない。
 特定状況は、具体的には、コンテンツ32で予め規定された異常とされる状況sである。例えば、コンテンツ32がドライブゲーム32A(図2参照)である場合、異常とされる状況sは、例えば、予め定めた走行ルートを外れた状況sや、他の車両と衝突した状況sなどである。
 本実施形態では、抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとしてコンテンツ32に入力したときに、該コンテンツ32から出力される状況sの評価値が第1閾値以下の状況を、特定状況として抽出する。
 評価値が高いほど、予め定めた推奨の状況sに近い事を示す。また、評価値が低いほど、予め定めた推奨の状況sからの距離が大きい事を示す。評価値が第1閾値以下の状態とは、コンテンツ32で予め規定した異常とされる状況sである。
 第1閾値には、異常な状況sと正常な状況sとを判別するための閾値を予め定めればよい。言い換えると、第1閾値には、異常な状況sとみなす評価値の範囲の上限値を予め定めればよい。なお、抽出部18Cは、コンテンツ32ごとに第1閾値を予め定め、コンテンツ32の識別情報に対応づけて第1閾値を記憶部20へ記憶してもよい。そして、抽出部18Cは、特定状況の抽出時に、特定状況の抽出対象のコンテンツ32の識別情報に対応する第1閾値を記憶部20から読取り、特定状況の抽出に用いればよい。
 抽出部18Cは、コンテンツ32によって提供された状況sを、第1行動モデルへ導入することで、該状況sに対する第1行動aaを得る。そして、抽出部18Cは、得られた第1行動aaを、行動aとしてコンテンツ32へ入力することで、変化した次の状況sを得る。そして、抽出部18Cは、この処理を繰り返し実行する。すなわち、抽出部18Cは、第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する。
 コンテンツ32を示すモデルは、例えば、下記式(5)で表される。
 T(s,a)→s  式(5)
 式(5)は、ある状況sである行動aが入力されると、次の状況sが出力されることを示す。
 抽出部18Cは、第1行動aa(行動a)の入力により、コンテンツ32から変化後の新たな状況sが出力されるごとに、該状況sの評価値を算出する。
 抽出部18Cは、該状況sの示す内容が該状況sを提供するコンテンツ32において予め定めた推奨される状況sに近いほど、高い評価値を算出する。評価値の算出方法は、コンテンツ32に応じて予め定めればよい。
 例えば、抽出部18Cは、状況判定関数を用いて、評価値を算出する。状況判定関数は、例えば、下記式(6)または式(7)で表される。
 r(s)→R  ・・・式(6)
 r(s,a)→R  ・・・式(7)
 式(6)は、ある状況sに対する評価値Rを導出するための状況判定関数rを示す式である。式(7)は、ある状況sである行動aを行ったときの評価値Rを導出するための状況判定関数rを示す式である。
 抽出部18Cは、コンテンツ32から出力された変化後の状況s、または該変化後の状況sと該変化後の状況sに対して入力された第1行動aaとしての行動aを、上記式(6)または式(7)へ導入することで、評価値Rを算出する。
 そして、抽出部18Cは、算出した評価値Rが第1閾値以下の状況sを、評価値Rが悪い、すなわち、推奨の状況sからより離れた状況sであると判断し、特定状況として抽出する。
 上記処理により抽出部18Cは、第1ユーザU1の第1行動モデルに基づいて、コンテンツ32の特定状況を抽出する。
 なお、抽出部18Cは、抽出した特定状況の発生要因を更に抽出してもよい。
 この場合、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sと第1行動aaとの対応を、特定状況の発生要因として更に抽出する。
 詳細には、抽出部18Cは、第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する。そして、抽出部18Cは、上述したように、特定状況を特定すると共に、特定状況の発生タイミングを特定する。さらに、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの時系列集合の内、少なくとも1つの状況sと、該状況sのとき入力された第1行動aaと、の対応を、特定状況の発生要因として抽出する。
 図5は、発生要因の抽出の一例を示す説明図である。なお、図5に示すグラフ中、縦軸には状況判定関数r(s,a)によって表される評価値Rを示し、横軸にはタイミングを示した。
 例えば、タイミングt4のときの状況s10の評価値Rが第1閾値T1以下の範囲内であったと仮定する。この場合、抽出部18Cは、該タイミングt4のときの状況s10を特定状況として抽出する。また、抽出部18Cは、該タイミングt4を、特定状況の発生タイミングt4として特定する。
 そして、抽出部18Cは、特定状況の発生タイミングt4より前の期間Aの状況sの内、該発生タイミングt4より前のタイミングの状況s(図5では、状況s9、状況s8、状況s7)の各々に対する第1行動aaを補正した補正行動を、行動aとしてコンテンツ32へ入力する。
 詳細には、抽出部18Cは、発生タイミングt4より前の(過去の)タイミングに向かって、1つずつ状況sを遡り、1つ状況sを遡るごとに、遡った状況sに対して行われた第1行動aaを、該第1行動aaとは異なる値の補正行動に補正する。そして、補正した補正行動を、該状況sの該タイミングに対する行動aとしてコンテンツ32へ入力する。
 図5に示す例の場合、抽出部18Cは、タイミングt4から1つ状況sを遡ったタイミングt3の状況s9に対して入力された第1行動aaを、補正行動に補正する。そして、抽出部18Cは、該補正行動を、該タイミングt3に対応する行動aとしてコンテンツ32へ入力することで、補正後の状況s9’を得る。
 なお、抽出部18Cは、遡った状況sに対する第2ユーザU2の推奨行動abを、補正行動として用いてもよい。すなわち、抽出部18Cは、遡った状況sに対して入力された第2ユーザU2の推奨行動abを、補正行動として用いてもよい。
 この場合、抽出部18Cは、遡った状況sを、第2学習部18Bで学習した第2行動モデルへ入力することで、該状況sに対する推奨行動abを取得すればよい。
 なお、抽出部18Cは、遡った状況sに対応する推奨行動abを第2行動履歴情報20Bから読取ることで、該状況sに対する推奨行動abを取得してもよい。抽出部18Cが第2行動履歴情報20Bから推奨行動abを読取る場合には、制御部18は、第2学習部18Bを備えない構成であってもよい。
 抽出部18Cは、遡ったタイミングの状況sに対する行動aとして補正行動をコンテンツ32へ入力した後に、特定状況の発生タイミングt4に向かって、上記と同様にして第1行動モデルを用いてコンテンツ32を仮想的に実行する。
 そして、抽出部18Cは、特定状況の発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超えたと判定するまで、発生タイミングt4より前の(過去の)タイミングに向かって、1つずつ状況sを遡り、補正行動のコンテンツ32への入力と発生タイミングt4における状況sの評価値Rの判定を繰返し実行する。
 そして、抽出部18Cは、発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超えたときのタイミングの状況sと、該状況sに対する第1行動aaとの対応を、発生要因として抽出すればよい。
 図5に示すように、発生タイミングt4から1つ状況sを遡ったタイミングt3の状況s9を第1行動aaの補正によって状況s9’としたと想定する。そして、この場合、その後の第1行動モデルを用いたコンテンツ32の仮想的な実行によって、発生タイミングt4でコンテンツ32から出力された状況sが、第1閾値T1以下の状況s109であったと想定する。
 そして、タイミングt3から更に1つ状況sを遡ったタイミングt2の状況s8の状況s8を第1行動aaの補正によって状況s8’としたと想定する。そして、この場合、その後の第1行動モデルを用いたコンテンツ32の仮想的な実行によって、発生タイミングt4でコンテンツ32から出力された状況sが、第1閾値T1を超える状況s108となったと想定する。
 この場合、抽出部18Cは、該タイミングt2の状況s8と、該状況s8に対する第1ユーザU1の第1行動aaと、の対応を、発生タイミングt4の特定状況(状況s10)の発生要因として抽出する。
 このように、抽出部18Cは、特定状況の発生タイミングt4より前の期間の状況sに対する第1行動aaを補正した補正行動を、コンテンツ32に入力する。そして、抽出部18Cは、該前の期間に補正行動をコンテンツ32に入力した場合に、発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超え、且つ発生タイミングt4に最も近いタイミングtの状況sと第1行動aaとの対応を、発生要因として抽出する。
 図3に戻り説明を続ける。次に、出力制御部18Dについて説明する。出力制御部18Dは、特定状況に関するアドバイス情報を出力する。
 出力制御部18Dは、抽出部18Cから特定状況を受付ける。なお、出力制御部18Dは、抽出部18Cから、特定状況および発生要因の双方を受付けてもよい。そして、抽出部18Cは、特定状況に関するアドバイス情報を出力する。なお、抽出部18Cは、特定状況および発生要因に関するアドバイス情報を出力してもよい。
 アドバイス情報とは、第1ユーザU1に対する、特定状況に関するアドバイスとなる情報である。具体的には、アドバイス情報は、特定状況の内容、特定状況の発生要因、および特定状況の回避方法、の少なくとも1つを示す。
 特定状況の内容とは、特定状況の示す状況sや、該状況sに対する第1ユーザU1の第1行動aaを示す情報である。特定情報の示す状況sは、例えば、ゲーム中に出力される画面、ゲーム内において第1ユーザU1による操作指示などに応じて動くキャラクタの位置や活動状態、キャラクタ以外の周辺環境の状態、ゲームの進行状況、およびゲームスコア等によって表される。また、特定状況の内容は、コンテンツ32における該特定状況の位置や発生タイミングを示す情報を含んでいてもよい。また、特定状況の内容は、該特定状況の位置や発生タイミングによって示される箇所が、第1ユーザU1の注意を喚起すべき箇所であることを示す情報を含んでいてもよい。
 特定状況の発生要因は、抽出部18Cが抽出した発生要因を示す状況sと第1ユーザU1の第1行動aaとの対応を示す情報であればよい。例えば、発生要因は、ある状況sで第1ユーザU1がどのような行動を行うと、発生タイミングにおいて特定状況に示される状況sが発生するかを示す情報であってもよい。
 特定状況の回避方法は、特定情報を回避するために第1ユーザU1がとる行動aを示す情報である。特定状況の回避方法は、例えば、特定状況の示す状況sに対応する推奨行動abを示す情報や、発生要因に示される状況sに対応する推奨行動abを示す情報である。
 出力制御部18Dは、抽出部18Cから受付けた特定状況、または特定状況および発生要因を用いて、アドバイス情報を生成し、出力すればよい。
 本実施形態では、出力制御部18Dは、特定状況に関するアドバイス情報を、第1ユーザU1に該情報を提供可能な端末装置12へ送信することで、該アドバイス情報を出力する。
 例えば、出力制御部18Dは、特定状況に関するアドバイス情報を、通信部22およびネットワークNを介して第1ユーザU1の操作する端末装置12へ送信すればよい。この場合、例えば、記憶部20は、第1ユーザU1の識別情報と、該第1ユーザU1の操作する端末装置12の識別情報と、を対応づけて予め記憶すればよい。そして、出力制御部18Dは、提供対象の第1ユーザU1の識別情報に対応する、該第1ユーザU1の操作する端末装置12の識別情報を記憶部20から読取り、該識別情報によって識別される端末装置12へアドバイス情報を送信すればよい。
 なお、出力制御部18Dは、特定状況に関するアドバイス情報を、情報処理装置10に直接接続された表示装置などの出力装置に出力してもよい。
[第1の実施形態に係る端末装置の構成]
 次に、端末装置12について説明する。端末装置12は、情報処理装置10から受信したアドバイス情報を出力する。
 端末装置12は、制御部24と、UI部26と、通信部28と、記憶部30と、を備える。UI部26、通信部28、および記憶部30と、制御部24とは、データや信号を授受可能に接続されている。
 UI部26は、上述したように、出力部26Aと入力部26Bとを含む。なお、端末装置12がゲーム装置12Aである場合には、出力部26Aは出力部14に相当し、入力部26Bは入力部16に相当する。
 通信部28は、ネットワークNを介して情報処理装置10や他の装置と通信する通信インターフェースである。記憶部30は、各種情報を記憶する。
 制御部24は、端末装置12を制御する。制御部24は、取得部24Aと、出力制御部24Bと、を備える。取得部24Aおよび出力制御部24Bの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
 取得部24Aは、情報処理装置10からアドバイス情報を取得する。出力制御部24Bは、アドバイス情報をUI部26へ出力する。本実施形態では、出力制御部24Bは、アドバイス情報を示す表示画面をUI部26へ表示する。
 図6は、表示画面40の一例を示す模式図である。図6には、コンテンツ32がドライブゲーム32A(図2参照)である場合を一例として示した。この場合、端末装置12の出力制御部24Bは、ドライブゲーム32Aで提供されるゲーム画面に、アドバイス情報を示すアイコンPを配置した、表示画面40を生成し、UI部26へ出力する。なお、表示画面40の生成は、情報処理装置10の出力制御部18Dで実行してもよい。
 例えば、第1ユーザU1は、UI部26(入力部26Bまたは入力部16)を操作することで、表示画面40におけるアイコンPの表示位置を選択する。出力制御部24Bは、該選択を示す選択信号をUI部26から受付けると、選択されたアイコンPに対応するアドバイス情報の詳細をUI部26へ表示すればよい。なお、アドバイス情報の表示形態は、図6に示す形態に限定されない。
 図3に戻り説明を続ける。端末装置12における、アドバイス情報の出力タイミングは限定されない。例えば、制御部24は、第1ユーザU1によるUI部26の操作指示によってゲーム開始指示信号を受付けたときに、アドバイス情報をUI部26へ表示する。また、例えば、制御部24は、端末装置12がコンテンツ32のゲームプログラムを実行中に、アドバイス情報をUI部26へ出力してよい。この場合、制御部24は、コンテンツ32によって提供される状況sがアドバイス情報に示される特定状況や発生要因の状況sとなった場合や特定状況に近づいたときなどに、アドバイス情報をUI部26へ出力すればよい。
[第1の実施形態に係る情報処理手順]
 次に、情報処理装置10が実行する情報処理の手順の一例を説明する。
 図7は、情報処理装置10が実行する情報処理の手順の一例を示す、フローチャートである。
 まず、第1学習部18Aが、記憶部20から第1行動履歴情報20Aを取得する(ステップS100)。次に、第1学習部18Aは、ステップS100で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS102)。
 次に、第2学習部18Bが、記憶部20から第2行動履歴情報20Bを取得する(ステップS104)。次に、第2学習部18Bは、ステップS104で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS106)。
 次に、抽出部18Cが、ステップS102で学習した第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する(ステップS108)。すなわち、ステップ108では、抽出部18Cは、第1行動モデルから導出される第1行動aaを行動aとして、順次コンテンツ32へ入力し、順次出力される状況sを得る。
 次に、抽出部18Cは、ステップS102で学習した第1ユーザU1の第1行動モデルに基づいて、ステップS108でコンテンツ32から順次出力される状況sの評価値Rに基づいて、コンテンツ32の特定状況を抽出する(ステップS110)。
 次に、抽出部18Cは、ステップS110で抽出した特定状況の発生要因を抽出する(ステップS112)。
 次に、出力制御部18Dが、ステップS110で抽出した特定状況およびステップS112で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS114)。そして、本ルーチンを終了する。
 なお、制御部18は、上記ステップS100~ステップS106の第1行動モデルの学習および第2行動モデルの学習の少なくとも一方の処理を、抽出部18Cによる特定状況の抽出とは異なるタイミングで実行してもよい。具体的には、ステップS100~ステップS106の一連の処理を、ステップS108~ステップS114の一連の処理とは異なるタイミングで実行してもよい。
[第1の実施形態に係る出力処理手順]
 次に、端末装置12が実行する出力処理の手順の一例を説明する。
 図8は、端末装置12が実行する出力処理の手順の一例を示す、フローチャートである。なお、図8には、端末装置12がゲーム装置12Aであり、コンテンツ32としてゲームプログラムを実行する場合を一例として説明する。
 まず、端末装置12の取得部24Aが、入力部16からゲーム開始指示信号を受付けたか否かを判断する(ステップS200)。ステップS200で否定判断すると(ステップS200:No)、本ルーチンを終了する。一方、ステップS200で肯定判断すると(ステップS200:Yes)、ステップS202へ進む。
 ステップS202では、取得部24Aは、通信部28を介して情報処理装置10から、アドバイス情報を取得する。なお、端末装置12の制御部24は、情報処理装置10から受信したアドバイス情報を記憶部30へ記憶してもよい。そして、取得部24Aは、記憶部30からアドバイス情報を読取ることで、アドバイス情報を取得してもよい。
 そして、出力制御部24Bは、アドバイス情報をUI部26へ出力する(ステップS204)。このため、端末装置12のUI部26には、例えば、図6に示す、アドバイス情報を示すアイコンPを含む表示画面40が表示される。
 そして、制御部24は、ステップS200で受付けたゲーム開始指示信号に対応するゲームプログラムを実行する(ステップS206)。そして、制御部24は、入力部16からゲーム終了指示を受付けたと判断するまで否定判断を繰り返し(ステップS208:No)、肯定判断すると(ステップS208:Yes)、本ルーチンを終了する。なお、上述したように、制御部24は、ゲームの実行中に、アドバイス情報をUI部26へ出力してもよい。
 以上説明したように、本実施形態の情報処理装置10は、抽出部18Cと、出力制御部18Dと、を備える。抽出部18Cは、ユーザUの行動モデルに基づいて、ユーザUの行動に応じて状況が変化するコンテンツ32の特定状況を抽出する。出力制御部18Dは、特定状況に関するアドバイス情報を出力する。
 ここで、従来では、1つ1つステップを踏みながら技術を習得させる、トレーニング用のコンテンツを用意していた。例えば、ドライブゲームの場合、なめらかな加速方法、コーナへの進入方法などのトレーニング用コンテンツが別途用意されていた。しかしながら、トレーニング用のコンテンツは画一的であり、ユーザUの行動に応じたアドバイス情報を提供することは困難であった。
 一方、本実施形態では、抽出部18Cが、ユーザUの行動モデルに基づいて、特定状況を抽出する。そして、出力制御部18Dは、このユーザUの行動モデルに基づいて抽出された特定状況に関する、アドバイス情報を出力する。
 従って、本実施形態の情報処理装置10は、ユーザUの行動に応じたアドバイス情報を提供することができる。
 また、本実施形態では、第1学習部18Aは、状況sとユーザUとしての第1ユーザU1の第1行動aaとの対応を示す第1行動履歴情報20Aに基づいて、状況sから第1行動aaを導出するための行動モデルとして第1行動モデルを学習する。抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第1閾値T1以下の状況sを特定状況として抽出する。
 このように、本実施形態の情報処理装置10は、第1行動モデルを用いて、コンテンツ32へ入力するための第1ユーザU1の第1行動aaを得る。このため、コンテンツ32によって提供される状況sの少なくとも1つが第1行動履歴情報20Aに未登録の場合であっても、情報処理装置10は、コンテンツ32によって提供される状況sに応じた第1行動aaを得ることができる。そして、情報処理装置10の抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rを用いて、特定状況を抽出する。
 このため、本実施形態の情報処理装置10は、上記効果に加えて、精度良く特定状況を抽出することができる。
 また、本実施形態では、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sと第1行動aaとの対応を、特定状況の発生要因として更に抽出する。
 このように、特定状況の発生要因を更に抽出することで、本実施の形態の情報処理装置10は、上記効果に加えて、ユーザUに対して適切なアドバイス情報を提供することができる。
 また、本実施形態では、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの内、第1行動aaを補正した補正行動を行動aとしてコンテンツ32に入力したときに、発生タイミングにおいてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超える状況sと第1行動aaとの対応を、発生要因として抽出する。
 すなわち、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの内、状況sに対する第1行動aaを他の行動aである補正行動に変更した場合に、発生タイミングにおける状況sの評価値Rが良好となる状況sと、該状況sに対して行われた第1行動aaと、を発生要因として抽出する。
 このため、本実施形態の情報処理装置10は、上記効果に加えて、精度良く発生要因を抽出することができる。
[第1の実施形態の変形例]
 本変形例では、第1ユーザU1の第1行動履歴情報20Aを補正した行動履歴情報を生成し、該行動履歴情報に基づいて学習した行動モデルに基づいて、推奨状況を抽出する。
[第1の実施形態の変形例に係る情報処理システムの構成]
 図1は、本変形例の情報処理システム1Aの一例を示す模式図である。
 情報処理システム1Aは、情報処理装置10Aと、端末装置12と、を備える。情報処理システム1Aは、情報処理装置10に代えて情報処理装置10Aを備える点以外は、第1の実施形態の情報処理システム1と同様である。
[第1の実施形態の変形例に係る情報処理装置の構成]
 図9は、情報処理装置10Aおよび端末装置12の機能ブロック図の一例である。端末装置12の機能的構成は、第1の実施形態と同様である。
 情報処理装置10Aは、制御部17と、記憶部21と、通信部22と、を備える。記憶部21および通信部22と、制御部17とは、データや信号を授受可能に接続されている。通信部22は、第1の実施形態と同様である。
 記憶部21は、各種情報を記憶する。本変形例では、記憶部21は、第1行動履歴情報20Aと、第2行動履歴情報20Bと、第3行動履歴情報20Dと、行動モデルDB20Cと、を記憶する。第1行動履歴情報20A、第2行動履歴情報20B、および行動モデルDB20Cは、第1の実施形態と同様である。
 第3行動履歴情報20Dは、第1行動履歴情報20Aを補正した行動履歴情報である。第3行動履歴情報20Dは、制御部17の処理によって生成され、記憶部21に記憶される(詳細後述)。
 制御部17は、情報処理装置10Aを制御する。制御部17は、第1学習部18Aと、第2学習部18Bと、生成部17Eと、第3学習部17Fと、抽出部17Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、生成部17E、第3学習部17F、抽出部17C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。第1学習部18A、第2学習部18B、および出力制御部18Dは、第1の実施形態と同様である。
 生成部17Eは、第1ユーザU1の第1行動履歴情報20Aを補正し、第3行動履歴情報20Dを生成する。
 図10は、第3行動履歴情報20Dの生成の一例を示す説明図である。
 生成部17Eは、第1行動履歴情報20Aと、第2行動履歴情報20Bと、に基づいて、第1行動履歴情報20Aの第1行動aaの内、推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換することにより、第3行動履歴情報20Dを生成する。
 詳細には、生成部17Eは、第1行動履歴情報20Aと第2行動履歴情報20Bについて、同じ状況sに対応する第1行動aaと推奨行動abとを比較する。言い換えると、生成部17Eは、第1行動履歴情報20Aと第2行動履歴情報20Bについて、同じ状況sごとに、対応する第1行動aaと推奨行動abとを比較する。
 そして、生成部17Eは、第1行動履歴情報20Aに規定された1または複数の状況sにおける、対応する第1行動aaと推奨行動abとの差が所定値以上の状況sを特定する。
 ここで、第1行動aaと推奨行動abとの差が小さいほど、第1行動aaは正常または良好な行動aである。また、第1行動aaと推奨行動abとの差が大きいほど、第1行動aaは異常または不良な行動aである。
 このため、所定値には、異常または不良な行動aとみなす、第1行動aaと推奨行動abとの差の範囲の下限値を予め定めればよい。なお、生成部17Eは、コンテンツ32やユーザUごとに所定値を予め定め、コンテンツ32およびユーザUの識別情報に対応づけて記憶部21へ予め記憶してもよい。そして、生成部17Eは、第3行動履歴情報20Dの生成時に、処理対象のコンテンツ32およびユーザUの識別情報に対応する所定値を記憶部21から読取り、第3行動履歴情報20Dの生成に用いればよい。
 次に、生成部17Eは、第1行動履歴情報20Aに規定された1または複数の状況sに対応する第1行動aaの内、該差が所定値以上であると特定した状況sに対応する第1行動aaを、第2行動履歴情報20Bにおける同じ状況sに対応する推奨行動abに置換する。この置換により、生成部17Eは、第3行動履歴情報20Dを生成する。
 具体的には、図10に示すように、第1行動履歴情報20Aの状況s2に対応する第1行動aa2と、第2行動履歴情報20Bの同じ状況s2に対応する推奨行動ab2との差が、所定値以上であったと想定する。また、第1行動履歴情報20Aの状況s3に対応する第1行動aa3と、第2行動履歴情報20Bの同じ状況s3に対応する推奨行動ab3との差が、所定値以上であったと想定する。この場合、生成部17Eは、第1行動履歴情報20Aの第1行動aa2および第1行動aa3(図10中、枠線42A内参照)を、第2行動履歴情報20Bの推奨行動ab2および推奨行動ab3(図10中、枠線42B内参照)に置換する。この処理により、生成部17Eは、第3行動履歴情報20Dを生成する。
 図9に戻り説明を続ける。第3学習部17Fは、第3行動履歴情報20Dに基づいて、状況sから該第3行動履歴情報20Dにおける第3行動acを導出するための行動モデルとして、第3行動モデルを学習する。第3行動acは、図10に示すように、第3行動履歴情報20Dに規定された行動aであり、第1行動履歴情報20Aの第1行動aaと、第2行動履歴情報20Bの推奨行動abと、によって表される。
 図9に戻り説明を続ける。第3行動モデルは、行動モデルの一例である。第3行動モデルは、状況sから第3行動acを導出するための学習モデルである。
 第3学習部17Fは、第3行動履歴情報20Dに示される各タイミングに対応する状況sと第3行動acとの対応を示す教師データを用いて、第1学習部18Aと同様にして、第3行動モデルを学習すればよい。
 次に、抽出部17Cについて説明する。
 抽出部17Cは、第3行動モデルから導出した第3行動acを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第3閾値を超える状況sを、特定状況として抽出する。
 すなわち、抽出部17Cは、第1行動モデルおよび第2行動モデルに代えて、第3行動モデルを用いて評価値Rを算出する点以外は、第1の実施形態の抽出部18Cと同様にして、特定状況を抽出する。
 ここで、上述したように、第3行動履歴情報20Dは、第1行動履歴情報20Aにおける、推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換することにより生成された行動履歴情報である。
 このため、本変形例では、抽出部17Cは、第1行動aaを推奨行動abに置換することで評価値Rの向上した状況sを、特定状況として抽出する。
 すなわち、本変形例では、抽出部17Cは、評価値Rの判断に、第3閾値を用いる。第3閾値には、第1行動aaを推奨行動abに置換することで状況sが向上したと判別するための評価値Rの範囲の下限値を定めればよい。そして、抽出部17Cは、評価値Rが第3閾値以上の状況sを、特定状況として抽出すればよい。
 なお、抽出部17Cは、第1の実施形態の抽出部18Cと同様に、特定状況の発生要因を更に抽出してもよい。特定状況の発生要因の抽出は、抽出部18Cと同様に実行すればよい。
[第1の実施形態の変形例に係る情報処理手順]
 次に、情報処理装置10Aが実行する情報処理の手順の一例を説明する。
 図11は、情報処理装置10が実行する情報処理の手順の一例を示す、フローチャートである。
 まず、第1学習部18Aが、記憶部21から第1行動履歴情報20Aを取得する(ステップS300)。次に、第1学習部18Aは、ステップS300で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS302)。
 次に、第2学習部18Bが、記憶部21から第2行動履歴情報20Bを取得する(ステップS304)。次に、第2学習部18Bは、ステップS304で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS306)。
 次に、生成部17Eが、第1行動履歴情報20Aおよび第2行動履歴情報20Bを用いて第3行動履歴情報20Dを生成する(ステップS308)。次に、第3学習部17Fが、ステップS308で生成した第3行動履歴情報20Dに基づいて、第3行動モデルを学習する(ステップS310)。
 次に、抽出部17Cが、ステップS310で学習した第3行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する(ステップS312)。すなわち、ステップ312では、抽出部17Cは、第3行動モデルから導出される第3行動acを行動aとして、順次コンテンツ32へ入力する。
 次に、抽出部17Cは、ステップS310で学習した第3行動モデルに基づいて、ステップS312でコンテンツ32から順次出力される状況sの評価値Rに基づいて、コンテンツ32の特定状況を抽出する(ステップS314)。
 次に、抽出部18Cは、ステップS314で抽出した特定状況の発生要因を抽出する(ステップS316)。
 次に、出力制御部18Dが、ステップS316で抽出した特定状況およびステップS316で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS318)。そして、本ルーチンを終了する。
 以上説明したように、本変形例では、生成部17Eが、第1行動履歴情報20Aと第2行動履歴情報20Bとに基づいて、第1行動履歴情報20Aの第1行動aaの内、第2行動履歴情報20Bの推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換した第3行動履歴情報20Dを生成する。第3学習部17Fは、第3行動履歴情報20Dに基づいて、状況sから第3行動履歴情報20Dにおける第1行動aaおよび推奨行動abとしての第3行動acを導出するための行動モデルとして第3行動モデルを学習する。抽出部17Cは、第3行動モデルから導出した第3行動acを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第3閾値以上の状況sを、特定状況として抽出する。
 このように、本変形例では、生成部17Eが、第1ユーザU1の第1行動履歴情報20Aを、第1ユーザU1よりコンテンツ32に対する習熟度やスキルの高い第2ユーザU2の第2行動履歴情報20Bを用いて補正した、第3行動履歴情報20Dを生成する。そして、抽出部17Cは、この第3行動履歴情報20Dから学習された、ユーザUの第3行動モデルに基づいて、特定状況を抽出する。
 このため、本変形例の情報処理装置10Aは、ユーザUの行動aに応じたアドバイス情報を提供することができる。
(第2の実施形態)
 本実施形態では、第1ユーザU1の第1行動履歴情報20Aに規定された第1行動aaと、第2ユーザU2の第2行動モデルから導出した推奨行動abと、の差に基づいて、特定状況を抽出する形態を説明する。
[第2の実施形態に係る情報処理システムの構成]
 図1は、本変形例の情報処理システム1Bの一例を示す模式図である。
 情報処理システム1Bは、情報処理装置10Bと、端末装置12と、を備える。情報処理システム1Bは、情報処理装置10に代えて情報処理装置10Bを備える点以外は、第1の実施形態の情報処理システム1と同様である。
[第2の実施形態に係る情報処理装置の構成]
 図3は、情報処理装置10Bおよび端末装置12の機能ブロック図の一例である。端末装置12の機能的構成は、第1の実施形態と同様である。
 情報処理装置10Bは、制御部19と、記憶部20と、通信部22と、を備える。記憶部21および通信部22と、制御部19とは、データや信号を授受可能に接続されている。記憶部20および通信部22は、第1の実施形態と同様である。
 制御部19は、情報処理装置10Bを制御する。制御部19は、第1学習部18Aと、第2学習部18Bと、抽出部19Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、抽出部19C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。第1学習部18A、第2学習部18B、および出力制御部18Dは、第1の実施形態と同様である。
 抽出部19Cは、状況sと第1ユーザU1の第1行動aaとの対応を示す第1行動履歴情報20Aと、第2行動モデルと、に基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
 詳細には、本実施形態では制御部19の第2学習部18Bが、第1の実施形態と同様にして、第2行動履歴情報20Bから第2行動モデルを学習する。
 そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sの各々を、第2行動モデルへ導入することで、該状況sに対する推奨行動abを得る。
 ここで、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sとは、少なくとも一部が不一致の場合がある。上述したように、コンテンツ32は、入力されたユーザUの行動aに応じて、出力する状況sが変化する。このため、ある状況sに対する第1ユーザU1と第2ユーザU2の行動aが異なる場合、コンテンツ32から出力される変化後の状況sは、異なるものとなる。このため、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sと、の少なくとも一部が不一致の場合がある。
 すると、第1行動履歴情報20Aに示される複数の状況sの内、少なくとも一部の状況sが、第2行動履歴情報20Bには示されない場合がある。言い換えると、第1ユーザU1による第1行動aaによって変化した状況sには、第2ユーザU2による推奨行動abによっては生じない状況sが含まれる場合がある。
 そこで、本実施形態では、抽出部19Cは、第1行動履歴情報20Aに示される状況sの各々を、第2行動モデルへ導入することで、該状況sに対応する推奨行動abを導出する。
 そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sごとに、対応する第1行動aaと、第2行動モデルを用いて導出した該対応する推奨行動abと、の差を算出する。
 そして、抽出部19Cは、この第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
 ここで、第1行動aaと推奨行動abとの差が小さいほど、第1行動aaは正常または良好な行動aである。また、第1行動aaと推奨行動abとの差が大きいほど、第1行動aaは異常または不良な行動である。
 このため、第2閾値には、異常または不良な行動aとみなす、第1行動aaと推奨行動abとの差の範囲の下限値を予め定めればよい。なお、抽出部19Cは、コンテンツ32や第1ユーザU1や第2ユーザU2ごとに第2閾値を予め定め、これらの識別情報に対応づけて記憶部20へ予め記憶してもよい。そして、抽出部19Cは、特定状況の抽出時に、処理対象の第1ユーザU1、第2ユーザU2、およびコンテンツ32の識別情報に対応する第2閾値を記憶部20から読取り、特定状況の抽出に用いればよい。
 上記処理により抽出部19Cは、第1ユーザU1の第1行動履歴情報20Aと、第2ユーザU2の第2行動モデルと、に基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
 なお、抽出部19Cは、第1行動履歴情報20Aにおける連続した第1行動aaの集合と、第2行動履歴情報20Bにおける連続した推奨行動abの集合と、の乖離度合を、該差として算出し、該差が第2閾値以上の状況sを、特定状況として抽出してもよい。
 なお、抽出部19Cは、第1の実施形態の抽出部18Cと同様に、抽出した特定状況の発生要因を更に抽出してもよい。発生要因の抽出は、第1の実施形態と同様に、第1学習部18Aで学習した第1行動モデルを用いて実行すればよい。なお、情報処理装置10Bが、特定状況の発生要因の抽出を行わない場合には、制御部19は、第1学習部18Aを備えない構成であってもよい。
 出力制御部18Dは、第1の実施形態と同様に、特定状況に関するアドバイス情報を出力する。
 ここで、本実施形態では、特定状況は、第1行動aaと推奨行動abとの差が第2閾値以上の状況sである。このため、アドバイス情報は、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を更に含んでいてもよい。
 具体的には、アドバイス情報は、特定状況の内容、特定状況の発生要因、特定状況に対するユーザUの行動aと推奨行動abとの差、および、特定状況の回避方法、の少なくとも1つを示す情報であればよい。
 アドバイス情報が、特定状況に関する情報として、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を含むため、端末装置12で出力される情報は、該差を示す情報を含んだものであってもよい。
 図12は、アドバイス情報を含む表示画面44の一例を示す模式図である。図12には、コンテンツ32がドライブゲーム32A(図2参照)である場合を一例として示した。例えば、端末装置12の制御部24は、ドライブゲーム32Aで提供されるゲーム画面に、アドバイス情報を示すラインP1およびラインP2を配置した、表示画面44をUI部26へ出力する。
 ラインP1は、第1ユーザU1の第1行動aaを示す画像である。ラインP2は、第2ユーザU2の推奨行動abを示す画像である。端末装置12は、これらのラインP1およびラインP2を示す表示画面44を表示することで、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を出力してもよい。
 なお、第1の実施形態と同様に、表示画面44は、情報処理装置10B側で生成してもよいし、端末装置12側で生成してもよい。
[第2の実施形態に係る情報処理手順]
 次に、情報処理装置10Bが実行する情報処理の手順の一例を説明する。
 図13は、情報処理装置10Bが実行する情報処理の手順の一例を示す、フローチャートである。
 まず、第1学習部18Aが、記憶部20から第1行動履歴情報20Aを取得する(ステップS400)。次に、第1学習部18Aは、ステップS400で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS402)。
 次に、第2学習部18Bが、記憶部20から第2行動履歴情報20Bを取得する(ステップS404)。次に、第2学習部18Bは、ステップS404で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS406)。
 次に、抽出部19Cが、第1行動履歴情報20Aに示される状況sの各々を、ステップS406で学習した第2行動モデルへ入力することで、該状況sに対応する推奨行動abを導出する(ステップS408)。
 そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sごとに、対応する第1行動aaと、ステップS408で第2行動モデルを用いて導出した対応する推奨行動abと、の差が第2閾値以上の状況sを、特定状況として抽出する(ステップS410)。
 次に、抽出部19Cが、ステップS402で学習した第1行動モデルと、ステップS410で抽出した特定状況と、に基づいて、第1の実施形態の抽出部18Cと同様にして、ステップS410で抽出した特定状況の発生要因を抽出する(ステップS412)。
 次に、出力制御部18Dが、ステップS410で抽出した特定状況およびステップS412で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS414)。そして、本ルーチンを終了する。
 以上説明したように、本実施形態の情報処理装置10Bでは、第2学習部18Bが、第2行動履歴情報20Bに基づいて、状況sから推奨行動abを導出するための行動モデルとして第2行動モデルを学習する。抽出部19Cは、第1行動履歴情報20Aと第2行動モデルとに基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを特定状況として抽出する。
 このように、本実施形態の情報処理装置10Bは、第1ユーザU1の第1行動履歴情報20Aに示される状況sに対応する第1行動aaと、第2行動モデルから導出した該状況sに対応する推奨行動abと、の差が第2閾値以上の状況sを、特定状況として抽出する。
 このため、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sと、の少なくとも一部が不一致の場合であっても、第1行動履歴情報20Aに示される状況sの各々に対応する第2ユーザU2の推奨行動abを導出することができる。
 従って、本実施形態の情報処理装置10Bは、上記実施形態の効果に加えて、精度良く、ユーザUの行動に応じたアドバイス情報を提供することができる。
 また、アドバイス情報は、特定状況の内容、特定状況の発生要因、特定状況に対するユーザUの行動aと推奨行動abとの差、および、特定状況の回避方法、の少なくとも1つを示す。
 このため、本実施形態の情報処理装置10Bは、上記効果に加えて、ユーザUの行動に応じた適切なアドバイス情報を提供することができる。
 なお、上記には、本開示の実施形態および変形例を説明したが、上述した各実施形態および変形例に係る処理は、上記各実施形態および変形例以外にも種々の異なる形態にて実施されてよい。また、上述してきた各実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
[上記実施形態および変形例の抽出装置および情報処理装置の適用対象]
 上記実施形態および変形例に係る情報処理装置10、10A、10Bの適用対象は限定されない。例えば、ゲーム装置12Aを用いたシステムや、ゲーム開発者向けの開発ツールキットや、実空間のユーザUの行動に対するアドバイス情報を提供する各種システムなどに適用することができる。
 ゲーム開発者向けの開発ツールキットに適用した場合、上記実施形態および変形例の効果に加えて、ゲーム内で動作するキャラクタやアバターなどの育成ゲームや、ゲームに搭載されたAI(Artificial Intelligence)の開発効率化を図ることができる。
(ハードウェア構成)
 図14は、上記実施形態および変形例に係る情報処理装置10、10A、10Bおよび端末装置12の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。
 コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェース1500、及び入出力インターフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムなどを記録する記録媒体である。
 通信インターフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェースである。例えば、CPU1100は、通信インターフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信する。
 入出力インターフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェースである。例えば、CPU1100は、入出力インターフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が第1の実施形態に係る情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、抽出部18C等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部20や記憶部21内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、
 前記特定状況に関するアドバイス情報を出力する出力制御部と、
 を備える情報処理装置。
(2)
 前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する第1学習部を備え、
 前記抽出部は、
 前記第1行動モデルから導出した前記第1行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第1閾値以下の前記状況を、前記特定状況として抽出する、
 前記(1)に記載の情報処理装置。
(3)
 前記抽出部は、
 前記特定状況の発生タイミングより前の期間の前記状況と前記第1行動との対応を、前記特定状況の発生要因として更に抽出する、
 前記(2)に記載の情報処理装置。
(4)
 前記抽出部は、
 前記特定状況の発生タイミングより前の期間の前記状況の内、前記第1行動を補正した補正行動を前記行動として前記コンテンツに入力したときに、前記発生タイミングにおいて前記コンテンツから出力される前記状況の前記評価値が前記第1閾値を超える前記状況と前記第1行動との対応を、前記発生要因として抽出する、
 前記(3)に記載の情報処理装置。
(5)
 前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報に基づいて、前記状況から前記推奨行動を導出するための前記行動モデルとして第2行動モデルを学習する第2学習部を備え、
 前記抽出部は、
 前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記第2行動モデルと、に基づいて、前記第1行動と前記推奨行動との差が第2閾値以上の前記状況を前記特定状況として抽出する、
 前記(1)に記載の情報処理装置。
(6)
 前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報と、に基づいて、
 前記第1行動履歴情報の前記第1行動の内、前記推奨行動との差が所定値以上の前記第1行動を前記推奨行動に置換した第3行動履歴情報を生成する生成部と、
 前記第3行動履歴情報に基づいて、前記状況から該第3行動履歴情報における前記第1行動および前記推奨行動としての第3行動を導出するための前記行動モデルとして第3行動モデルを学習する第3学習部と、
 を備え、
 前記抽出部は、
 前記第3行動モデルから導出した前記第3行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第3閾値以上の前記状況を、前記特定状況として抽出する、
 前記(1)に記載の情報処理装置。
(7)
 前記アドバイス情報は、
 前記特定状況の内容、前記特定状況の発生要因、前記特定状況に対するユーザの行動と推奨行動との差、および、前記特定状況の回避方法、の少なくとも1つを示す、
 前記(1)~前記(6)の何れか1つに記載の情報処理装置。
(8)
 コンピュータが、
 ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出し、
 前記特定状況に関するアドバイス情報を出力する、
 情報処理方法。
 10、10A、10B 情報処理装置
 17E 生成部
 17F 第3学習部
 18A 第1学習部
 18B 第2学習部
 18C、19C 抽出部
 18D 出力制御部

Claims (8)

  1.  ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、
     前記特定状況に関するアドバイス情報を出力する出力制御部と、
     を備える情報処理装置。
  2.  前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する第1学習部を備え、
     前記抽出部は、
     前記第1行動モデルから導出した前記第1行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第1閾値以下の前記状況を、前記特定状況として抽出する、
     請求項1に記載の情報処理装置。
  3.  前記抽出部は、
     前記特定状況の発生タイミングより前の期間の前記状況と前記第1行動との対応を、前記特定状況の発生要因として更に抽出する、
     請求項2に記載の情報処理装置。
  4.  前記抽出部は、
     前記特定状況の発生タイミングより前の期間の前記状況の内、前記第1行動を補正した補正行動を前記行動として前記コンテンツに入力したときに、前記発生タイミングにおいて前記コンテンツから出力される前記状況の前記評価値が前記第1閾値を超える前記状況と前記第1行動との対応を、前記発生要因として抽出する、
     請求項3に記載の情報処理装置。
  5.  前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報に基づいて、前記状況から前記推奨行動を導出するための前記行動モデルとして第2行動モデルを学習する第2学習部を備え、
     前記抽出部は、
     前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記第2行動モデルと、に基づいて、前記第1行動と前記推奨行動との差が第2閾値以上の前記状況を前記特定状況として抽出する、
     請求項1に記載の情報処理装置。
  6.  前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報と、に基づいて、
     前記第1行動履歴情報の前記第1行動の内、前記推奨行動との差が所定値以上の前記第1行動を前記推奨行動に置換した第3行動履歴情報を生成する生成部と、
     前記第3行動履歴情報に基づいて、前記状況から該第3行動履歴情報における前記第1行動および前記推奨行動としての第3行動を導出するための前記行動モデルとして第3行動モデルを学習する第3学習部と、
     を備え、
     前記抽出部は、
     前記第3行動モデルから導出した前記第3行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第3閾値以上の前記状況を、前記特定状況として抽出する、
     請求項1に記載の情報処理装置。
  7.  前記アドバイス情報は、
     前記特定状況の内容、前記特定状況の発生要因、前記特定状況に対するユーザの行動と推奨行動との差、および、前記特定状況の回避方法、の少なくとも1つを示す、
     請求項1に記載の情報処理装置。
  8.  コンピュータが、
     ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出し、
     前記特定状況に関するアドバイス情報を出力する、
     情報処理方法。
PCT/JP2019/013846 2018-06-29 2019-03-28 情報処理装置、および情報処理方法 WO2020003670A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020527215A JP7375751B2 (ja) 2018-06-29 2019-03-28 情報処理装置、および情報処理方法
US17/254,920 US20210260482A1 (en) 2018-06-29 2019-03-28 Information processing device and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-124453 2018-06-29
JP2018124453 2018-06-29

Publications (1)

Publication Number Publication Date
WO2020003670A1 true WO2020003670A1 (ja) 2020-01-02

Family

ID=68987000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/013846 WO2020003670A1 (ja) 2018-06-29 2019-03-28 情報処理装置、および情報処理方法

Country Status (3)

Country Link
US (1) US20210260482A1 (ja)
JP (1) JP7375751B2 (ja)
WO (1) WO2020003670A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021151320A (ja) * 2020-03-24 2021-09-30 株式会社 ディー・エヌ・エー 電子ゲーム情報処理装置及び電子ゲーム情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11504626B2 (en) * 2018-11-29 2022-11-22 Ts Tech Co., Ltd. Seat system and seat experience device
KR20230073684A (ko) * 2021-11-19 2023-05-26 현대자동차주식회사 추천 알고리즘 기반 문제 조치 제안 시스템 및 그 방법
US12083429B2 (en) 2022-02-08 2024-09-10 Sony Group Corporation Artificial intelligence for driving lines in racing games

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030892A (ja) * 2009-08-04 2011-02-17 Taito Corp ゲーム装置、ゲームサーバ、ゲームプログラム
JP2014018324A (ja) * 2012-07-13 2014-02-03 Konami Digital Entertainment Co Ltd ゲーム管理装置、ゲームシステム、ゲーム管理方法及びプログラム
JP2014228725A (ja) * 2013-05-23 2014-12-08 ソニー株式会社 情報処理装置及び記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924638B2 (ja) 2011-09-21 2016-05-25 国立大学法人福井大学 分析システム、分析方法及び分析プログラム
JP5874292B2 (ja) 2011-10-12 2016-03-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2018150654A1 (ja) * 2017-02-15 2019-12-12 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11406907B2 (en) * 2020-03-31 2022-08-09 Sony Interactive Entertainment Inc. Player feedback to increase spectatorship in a video game
US11400378B2 (en) * 2020-06-30 2022-08-02 Sony Interactive Entertainment LLC Automatic separation of abusive players from game interactions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030892A (ja) * 2009-08-04 2011-02-17 Taito Corp ゲーム装置、ゲームサーバ、ゲームプログラム
JP2014018324A (ja) * 2012-07-13 2014-02-03 Konami Digital Entertainment Co Ltd ゲーム管理装置、ゲームシステム、ゲーム管理方法及びプログラム
JP2014228725A (ja) * 2013-05-23 2014-12-08 ソニー株式会社 情報処理装置及び記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021151320A (ja) * 2020-03-24 2021-09-30 株式会社 ディー・エヌ・エー 電子ゲーム情報処理装置及び電子ゲーム情報処理プログラム
JP7417451B2 (ja) 2020-03-24 2024-01-18 株式会社 ディー・エヌ・エー 電子ゲーム情報処理装置及び電子ゲーム情報処理プログラム

Also Published As

Publication number Publication date
US20210260482A1 (en) 2021-08-26
JP7375751B2 (ja) 2023-11-08
JPWO2020003670A1 (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
WO2020003670A1 (ja) 情報処理装置、および情報処理方法
US10803762B2 (en) Body-motion assessment device, dance assessment device, karaoke device, and game device
WO2020233464A1 (zh) 模型训练方法、装置、存储介质及设备
US9965675B2 (en) Using virtual reality for behavioral analysis
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
US20210170230A1 (en) Systems and methods for training players in a sports contest using artificial intelligence
KR102388939B1 (ko) 사용자의 움직임 보정을 위한 피드백 서비스 제공 방법
US11327320B2 (en) Electronic device and method of controlling the same
KR102183894B1 (ko) 가상 현실을 이용한 컴퓨터 기반 학습 평가 시스템 및 이의 동작 방법
US20160225273A1 (en) Methods and systems for evaluating user
CN112802439B (zh) 一种演奏数据识别方法、装置、设备及存储介质
CA3087629A1 (en) System for managing user experience and method therefor
CN112540668A (zh) 一种基于AI及IoT的智能教学辅助方法及系统
WO2020003671A1 (ja) 情報処理装置、抽出装置、情報処理方法、および抽出方法
WO2023036810A1 (en) Method for detecting user input to a breath input configured user interface
US20140113719A1 (en) Computing device and video game direction method
CN117083633A (zh) 动作改善装置、动作改善方法、动作改善程序以及动作改善系统
KR102385873B1 (ko) 미디어 소비에 기초하여 컴퓨팅 디바이스 사용자에 의해 수행된 물리적 활동 식별
CN110781820B (zh) 游戏角色的动作生成方法、装置、计算机设备及存储介质
KR20220052450A (ko) 골프 스윙 연습 보조 방법 및 장치
JP2021174311A (ja) 動作評価システム、動作評価装置、および動作評価方法
KR20220053021A (ko) 비디오 게임 오버레이
CN111105651A (zh) 基于ar的废弃物归类的教学方法及系统
JP2019144822A (ja) 形式知化システムおよびその方法
CN112274924B (zh) 在应用门户中管理用户体验的系统和计算机实现的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19827443

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020527215

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19827443

Country of ref document: EP

Kind code of ref document: A1