WO2023188061A1 - トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム - Google Patents

トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム Download PDF

Info

Publication number
WO2023188061A1
WO2023188061A1 PCT/JP2022/015798 JP2022015798W WO2023188061A1 WO 2023188061 A1 WO2023188061 A1 WO 2023188061A1 JP 2022015798 W JP2022015798 W JP 2022015798W WO 2023188061 A1 WO2023188061 A1 WO 2023188061A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
learning
state
menu
data
Prior art date
Application number
PCT/JP2022/015798
Other languages
English (en)
French (fr)
Inventor
力 江藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/015798 priority Critical patent/WO2023188061A1/ja
Publication of WO2023188061A1 publication Critical patent/WO2023188061A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Definitions

  • Patent Document 1 discloses a technique for outputting a training menu based on a reference table or mathematical model derived in advance from a statistical database based on customer data or the like. Specifically, Patent Document 1 describes that calorie consumption is calculated from the type and number of training sessions performed by a subject, and a training menu that allows the calorie consumption to reach a target value is returned. Further, Patent Document 1 describes that a training menu that takes into account psychological tendencies is returned based on the results of a questionnaire.
  • Patent Document 1 has room for improvement in that it cannot take various conditions related to training into consideration when determining a training menu. For example, it is conceivable that some of the training events included in the training menu generated by the technique of Patent Document 1 cannot be performed at the training facility used by the subject, or that it is difficult for the subject to carry out the training due to his or her physical strength.
  • One aspect of the present invention has been made in view of the above problems, and one example of the purpose is to provide a technique for generating a training menu in consideration of training-related conditions.
  • a training support device includes a data acquisition means for acquiring status data indicating a status related to training performed by a subject, and learning data indicating a training menu to be applied in the training status according to the training status.
  • generating means for generating a training menu according to the state indicated by the state data by performing an optimization calculation using an objective function generated by inverse reinforcement learning using .
  • a training support method includes at least one processor acquiring state data indicating a state related to training performed by a subject, and a training menu to be applied in the state according to the state related to training.
  • the method includes generating a training menu according to the state indicated by the state data by performing an optimization calculation using an objective function generated by inverse reinforcement learning using learning data showing the state data.
  • a training support program includes a data acquisition means for acquiring status data indicating a status related to training performed by a computer, and a training menu to be applied in the training status according to the training status.
  • a data acquisition means for acquiring status data indicating a status related to training performed by a computer
  • a training menu to be applied in the training status according to the training status.
  • a learning device includes a data acquisition unit that acquires learning data that indicates a training menu to be applied in a training-related state, and performs reverse reinforcement learning using the learning data. , and learning means for generating an objective function for generating a training menu according to the state.
  • a learning method includes the steps of: at least one processor acquiring learning data indicating a training menu to be applied in the training-related state according to the training-related state; and using the learning data to perform inverse reinforcement.
  • the method includes, by learning, generating an objective function for generating a training menu according to the state.
  • a learning program includes a data acquisition means for acquiring learning data indicating a training menu to be applied in a training-related state according to a training-related state, and inverse reinforcement learning using the learning data. By doing so, it functions as a learning means that generates an objective function for generating a training menu according to the state.
  • FIG. 1 is a block diagram showing the configuration of a training support system according to exemplary embodiment 1 of the present invention.
  • FIG. 2 is a flow diagram showing the flow of a learning method according to exemplary embodiment 1 of the present invention.
  • FIG. 2 is a flow diagram showing the flow of a training support method according to exemplary embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing an overview of a training support method according to a second exemplary embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an example of the configuration of main parts of a training support device according to a second exemplary embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an overview of objective function learning according to exemplary embodiment 2 of the present invention. It is a figure showing an example of generation of a training menu including BGM.
  • FIG. 3 is a flow diagram showing the flow of processing executed by the training support device according to the second exemplary embodiment of the present invention.
  • 1 is a diagram illustrating an example of a computer that executes instructions of a program that is software that implements each function of each device according to each exemplary embodiment of the present invention.
  • FIG. 1 is a diagram illustrating an example of a computer that executes instructions of a program that is software that implements each function of each device according to each exemplary embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of the training support system 3.
  • the training support system 3 is a system for supporting training of a subject, and includes a learning device 1 and a training support device 2 as illustrated.
  • the learning device 1 includes a data acquisition section 11 and a learning section 12.
  • the training support device 2 also includes a data acquisition section 21 and a generation section 22.
  • the data acquisition unit 11 acquires learning data that indicates a training menu that should be applied in a training-related state according to the training-related state.
  • the learning unit 12 generates an objective function for generating a training menu according to the state by performing inverse reinforcement learning using the learning data.
  • the data acquisition unit 21 acquires status data indicating the status related to the training performed by the subject.
  • the generation unit 22 performs optimization calculations using an objective function generated by inverse reinforcement learning using learning data indicating a training menu to be applied in a training-related state.
  • a training menu is generated according to the state indicated by the state data.
  • the objective function used by the generation unit 22 may be one generated by the learning unit 12 of the learning device 1, or may be generated by another device.
  • the learning device 1 includes a data acquisition unit 11 that acquires learning data indicating a training menu to be applied in a training-related state according to the training-related state, and a data acquisition unit 11 that uses the learning data. and a learning unit 12 that generates an objective function for generating a training menu according to the state by performing inverse reinforcement learning. Therefore, according to the learning device 1 according to the present exemplary embodiment, it is possible to generate an objective function for generating a training menu according to the state, so that the training menu is generated in consideration of the state related to training. The effect is that it becomes possible to
  • the training support device 2 includes the data acquisition unit 21 that acquires status data indicating the status related to the training performed by the subject, and the data acquisition unit 21 that acquires status data indicating the status related to the training performed by the subject, and the data acquisition unit 21 that acquires status data indicating the status related to the training performed by the subject, and the A generation unit that generates a training menu according to the state indicated by the state data by performing optimization calculation using an objective function generated by inverse reinforcement learning using learning data indicating a training menu to be applied. 22. Therefore, the training support device 2 according to the present exemplary embodiment has the effect that a training menu can be generated in consideration of the training-related state.
  • the functions of the learning device 1 described above can also be realized by a program.
  • the learning program according to the present exemplary embodiment includes a data acquisition means for acquiring learning data indicating a training menu to be applied in a training-related state according to a training-related state, and inverse reinforcement learning using the learning data. By doing so, it functions as a learning means that generates an objective function for generating a training menu according to the state. According to this learning program, it is possible to generate an objective function for generating a training menu according to the state, so it is possible to generate a training menu in consideration of the training-related state. .
  • the functions of the training support device 2 described above can also be realized by a program.
  • the training support program according to the present exemplary embodiment includes a data acquisition means for acquiring status data indicating a status related to training performed by a computer, and a training menu to be applied in the training status according to the training status performed by the subject. By performing an optimization calculation using an objective function generated by inverse reinforcement learning using the learning data shown, it functions as a generation means for generating a training menu according to the state shown by the state data. According to this training support program, it is possible to generate a training menu in consideration of training-related conditions.
  • FIG. 2 is a flow diagram showing the flow of the learning method.
  • the execution entity of each step in this learning method may be a processor provided in the learning device 1, or may be a processor provided in another device, and the execution entity of each step may be provided in a different device.
  • the processor may also be a
  • At least one processor acquires learning data that indicates a training menu to be applied in a training-related state according to the training-related state.
  • At least one processor generates an objective function for generating a training menu according to the state by performing inverse reinforcement learning using the learning data.
  • At least one processor acquires learning data indicating a training menu to be applied in the training-related state according to the training-related state;
  • a configuration is adopted that includes generating an objective function for generating a training menu according to the state by performing inverse reinforcement learning using data. Therefore, according to the learning method according to the present exemplary embodiment, it is possible to generate an objective function for generating a training menu according to the state, so that it is possible to generate a training menu in consideration of the state related to training. This has the effect of making it possible.
  • FIG. 3 is a flow diagram showing the flow of the training support method.
  • the main body executing each step in this training support method may be a processor included in the training support device 2, or may be a processor provided in another device, and the main body executing each step may be a processor provided in a different device. It may be a processor provided.
  • At least one processor acquires state data indicating a state related to training performed by the subject.
  • At least one processor performs optimization calculation using an objective function generated by inverse reinforcement learning using learning data indicating a training menu to be applied in a training-related state according to the training-related state. By doing so, a training menu is generated according to the state indicated by the above state data.
  • At least one processor acquires state data indicating a state related to training performed by a subject, and adjusts the state according to the state related to training. Generate a training menu according to the state indicated by the above state data by performing optimization calculations using an objective function generated by inverse reinforcement learning using learning data indicating the training menu to be applied. A configuration including the following is adopted. Therefore, according to the training support method according to the present exemplary embodiment, it is possible to generate a training menu in consideration of conditions related to training.
  • FIG. 4 is a diagram illustrating an overview of the training support method (hereinafter referred to as the present method) according to the present exemplary embodiment.
  • the input data for this method includes training events that can be selected by the training subject and event properties that indicate their characteristics, user properties that indicate the characteristics of the subject, and information used to generate the training menu.
  • the following constraints are included.
  • the event property and the user property are state data indicating the state related to training performed by the subject.
  • a training menu is generated that satisfies the constraint conditions and corresponds to the state indicated by the above state data.
  • the event properties shown in FIG. 4 show the training events that the subject can select and the effects that can be expected from training for each event.
  • the event properties shown in Figure 4 indicate that a training event called "Event 1" can be selected, and the muscle hypertrophy effect of this event is 80, and the effect of improving muscle output is 70.
  • the method for evaluating the training effect is not particularly limited, and any training effect evaluated by any evaluation method can be included in the event list.
  • the effects of improving calorie consumption and muscular endurance may be associated with each event.
  • exercise intensity, parts of the body to which a load is applied, etc. can also be included in the event properties.
  • the calorie consumption may be the calorie consumption per unit time, or when the training time for the event is determined, the calorie consumption may be the calorie consumption over the entire time.
  • the user properties shown in FIG. 4 indicate the height and weight of the subject.
  • User properties may be anything that indicates characteristics of the target person, such as maximum training time per day, minimum calorie consumption per day, maximum exercise intensity per day, age, gender, occupation, exercise experience, and training. Goals etc. may be user properties. Note that the maximum training time per day, etc. may be set to a different time for each day of the week.
  • constraint conditions shown in FIG. 4 indicate that the calorie consumption is equal to or greater than the target value, and that the total time required for training is within the set value.
  • Constraints can be set arbitrarily; for example, constraints such as applying load evenly to each part of the body in one week can also be set. Such constraints can be freely set and changed by the subject.
  • the optimal A training menu is generated by performing calculations.
  • the above objective function includes a weight value that indicates how much importance is given to each viewpoint in evaluating the training menu.
  • the first viewpoint is "muscle hypertrophy”
  • the second viewpoint is “muscle output”
  • the third viewpoint is “muscular endurance.”
  • the weight values of each viewpoint are ⁇ , ⁇ , and ⁇ , respectively.
  • the viewpoint can be automatically determined during learning, or the viewpoint can be set and changed by the subject.
  • the viewpoint to be set may be anything related to the training menu, and for example, the compatibility of the combination of training events may be set as the viewpoint.
  • the output data that is, the training menu shown in FIG. 4 shows the training events to be performed on each day of the week and the order in which they are performed.
  • the training menu shown in FIG. 4 indicates that training will be performed in the order of events 3, 2, and 5 on Mondays.
  • this method is not limited to the example shown in FIG. 4, and can generate a training menu in any format. For example, it is possible to generate a training menu that specifies a combination of events without specifying the order in which each event is performed, or it is also possible to generate a monthly training menu.
  • FIG. 5 is a block diagram showing an example of the main part configuration of the training support device 2A.
  • the training support device 2A is a device that supports training of a subject by generating a training menu for the subject.
  • the training support device 2A also has the function of the learning device 1 of the first exemplary embodiment, that is, the function of generating an objective function including a weight value indicating how much importance is given to each viewpoint for evaluating the training menu. .
  • the training support device 2A includes a control unit 20A that centrally controls each part of the training support device 2A, and a storage unit 21A that stores various data used by the training support device 2A.
  • the training support device 2A also includes an input section 22A that receives input of various data to the training support device 2A, and an output section 23A through which the training support device 2A outputs various data.
  • the output section 23A is a display device that displays and outputs various data will be described below, the output section 23A may output data in other output formats such as audio output or printed output. .
  • control unit 20A includes a data acquisition unit 201, a generation unit 202, a search unit 203, and a learning unit 204.
  • the storage unit 21A stores state data 211, objective function 212, training menu 213, and learning data 214.
  • search unit 203 will be explained in the section "Display of search keywords" below.
  • the data acquisition unit 201 acquires status data 211 indicating the status related to the training performed by the subject.
  • the status data 211 may be anything that indicates the status related to the training performed by the subject.
  • the status data 211 may include information related to the training itself, such as event properties shown in FIG. 4, or information related to the subject himself, such as user properties.
  • the data acquisition unit 201 may also acquire constraint conditions when generating a training menu. Furthermore, the data acquisition unit 201 acquires learning data 214 that indicates a training menu that should be applied in a training-related state according to the training-related state.
  • the method for acquiring these data is not particularly limited, and for example, the data acquisition unit 201 may acquire the state data 211, constraints, and learning data 214 that are input via the input unit 22A.
  • the generation unit 202 generates a training menu according to the state indicated by the status data acquired by the data acquisition unit 201. More specifically, the generation unit 202 performs optimization using an objective function 212 generated by inverse reinforcement learning using learning data 214 that indicates a training menu to be applied in a training-related state. By performing the calculation, a training menu 213 is generated according to the state indicated by the state data acquired by the data acquisition unit 201. The method for generating the training menu 213 will be explained in the section "Optimization Calculation" below.
  • the learning unit 204 uses the learning data 214 to generate an objective function 212 for generating a training menu according to the state.
  • the objective function 212 generated by the learning unit 204 includes weight values that indicate each viewpoint for evaluating the training menu and indicate how much emphasis is placed on each viewpoint.
  • the method for generating the objective function 212 will be explained in the section "Learning the objective function" below.
  • the training support device 2A includes the data acquisition unit 201 that acquires the status data 211 indicating the status related to the training performed by the subject, and the data acquisition unit 201 that acquires the status data 211 indicating the status related to the training performed by the subject, and By performing optimization calculations using the objective function 212 generated by inverse reinforcement learning using the learning data 214 indicating the training menu to be trained, the data acquisition unit 201 can perform optimization calculations based on the state indicated by the state data acquired by the data acquisition unit 201.
  • a generation unit 202 that generates a training menu 213 is provided. Therefore, according to the training support device 2A according to the present exemplary embodiment, it is possible to generate a training menu in consideration of conditions related to training.
  • the data acquisition unit 201 acquires the constraint conditions when creating a training menu for the subject, and the generation unit 202 A training menu 213 that satisfies the constraint conditions is generated. Therefore, according to the training support device 2A according to the present exemplary embodiment, in addition to the effects achieved by the training support device 2 according to the first exemplary embodiment, it is possible to generate a training menu 213 that satisfies the desired constraint conditions. This has the effect of being able to.
  • the training support device 2A also has a function as a learning device. That is, the training support device 2A has a data acquisition unit 201 that acquires learning data 214 indicating a training menu to be applied in the training-related state according to the training-related state, and performs reverse reinforcement learning using the learning data 214.
  • the learning unit 204 generates an objective function 212 for generating a training menu according to the state.
  • the training support device 2A according to the present exemplary embodiment it is possible to generate the objective function 212 including a weight value indicating how much importance is given to each viewpoint for evaluating the training menu. The effect is that it becomes possible to generate the training menu 213 in consideration of important viewpoints.
  • FIG. 6 is a diagram showing an overview of learning the objective function 212.
  • the learning data 214 shown in FIG. 6 includes user properties and event properties as state data, as well as constraint conditions and a training menu.
  • the learning data 214 may be anything that indicates a training menu that should be applied in a training-related state according to the training-related state.
  • the learning data 214 may indicate a training menu executed by a person (hereinafter referred to as an expert) who has achieved remarkable training results among those who actually trained.
  • the user property in the learning data 214 is the user property of the expert
  • the event property is the property of the training event executed by the expert.
  • the constraint conditions of the learning data 214 may be the constraint conditions when the expert creates a training menu, and the training menu may indicate a training menu executed by the expert.
  • the learning data 214 will be explained in association with experts.
  • the learning data 214 is not limited to experts.
  • the learning data 214 may be a combination of data indicating a state related to training and data indicating a training menu to be applied in the state.
  • the learning data 214 does not necessarily have to be generated based on the actually executed training menu.
  • typical state data may be created and an appropriate training menu corresponding thereto may be created as the learning data 214.
  • the event properties of the training events included in that training menu are associated with the user properties typical for a man in his 20s, and the learning data 214 is created. You can also use it as Furthermore, constraints may be included in the learning data 214 as necessary.
  • the learning unit 204 generates an objective function 212 that includes a weight value indicating how much importance is given to each viewpoint for evaluating the training menu by learning using a plurality of the above-mentioned learning data 214 each having a different state.
  • This learning can be said to be a process in which the expert learns the intention of adopting the training menu included in the learning data 214 when the expert is in a state indicated by the state data included in the learning data 214. Note that, as described above, the viewpoint can be set arbitrarily.
  • the learning unit 204 sets each weight value of the objective function 212 to an initial value.
  • the generation unit 202 generates a training menu according to the state indicated by the state data included in the learning data 214 through optimization calculation using the objective function 212 whose weight value is set to an initial value.
  • the learning unit 204 updates the weight values so that the difference between the training menu shown in the learning data 214 and the training menu generated by the generation unit 202 becomes smaller. Learning of the objective function 212 is completed by repeating these processes until the difference between the training menu shown in the learning data 214 and the training menu generated by the generation unit 202 becomes sufficiently small.
  • various methods used in general inverse reinforcement learning can also be applied.
  • a maximum entropy inverse reinforcement learning method may be applied.
  • the learning unit 204 expresses the probability distribution of the objective function using the maximum entropy principle, and learns the objective function by bringing the probability distribution of the objective function closer to the true probability distribution (ie, maximum likelihood estimation).
  • the objective function 212 generated through learning as described above can also be said to indicate the expert's decision-making criteria.
  • the objective function 212 in which the weight value for the viewpoint of "muscular hypertrophy” is larger than the weight value for the viewpoint of "muscular endurance” is determined by an expert considering both the viewpoints of muscle endurance and muscle hypertrophy. This shows that he created a training menu that emphasized muscle hypertrophy rather than muscular endurance.
  • the generation unit 202 may generate a training menu that maximizes the evaluation value calculated using the objective function 212. Any method can be used to solve the optimization problem using the objective function, state data, and constraints. For example, the generation unit 202 may generate an optimal training menu from the objective function 212, state data 211, and constraints using an optimization solver.
  • the generation unit 202 can also use a general application program such as IBM ILOG CPLEX, Gurobi Optimizer, S CIP, etc. as an optimization solver.
  • a plurality of objective functions 212 prepared in advance may be stored in the storage unit 21A or the like.
  • the generation unit 202 may generate the training menu 213 using an objective function corresponding to the person to be trained among the plurality of objective functions 212 prepared in advance. According to this configuration, it becomes possible to use the objective function 212 that is more suitable for the subject among the plurality of objective functions 212, so in addition to the effects produced by the training support device 2 according to the first exemplary embodiment, The effect is that a training menu 213 suitable for the subject can be generated.
  • a plurality of objective functions 212 depending on the purpose of training may be stored in the storage unit 21A or the like.
  • the generation unit 202 can generate a training menu 213 that matches the target person's purpose using the objective function 212 that corresponds to the target person's training purpose.
  • FIG. 7 is a diagram showing an example of generating a training menu including BGM.
  • the example in Figure 7 differs from the example in Figure 4 in that the state data includes music properties, the contents of the constraints and objective functions, and the songs that serve as BGM for each training event in the generated training menu. The difference is that they are associated with each other.
  • the song properties are data indicating songs that can be used as BGM and their characteristics.
  • the song properties shown in Figure 7 indicate that the song "Song 1" can be used as BGM, and also that the popularity of this song is 80, and that this song has been used as BGM. Usage history is shown.
  • the song property is not limited to the example shown in FIG. 7, as long as it indicates songs that can be used as BGM and their characteristics.
  • song properties may include song title, genre, release date, album name, artist name, song length, volume, tone, tempo, time signature, and the like.
  • the degree to which you are suited to dance may be set as song properties.
  • the live feeling may be set as song properties.
  • the degree to which you receive a positive impression may be set as song properties.
  • constraints related to BGM can also be set.
  • the constraint conditions shown in FIG. 7 include the condition that a new song be used at least once.
  • BGM is determined so that a new song is included at least once during one training session.
  • the definition of a new song may be determined in advance; for example, a song released within six months from the release date may be defined as a new song.
  • an objective function that includes a viewpoint when selecting BGM is used.
  • the viewpoint may be anything related to BGM.
  • the objective function shown in Figure 7 includes, in addition to "exercise intensity," which is a viewpoint for evaluating training menus, "compatibility between event and BGM” and "popularity of BGM” are viewpoints for selecting BGM. include.
  • the above-mentioned objective function for generating a training menu including BGM is based on learning using learning data 214 that indicates the training menu to be applied in the training state and the music to be played during the training, depending on the training state. It can be generated by For example, learning data 214 may be used that indicates a training menu and event properties executed by the expert, BGM played by the expert while executing the training menu, and music properties of the BGM. As a result, it is possible to generate an objective function that indicates decision-making criteria when an expert selects BGM.
  • the "compatibility between the event and the BGM" can be evaluated using, for example, the usage history of the music.
  • a song that has been used frequently or frequently as BGM in a certain training event can be evaluated as having good compatibility with that event. In this way, it is sufficient to determine in advance what properties are used to evaluate a viewpoint. The same is true from the perspective of training.
  • the learning unit 204 may automatically select a viewpoint such as "compatibility between event and BGM” using any feature selection technique.
  • “Teaching Risk” is an example of a feature quantity selection method in inverse reinforcement learning that can be used by the learning unit 204.
  • Feature selection using “Teaching Risk” is to assume ideal parameters in the objective function, compare them with the parameters of the learning process, and select features (i.e. viewpoints) that reduce the difference between the two parameters as important features. It is selected as follows.
  • the feature quantity selection technique that can be used by the learning unit 204 is not limited to "Teaching Risk.”
  • the learning unit 204 can also perform feature quantity selection using, for example, the method disclosed in Publication PCT/JP2020/032848.
  • a training menu indicating training events for each day of the week and music to be used as BGM is generated from the above state data, constraints, and objective functions.
  • the training menu in FIG. 7 shows that the first training event to be performed on Monday is "Event 2" and that the BGM during training for this event is "Song 1.”
  • the training support device 2A can also generate a training menu in which a plurality of songs are associated with one training event. Further, the training support device 2A can also generate a training menu in which one or more pieces of music are associated with a plurality of training items to be executed continuously. In addition, when presenting a plurality of songs to the subject, the training support device 2A may present the plurality of songs as one playlist.
  • the generation unit 202 uses the objective function 212 learned using the learning data 214 including information indicating the music to be played during training.
  • a training menu 213 including music to be played is generated. Therefore, according to the training support device 2A according to the present exemplary embodiment, in addition to the effects achieved by the training support device 2 according to the first exemplary embodiment, a more attractive training menu 213 can be generated. is obtained.
  • the training support device 2A may present the music identified as described above to be used as BGM during training to the subject, and allow the subject to make a final decision on the music. This will be explained based on FIG. 8.
  • FIG. 8 is a diagram showing an example of a training menu and BGM display screen.
  • the generation unit 202 may display the training events and recommended playlists after "Event 5" in response to, for example, an operation to scroll the display screen in the horizontal direction. Furthermore, the generation unit 202 may also display training events and recommended playlists for Monday and thereafter in accordance with a predetermined operation. Further, the generation unit 202 may also display each song included in the playlist, or may display each song included in the playlist in response to an operation by the target person.
  • the target person may perform an operation to that effect. Furthermore, the target person may select the music to be used as BGM by himself/herself without adopting the recommended playlist.
  • the “keyword” in the display screen example of FIG. 8 helps the target person select a song, and is displayed by the search unit 203.
  • the search unit 203 displays, as search words for searching for songs, phrases that indicate viewpoints related to music among the viewpoints for evaluating the training menu shown in the objective function 212. Since the training support device 2A includes the search unit 203, in addition to the effects of the training support device 2 according to the first exemplary embodiment, the training support device 2A has the effect of easily searching for songs that match a viewpoint. can get.
  • the example display screen in FIG. 8 shows two keywords: "compatibility with event” and "popularity.” These keywords are all words and phrases that indicate viewpoints related to music among the viewpoints shown in the objective function.
  • the search unit 203 searches for a song that matches the keyword from among the songs that can be selected as BGM, and displays the search results. If the desired song is included in the displayed search results, the subject can select it as BGM during training.
  • the search unit 203 may select the above-mentioned viewpoint by using the structure of the objective function. For example, the search unit 203 may display "popularity" as a keyword when the weight of "popularity" is high in the learned objective function.
  • the search unit 203 refers to the song properties as shown in FIG.
  • the songs may be displayed as BGM candidates.
  • the training support device 2A may accept registration of favorite songs and playlists.
  • the training support device 2A may also display songs and playlists registered as favorites together with recommended playlists. Thereby, it is possible to easily set BGM that the target person likes.
  • FIG. 9 is a flow diagram showing the flow of processing executed by the training support device 2A. Note that an example will be described below in which a training menu including music to be played during training is generated.
  • the data acquisition unit 201 acquires status data 211 indicating the status related to the training performed by the subject. Furthermore, the data acquisition unit 201 may also acquire the constraint conditions when generating the training menu in S31.
  • the generation unit 202 generates a training menu 213 according to the state indicated by the state data 211 acquired in S31. Specifically, the generation unit 202 performs optimization using an objective function 212 generated by inverse reinforcement learning using learning data 214 indicating a training menu to be applied in a training-related state.
  • a training menu 213 is generated by calculation. This training menu 213 includes songs to be played during training.
  • the generation unit 202 causes the output unit 23A to display and output the training menu 213 generated in S32 and the music played when the training menu 213 is executed.
  • the search unit 203 causes the output unit 23A to display and output a search word for searching for a song.
  • the search term displayed by the search unit 203 is a phrase indicating a viewpoint related to music among the viewpoints for evaluating the training menu shown in the objective function 212.
  • the songs may be displayed one by one, or a plurality of songs may be displayed together as one playlist (see FIG. 8).
  • the search unit 203 determines whether to execute a search. For example, the search unit 203 may determine to perform a search when it detects that an operation to select a displayed keyword has been performed. If the determination is YES in S34, the process proceeds to S35, and if the determination is NO in S34, the process proceeds to S36.
  • the search unit 203 searches for songs using the keywords selected by the subject among the keywords displayed in S33, and causes the output unit 23A to display and output the search results.
  • the search unit 203 may search for songs using keywords input by the target person or narrowing conditions selected by the target person.
  • the search unit 203 determines whether a song to be used as BGM has been selected. Note that the music to be selected may be the one displayed in S33 or the one displayed in S35. Moreover, the selection of music may be accepted via the input section 22A. If the determination is YES in S36, the process proceeds to S37, and if the determination is NO in S37, the process returns to S34.
  • the generation unit 202 determines the music selected in S36 as BGM to be played during training. As a result, the training menu 213 including the music to be played during training is completed, and the process in FIG. 9 ends.
  • a training support system having the same functions as the training support device 2A can be constructed using a plurality of devices that can communicate with each other. For example, by distributing and providing each block shown in FIG. 5 in a plurality of devices, it is possible to construct a training support system having the same functions as the training support device 2A.
  • Some or all of the functions of the learning device 1 and the training support devices 2, 2A may be realized by hardware such as an integrated circuit (IC chip), or may be realized by software.
  • the learning device 1 and the training support devices 2, 2A are realized by, for example, a computer that executes instructions of a program that is software that realizes each function.
  • a computer that executes instructions of a program that is software that realizes each function.
  • An example of such a computer (hereinafter referred to as computer C) is shown in FIG.
  • Computer C includes at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as the learning device 1 and the training support devices 2 and 2A is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing the functions of the learning device 1 and the training support devices 2 and 2A.
  • Examples of the processor C1 include a CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating Point Number Processing Unit), and PPU (Physics Processing Unit). , TPU (Tensor Processing Unit), quantum processor, microcontroller, or a combination thereof.
  • the memory C2 for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data. Further, the computer C may further include a communication interface for transmitting and receiving data with other devices. Further, the computer C may further include an input/output interface for connecting input/output devices such as a keyboard, a mouse, a display, and a printer.
  • RAM Random Access Memory
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, a disk, a card, a semiconductor memory, or a programmable logic circuit can be used.
  • Computer C can acquire program P via such recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • a training support device comprising: generating means for generating a training menu according to a state indicated by the state data by performing optimization calculation using an objective function.
  • the learning data includes information indicating music to be played during training, and the generating means generates the training menu including the music to be played during training. training support equipment.
  • the training support device according to supplementary note 4, further comprising a search means for displaying, as a search term for searching for a song, a phrase indicating the perspective regarding a song among the perspectives for evaluating a training menu shown in the objective function.
  • Appendix 6 at least one processor An objective function generated by acquiring state data indicating the training-related state of the subject and performing inverse reinforcement learning using learning data indicating the training menu to be applied in the training-related state according to the training-related state.
  • a training support method comprising: generating a training menu according to the state indicated by the state data by performing optimization calculation using the above-mentioned state data.
  • a training support program that functions as a generation means for generating a training menu according to a state indicated by the state data by performing an optimization calculation using a generated objective function.
  • a learning device comprising: learning means for generating an objective function.
  • At least one processor acquires learning data indicating a training menu to be applied in the training-related state according to the training-related state, and performs reverse reinforcement learning using the learning data, thereby providing a training menu according to the state.
  • a learning method comprising: generating an objective function for generating .
  • (Appendix 10) computer Data acquisition means for acquiring learning data indicating a training menu to be applied in a training-related state according to the training-related state, and generating a training menu according to the state by performing reverse reinforcement learning using the learning data.
  • a learning program that functions as a learning means to generate the objective function.
  • the processor includes at least one processor, and the processor performs a data acquisition process of acquiring state data indicating a state related to training performed by the subject, and learning data indicating a training menu to be applied in the state according to the state related to training.
  • a training support device that executes a generation process of generating a training menu according to a state indicated by the state data by performing optimization calculation using an objective function generated by inverse reinforcement learning using the above-mentioned state data.
  • this training support device may further include a memory, and this memory may store a program for causing the processor to execute the data acquisition process and the generation process. Further, this program may be recorded on a computer-readable non-transitory tangible recording medium.
  • the processor includes at least one processor, and the processor performs data acquisition processing to acquire learning data indicating a training menu to be applied in the training-related state according to the training-related state, and performs reverse reinforcement learning using the learning data.
  • a learning device that executes a learning process that generates an objective function for generating a training menu according to a state.
  • this learning device may further include a memory, and this memory may store a program for causing the processor to execute the data acquisition process and the learning process. Further, this program may be recorded on a computer-readable non-transitory tangible recording medium.

Landscapes

  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

トレーニングに関する状態を考慮してトレーニングメニューを生成するために、トレーニング支援装置(2)は、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得部(21)と、トレーニングに関する状態に応じたトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、状態データが示す状態に応じたトレーニングメニューを生成する生成部(22)と、を備える。

Description

トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム
 トレーニングを支援するトレーニング支援装置等に関する。
 従来からトレーニングを支援する技術の開発が進められている。例えば、下記の特許文献1には、顧客データ等に基づいて予め統計データベースから導出された参照テーブルや数理モデルに基づいてトレーニングメニューを出力する技術が開示されている。具体的には、特許文献1には、対象者が行ったトレーニングの種目と回数から消費カロリーを計算し、消費カロリーが目標値に到達するトレーニングメニューを返信することが記載されている。また、特許文献1には、アンケート結果に基づいて心理傾向を加味したトレーニングメニューを返信することが記載されている。
特開2017-010486号
 特許文献1の技術は、トレーニングメニューの決定において、トレーニングに関する各種状態を考慮することができないという点で改善の余地がある。例えば、特許文献1の技術により生成されるトレーニングメニューに含まれるトレーニング種目の一部が、対象者の利用するトレーニング施設では実施できないことや、対象者の体力的に実施が難しいことも考えられる。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、トレーニングに関する状態を考慮してトレーニングメニューを生成する技術を提供することである。
 本発明の一側面に係るトレーニング支援装置は、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段と、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段と、を備える。
 本発明の一側面に係るトレーニング支援方法は、少なくとも1つのプロセッサが、対象者が行うトレーニングに関する状態を示す状態データを取得することと、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成することと、を含む。
 本発明の一側面に係るトレーニング支援プログラムは、コンピュータを、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段、およびトレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段として機能させる。
 本発明の一側面に係る学習装置は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段と、前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段と、を備える。
 本発明の一側面に係る学習方法は、少なくとも1つのプロセッサが、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得することと、前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成することと、を含む。
 本発明の一側面に係る学習プログラムは、コンピュータを、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段、および前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段として機能させる。
 本発明の一態様によれば、トレーニングに関する状態を考慮してトレーニングメニューを生成することが可能になる。
本発明の例示的実施形態1に係るトレーニング支援システムの構成を示すブロック図である。 本発明の例示的実施形態1に係る学習方法の流れを示すフロー図である。 本発明の例示的実施形態1に係るトレーニング支援方法の流れを示すフロー図である。 本発明の例示的実施形態2に係るトレーニング支援方法の概要を示す図である。 本発明の例示的実施形態2に係るトレーニング支援装置の要部構成の一例を示すブロック図である。 本発明の例示的実施形態2に係る目的関数の学習の概要を示す図である。 BGMを含むトレーニングメニューの生成例を示す図である。 トレーニングメニューとBGMの表示画面例を示す図である。 本発明の例示的実施形態2に係るトレーニング支援装置が実行する処理の流れを示すフロー図である。 本発明の各例示的実施形態に係る各装置の各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータの一例を示す図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (トレーニング支援システム)
 本例示的実施形態に係るトレーニング支援システム3について図1を参照して説明する。図1は、トレーニング支援システム3の構成を示すブロック図である。トレーニング支援システム3は、対象者のトレーニングを支援するためのシステムであり、図示のように学習装置1とトレーニング支援装置2を含む。そして、学習装置1は、データ取得部11と学習部12とを備えている。また、トレーニング支援装置2は、データ取得部21と生成部22とを備えている。
 データ取得部11は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得する。
 学習部12は、上記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する。
 データ取得部21は、対象者が行うトレーニングに関する状態を示す状態データを取得する。
 生成部22は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、上記状態データが示す状態に応じたトレーニングメニューを生成する。なお、生成部22が用いる目的関数は学習装置1の学習部12が生成したものであってもよいし、他の装置で生成されたものであってもよい。
 以上のように、本例示的実施形態に係る学習装置1は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得部11と、上記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習部12とを備えている。このため、本例示的実施形態に係る学習装置1によれば、状態に応じたトレーニングメニューを生成するための目的関数を生成することができるから、トレーニングに関する状態を考慮してトレーニングメニューを生成することが可能になるという効果が得られる。
 また、以上のように、本例示的実施形態に係るトレーニング支援装置2は、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得部21と、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、上記状態データが示す状態に応じたトレーニングメニューを生成する生成部22とを備えている。このため、本例示的実施形態に係るトレーニング支援装置2によれば、トレーニングに関する状態を考慮してトレーニングメニューを生成することができるという効果が得られる。
 (学習プログラム)
 上述の学習装置1の機能は、プログラムによって実現することもできる。本例示的実施形態に係る学習プログラムは、コンピュータを、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段、および上記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段として機能させる。この学習プログラムによれば、状態に応じたトレーニングメニューを生成するための目的関数を生成することができるから、トレーニングに関する状態を考慮してトレーニングメニューを生成することが可能になるという効果が得られる。
 (トレーニング支援プログラム)
 上述のトレーニング支援装置2の機能は、プログラムによって実現することもできる。本例示的実施形態に係るトレーニング支援プログラムは、コンピュータを、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段、およびトレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、上記状態データが示す状態に応じたトレーニングメニューを生成する生成手段として機能させる。このトレーニング支援プログラムによれば、トレーニングに関する状態を考慮してトレーニングメニューを生成することができるという効果が得られる。
 (学習方法の流れ)
 本例示的実施形態に係る学習方法の流れについて、図2を参照して説明する。図2は、学習方法の流れを示すフロー図である。なお、この学習方法における各ステップの実行主体は、学習装置1が備えるプロセッサであってもよいし、他の装置が備えるプロセッサであってもよく、各ステップの実行主体がそれぞれ異なる装置に設けられたプロセッサであってもよい。
 S11では、少なくとも1つのプロセッサが、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得する。
 S12では、少なくとも1つのプロセッサが、上記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する。
 以上のように、本例示的実施形態に係る学習方法においては、少なくとも1つのプロセッサが、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得することと、上記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成することと、を含む構成が採用されている。このため、本例示的実施形態に係る学習方法によれば、状態に応じたトレーニングメニューを生成するための目的関数を生成することができるから、トレーニングに関する状態を考慮してトレーニングメニューを生成することが可能になるという効果が得られる。
 (トレーニング支援方法の流れ)
 本例示的実施形態に係るトレーニング支援方法の流れについて、図3を参照して説明する。図3は、トレーニング支援方法の流れを示すフロー図である。なお、このトレーニング支援方法における各ステップの実行主体は、トレーニング支援装置2が備えるプロセッサであってもよいし、他の装置が備えるプロセッサであってもよく、各ステップの実行主体がそれぞれ異なる装置に設けられたプロセッサであってもよい。
 S21では、少なくとも1つのプロセッサが、対象者が行うトレーニングに関する状態を示す状態データを取得する。
 S22では、少なくとも1つのプロセッサが、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、上記状態データが示す状態に応じたトレーニングメニューを生成する。
 以上のように、本例示的実施形態に係るトレーニング支援方法においては、少なくとも1つのプロセッサが、対象者が行うトレーニングに関する状態を示す状態データを取得することと、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、上記状態データが示す状態に応じたトレーニングメニューを生成することと、を含む構成が採用されている。このため、本例示的実施形態に係るトレーニング支援方法によれば、トレーニングに関する状態を考慮してトレーニングメニューを生成することができるという効果が得られる。
 〔例示的実施形態2〕
 (概要)
 本例示的実施形態に係るトレーニング支援方法の概要を図4に基づいて説明する。図4は、本例示的実施形態に係るトレーニング支援方法(以下、本方法と称する)の概要を示す図である。
 図示のように、本方法における入力データには、トレーニングを行う対象者が選択可能なトレーニング種目およびそれらの特性を示す種目プロパティと、対象者の特性を示すユーザプロパティと、トレーニングメニューを生成する際の制約条件とが含まれている。このうち種目プロパティとユーザプロパティは、対象者が行うトレーニングに関する状態を示す状態データである。本方法では、制約条件を充足し、かつ、上記の状態データが示す状態に応じたトレーニングメニューを生成する。
 具体的には、図4に示す種目プロパティには、対象者が選択可能なトレーニング種目と、各種目のトレーニングにより期待できる効果が示されている。例えば、図4に示す種目プロパティには、「種目1」というトレーニング種目が選択可能であることが示されていると共に、この種目の筋肥大効果が80であり、筋出力を向上させる効果が70であることが示されている。なお、トレーニングの効果を評価する方法は特に限定されず、任意の評価方法で評価した任意のトレーニング効果を種目リストに含めることができる。例えば、消費カロリーや筋持久力を向上させる効果を各種目に対応付けてもよい。また、効果以外にも、運動強度や負荷がかかる部位等を種目プロパティに含めることもできる。なお、消費カロリーは、単位時間あたりの消費カロリーであってもよいし、当該種目のトレーニング時間が決められているときには当該時間全体での消費カロリーであってもよい。
 また、図4に示すユーザプロパティには、対象者の身長および体重が示されている。ユーザプロパティは、対象者の特性を示すものであればよく、例えば、一日の最大トレーニング時間、一日の最低消費カロリー、一日の最大運動強度、年齢、性別、職業、運動経験、およびトレーニング目標等をユーザプロパティとしてもよい。なお、一日の最大トレーニング時間等については、曜日ごとに異なる時間を設定してもよい。
 また、図4に示す制約条件には、消費カロリーが目標値以上であること、およびトレーニングの所要時間の合計値が設定値以内であることが示されている。制約条件は任意に設定することができ、例えば、1週間で体の各部位にまんべんなく負荷をかける、等の制約条件を設定することもできる。このような制約条件は、対象者が自由に設定および変更できるようにすることができる。
 本方法では、以上のような入力データと、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数とを用いて最適化計算を行うことにより、トレーニングメニューを生成する。
 上記の目的関数は、トレーニングメニューを評価する各観点をどの程度重視するかを示す重み値を含む。図4に示す目的関数では、1つ目の観点が「筋肥大」であり、2つ目の観点が「筋出力」であり、3つ目の観点が「筋持久力」であり、これらの各観点の重み値がそれぞれα、β、γである。観点は学習の際に自動で決定することもできるし、対象者が観点を設定および変更できるようにしてもよい。設定する観点はトレーニングメニューに関連したものであればよく、例えばトレーニング種目の組み合わせの相性等を観点に設定することもできる。
 図4に示す出力データすなわちトレーニングメニューは、各曜日に行うトレーニング種目およびそれらの実行順序を示すものである。例えば、図4に示すトレーニングメニューでは、月曜日には種目3、2、5の順でトレーニングを行うことが示されている。なお、本方法では、図4の例に限られず、任意の形式のトレーニングメニューを生成することができる。例えば、各種目の実行順を規定せず、種目の組み合わせを規定したトレーニングメニューを生成することもできるし、一月単位のトレーニングメニューを生成することもできる。
 (トレーニング支援装置の構成)
 本例示的実施形態に係るトレーニング支援装置2Aについて図5に基づいて説明する。図5は、トレーニング支援装置2Aの要部構成の一例を示すブロック図である。トレーニング支援装置2Aは、対象者のトレーニングメニューを生成することにより、当該対象者のトレーニングを支援する装置である。また、トレーニング支援装置2Aは、例示的実施形態1の学習装置1の機能、すなわちトレーニングメニューを評価する各観点をどの程度重視するかを示す重み値を含む目的関数を生成する機能も備えている。
 図示のように、トレーニング支援装置2Aは、トレーニング支援装置2Aの各部を統括して制御する制御部20Aと、トレーニング支援装置2Aが使用する各種データを記憶する記憶部21Aを備えている。また、トレーニング支援装置2Aは、トレーニング支援装置2Aに対する各種データの入力を受け付ける入力部22A、およびトレーニング支援装置2Aが各種データを出力するための出力部23Aを備えている。なお、以下では出力部23Aが各種データを表示出力する表示装置である例を説明するが、出力部23Aは音声出力あるいは印字出力等の他の出力態様でデータを出力するものであってもよい。
 また、制御部20Aには、データ取得部201、生成部202、検索部203、および学習部204が含まれている。そして、記憶部21Aには、状態データ211、目的関数212、トレーニングメニュー213、および学習データ214が記憶されている。なお、検索部203については、後記「検索用キーワードの表示について」の項目で説明する。
 データ取得部201は、対象者が行うトレーニングに関する状態を示す状態データ211を取得する。状態データ211は、対象者が行うトレーニングに関する状態を示すものであればよい。例えば、状態データ211には、図4に示す種目プロパティのようなトレーニング自体に関するものが含まれていてもよいし、ユーザプロパティのような対象者自身に関する者が含まれていてもよい。
 また、データ取得部201は、トレーニングメニューを生成する際の制約条件についても取得してもよい。また、データ取得部201は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データ214を取得する。これらのデータの取得方法は特に限定されず、例えば、データ取得部201は、入力部22Aを介して入力される状態データ211、制約条件、および学習データ214を取得してもよい。
 生成部202は、データ取得部201が取得する状態データが示す状態に応じたトレーニングメニューを生成する。より詳細には、生成部202は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データ214を用いて逆強化学習することにより生成された目的関数212を用いて最適化計算を行うことにより、データ取得部201が取得する状態データが示す状態に応じたトレーニングメニュー213を生成する。トレーニングメニュー213の生成方法については、後記「最適化計算」の項目で説明する。
 学習部204は、学習データ214を用いて、状態に応じたトレーニングメニューを生成するための目的関数212を生成する。図4に基づいて説明したように、学習部204が生成する目的関数212は、トレーニングメニューを評価する各観点を示すと共に、各観点をどの程度重視するかを示す重み値を含む。目的関数212の生成方法については、後記「目的関数の学習」の項目で説明する。
 以上のように、本例示的実施形態に係るトレーニング支援装置2Aは、対象者が行うトレーニングに関する状態を示す状態データ211を取得するデータ取得部201と、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データ214を用いて逆強化学習することにより生成された目的関数212を用いて最適化計算を行うことにより、データ取得部201が取得する状態データが示す状態に応じたトレーニングメニュー213を生成する生成部202とを備えている。このため、本例示的実施形態に係るトレーニング支援装置2Aによれば、トレーニングに関する状態を考慮してトレーニングメニューを生成することができるという効果が得られる。
 また、以上のように、本例示的実施形態に係るトレーニング支援装置2Aでは、データ取得部201が、対象者のトレーニングメニューを作成する際の制約条件を取得し、生成部202が、取得された制約条件を充足するトレーニングメニュー213を生成する。このため、本例示的実施形態に係るトレーニング支援装置2Aによれば、例示的実施形態1に係るトレーニング支援装置2の奏する効果に加えて、所望の制約条件を充足するトレーニングメニュー213を生成することができるという効果が得られる。
 さらに、本例示的実施形態に係るトレーニング支援装置2Aは学習装置としての機能も備えている。すなわち、トレーニング支援装置2Aは、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データ214を取得するデータ取得部201と、学習データ214を用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数212を生成する学習部204とを備えている。本例示的実施形態に係るトレーニング支援装置2Aによれば、トレーニングメニューを評価する各観点をどの程度重視するかを示す重み値を含む目的関数212を生成することができるから、トレーニングの対象者が重視する観点を考慮してトレーニングメニュー213を生成することが可能になるという効果が得られる。
 (目的関数の学習)
 学習部204による目的関数212の学習について図6に基づいて説明する。図6は、目的関数212の学習の概要を示す図である。図6に示される学習データ214には、状態データとしてユーザプロパティと種目プロパティが含まれていると共に、制約条件とトレーニングメニューが含まれている。
 学習データ214は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示すものであればよい。例えば、学習データ214は、実際にトレーニングを行った者のうち、トレーニングの成果が顕著であった者(以下、エキスパートと称する)が実行したトレーニングメニューを示すものであってもよい。この場合、学習データ214におけるユーザプロパティは、エキスパートのユーザプロパティとし、種目プロパティはエキスパートが実行したトレーニング種目のプロパティとする。また、学習データ214の制約条件は、エキスパートのトレーニングメニュー作成時の制約条件とし、トレーニングメニューはエキスパートが実行したトレーニングメニューを示すものとすればよい。
 以下、本実施形態において、学習データ214をエキスパートと関連づけて説明する。しかし、学習データ214はエキスパートによって限定されるものではない。学習データ214は、トレーニングに関する状態を示すデータと、当該状態で適用すべきトレーニングメニュー示すデータとの組み合わせであればよい。
 また、学習データ214は、必ずしも実際に実行されたトレーニングメニューに基づいて生成されたものである必要はない。例えば、典型的な状態データを作成すると共に、それに対応する適切なトレーニングメニューを作成して学習データ214としてもよい。例えば、20代男性に適切なトレーニングメニューがある場合、そのトレーニングメニューに対し、そのトレーニングメニューに含まれるトレーニング種目の種目プロパティと、20代男性に典型的なユーザプロパティとを対応付けて学習データ214としてもよい。また、必要に応じて制約条件を学習データ214に含めてもよい。
 学習部204は、状態がそれぞれ異なる上記のような学習データ214を複数用いて学習することにより、トレーニングメニューを評価する各観点をどの程度重視するかを示す重み値を含む目的関数212を生成する。この学習は、エキスパートが、ある学習データ214に含まれる状態データに示される状態のときに、その学習データ214に含まれるトレーニングメニューを採用した意図を学習するものであるともいえる。なお、上述のように観点は任意に設定することが可能である。
 学習においては、まず、学習部204は、目的関数212の各重み値を初期値に設定する。次に、生成部202が、重み値が初期値に設定された目的関数212を用いた最適化計算により、学習データ214に含まれる状態データが示す状態に応じたトレーニングメニューを生成する。そして、学習部204は、学習データ214に示されるトレーニングメニューと、生成部202が生成するトレーニングメニューとの差異が小さくなるように重み値を更新する。これらの処理を、学習データ214に示されるトレーニングメニューと、生成部202が生成するトレーニングメニューとの差異が十分小さくなるまで繰り返すことにより、目的関数212の学習は終了する。
 具体的な学習手法としては、一般的な逆強化学習で用いられる各種手法を適用することもできる。例えば、最大エントロピー逆強化学習の手法を適用してもよい。この場合、学習部204は、最大エントロピー原理を用いて目的関数の確率分布を表し、目的関数の確率分布を真の確率分布へ近付けること(すなわち最尤推定)により目的関数を学習する。また、学習データ214に含まれるトレーニングメニューを評価するために適切な観点についても学習により特定することが可能である。
 以上のような学習により生成される目的関数212は、エキスパートの意思決定基準を示すものともいえる。例えば、「筋肥大」という観点に対する重み値が、「筋持久力」という観点に対する重み値よりも大きい値である目的関数212は、エキスパートが筋持久力と筋肥大の両方の観点を考慮しつつ、筋持久力よりも筋肥大を重視してトレーニングメニューを作成したことを示している。
 (最適化計算)
 目的関数212を用いればトレーニングメニューの良し悪しを評価する評価値を算出することができる。よって、生成部202は、目的関数212を用いて算出される評価値が最大になるトレーニングメニューを生成すればよい。目的関数と状態データと制約条件とを用いた最適化問題の解法は任意である。例えば、生成部202は、目的関数212と状態データ211と制約条件から、最適化ソルバを用いて最適なトレーニングメニューを生成してもよい。生成部202は、最適化ソルバとして、例えばIBM ILOG CPLEX、Gurobi Optimizer、S CIP等の一般的なアプリケーションプログラムを用いることもできる。
 (目的関数の切り替え)
 また、本例示的実施形態に係るトレーニング支援装置2Aでは、予め用意された複数の目的関数212を記憶部21A等に記憶させておいてもよい。この場合、生成部202は、予め用意された複数の目的関数212のうちトレーニングを行う対象者に応じた目的関数を用いてトレーニングメニュー213を生成してもよい。この構成によれば、複数の目的関数212の中でもより対象者に適合した目的関数212を用いることが可能になるから、例示的実施形態1に係るトレーニング支援装置2の奏する効果に加えて、より対象者に適合したトレーニングメニュー213を生成することができるという効果が得られる。
 例えば、トレーニングの目的に応じた複数の目的関数212を記憶部21A等に記憶させておいてもよい。この場合、生成部202は、対象者のトレーニングの目的に応じた目的関数212を用いて、対象者の目的に合致したトレーニングメニュー213を生成することができる。
 (BGMを含むトレーニングメニューの生成)
 トレーニング支援装置2Aは、BGM(Back Ground Music)を含むトレーニングメニューを生成することもできる。これについて図7に基づいて説明する。図7は、BGMを含むトレーニングメニューの生成例を示す図である。図7の例は、図4の例と比べて、状態データに楽曲プロパティが含まれている点、制約条件および目的関数の内容、そして生成されるトレーニングメニューにおいて、各トレーニング種目にBGMとなる楽曲が対応付けられている点で相違している。
 楽曲プロパティは、BGMとして使用できる楽曲とそれらの特性を示すデータである。例えば、図7に示す楽曲プロパティには、「楽曲1」という楽曲がBGMとして使用できることが示されていると共に、この楽曲の人気度が80であること、また、この楽曲がBGMとして使用された使用履歴が示されている。なお、楽曲プロパティは、BGMとして使用できる楽曲と、それらの特性とを示すものであればよく図7に示す例に限られない。例えば、曲名、ジャンル、リリース日、アルバム名、アーティスト名、曲の長さ、音の大きさ、曲調、テンポ、および拍子等を楽曲プロパティとしてもよい。この他にも、例えば、ダンスに向く度合い、ライブ感、ポジティブな印象を受ける度合い、楽曲からエネルギーを与えられる感覚の強さ、電子楽器を使用しているか否か、インストルメンタル(歌唱のない楽曲)であるか否か、スピーチに近いものであるか否か、等を楽曲プロパティとしてもよい。
 BGMを含むトレーニングメニューを生成する場合、トレーニングに関する制約条件以外に、BGMに関する制約条件を設定することもできる。図7に示す制約条件には、新曲を少なくとも1回使用するという条件が含まれている。このような制約条件を使用することにより、1回のトレーニング中に必ず1回は新曲が含まれるようにBGMが決定される。なお、新曲の定義は予め定めておけばよく、例えばリリース日から半年以内の楽曲を新曲と定義してもよい。
 また、BGMを含むトレーニングメニューを生成する場合、BGMを選択する際の観点を含む目的関数が用いられる。観点は、BGMに関するものであればよい。例えば、図7に示す目的関数には、トレーニングメニューを評価する観点である「運動強度」に加えて、BGMを選択する際の観点として「種目とBGMの相性」および「BGMの人気度」が含まれている。
 BGMを含むトレーニングメニューを生成するための上記のような目的関数は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューとそのトレーニング中に流すべき楽曲を示す学習データ214を用いた学習により生成することができる。例えば、エキスパートが実行したトレーニングメニューおよび種目プロパティと、該トレーニングメニューの実行中にエキスパートが流したBGMおよび該BGMの楽曲プロパティとを示す学習データ214を用いてもよい。これにより、エキスパートがBGMを選ぶ際の意思決定基準を示す目的関数を生成することができる。
 なお、「種目とBGMの相性」は、例えば楽曲の使用履歴等を用いて評価することができる。つまり、あるトレーニング種目においてBGMとして使用された回数や頻度が多い楽曲はその種目との相性がよいと評価することができる。このように、観点をどのようなプロパティにより評価するかは予め定めておけばよい。これは、トレーニングに関する観点についても同様である。
 なお、学習部204は、任意の特徴量選択の技術を用いて、「種目とBGMの相性」等の観点を自動で選択してもよい。学習部204が利用可能な、逆強化学習における特徴量選択方法の一例として、“Teaching Risk”が挙げられる。“Teaching Risk”による特徴量選択とは、目的関数における理想的なパラメータを仮定して学習過程のパラメータと比較し、二つのパラメータの差をより小さくする特徴量(すなわち観点)を重要な特徴量として選択するものである。
 無論、学習部204が利用できる特徴量選択の技術は“Teaching Risk”に限定されない。学習部204は、例えば公開公報PCT/JP2020/032848に開示されている手法を用いて特徴量選択を行うこともできる。
 図7の例では、以上のような状態データ、制約条件、および目的関数から、曜日ごとのトレーニング種目とそのBGMとする楽曲とを示すトレーニングメニューが生成されている。例えば、図7のトレーニングメニューでは、月曜日に実行すべきトレーニング種目の1つ目が「種目2」であり、この種目のトレーニング中のBGMが「楽曲1」であることが示されている。
 なお、トレーニング支援装置2Aは、1つのトレーニング種目に対し、複数の楽曲を対応付けたトレーニングメニューを生成することもできる。また、トレーニング支援装置2Aは、連続して実行する複数のトレーニング種目に対し、1または複数の楽曲を対応付けたトレーニングメニューを生成することもできる。なお、トレーニング支援装置2Aは、複数の楽曲を対象者に提示する際に、それら複数の楽曲を1つのプレイリストとして提示してもよい。
 以上のように、本例示的実施形態に係るトレーニング支援装置2Aでは、生成部202は、トレーニング中に流す楽曲を示す情報を含む学習データ214を用いて学習された目的関数212を用い、トレーニング中に流す楽曲を含むトレーニングメニュー213を生成する。このため、本例示的実施形態に係るトレーニング支援装置2Aによれば、例示的実施形態1に係るトレーニング支援装置2の奏する効果に加えて、より魅力あるトレーニングメニュー213を生成することができるという効果が得られる。
 (検索用キーワードの表示について)
 また、トレーニング支援装置2Aは、上述のようにして特定したトレーニング時のBGMとする楽曲を対象者に提示し、最終的な楽曲の決定を対象者に行わせてもよい。これについて図8に基づいて説明する。図8は、トレーニングメニューとBGMの表示画面例を示す図である。
 図8の表示画面例には、月曜日のトレーニングメニューとして、「種目2」および「種目5」という2つのトレーニング種目と、それらの所要時間が示されている。また、この表示画面例には、「種目2」に対応するお薦めのプレイリストとして「PL1」が示されていると共に、「種目5」に対応するお薦めのプレイリストとして「PL3」が示されている。これらの種目およびプレイリストは、生成部202が目的関数212を用いて特定したものである。
 なお、生成部202は、「種目5」以降のトレーニング種目およびお薦めのプレイリストを、例えば表示画面を横方向にスクロールさせる操作が行われたことに応じて表示させるようにしてもよい。また、生成部202は、月曜日以降のトレーニング種目およびお薦めのプレイリストも所定の操作に応じて表示させるようにしてもよい。また、生成部202は、プレイリストに含まれる各楽曲についても表示させてもよいし、プレイリストに含まれる各楽曲は対象者の操作に応じて表示させてもよい。
 図8の表示画面例において、対象者は、お薦めのプレイリストをそのまま採用する場合には、その旨の操作を行えばよい。また、対象者は、お薦めのプレイリストを採用せず、BGMとする楽曲を自身で選択してもよい。図8の表示画面例における「キーワード」は、対象者の楽曲選択の一助となるものであり、検索部203により表示される。
 検索部203は、目的関数212に示される、トレーニングメニューを評価する観点のうち、楽曲に関する観点を示す語句を、楽曲を検索するための検索語として表示する。トレーニング支援装置2Aは、検索部203を備えていることにより、例示的実施形態1に係るトレーニング支援装置2の奏する効果に加えて、観点に適合する楽曲を容易に検索させることができるという効果が得られる。
 具体的には、図8の表示画面例には、キーワードとして「種目との相性」および「人気度」の2つが示されている。これらのキーワードは、何れも目的関数に示される観点のうち、楽曲に関する観点を示す語句である。キーワードが選択された場合、検索部203は、BGMとして選択可能な楽曲の中から、当該キーワードに適合する楽曲を検索し、その検索結果を表示させる。対象者は、表示された検索結果に所望の楽曲が含まれていれば、それをトレーニング時のBGMとして選択することができる。
 また、検索部203は、目的関数の構造を利用することで、上述の観点を選択してもよい。例えば、検索部203は、学習された目的関数において、「人気度」の観点の重みが大きい場合、「人気度」をキーワードとして表示させてもよい。
 例えば、「種目2」の実施時のBGMを選択する際に、「種目との相性」のキーワードが選択されたとする。この場合、検索部203は、図7に示したような楽曲プロパティを参照して、「種目2」の実施時においてBGMとして使用された回数や頻度が上位の所定数の楽曲を特定し、それらの楽曲をBGMの候補として表示させてもよい。
 なお、トレーニング支援装置2Aは、お気に入りの楽曲やプレイリストの登録を受け付けるようにしてもよい。そして、トレーニング支援装置2Aは、お気に入りとして登録された楽曲やプレイリストについても、お薦めのプレイリストと共に表示してもよい。これにより、対象者好みのBGMを設定しやすくすることができる。
 (処理の流れ)
 トレーニング支援装置2Aが実行する処理(トレーニング支援方法)について図9に基づいて説明する。図9は、トレーニング支援装置2Aが実行する処理の流れを示すフロー図である。なお、以下ではトレーニング中に流す楽曲を含むトレーニングメニューを生成する例を説明する。
 S31では、データ取得部201が、対象者が行うトレーニングに関する状態を示す状態データ211を取得する。また、データ取得部201は、S31において、トレーニングメニューを生成する際の制約条件についても取得してもよい。
 S32では、生成部202が、S31で取得された状態データ211が示す状態に応じたトレーニングメニュー213を生成する。具体的には、生成部202は、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データ214を用いて逆強化学習することにより生成された目的関数212を用いた最適化計算によりトレーニングメニュー213を生成する。このトレーニングメニュー213には、トレーニング中に流す楽曲が含まれている。
 S33では、生成部202が、S32で生成したトレーニングメニュー213と、トレーニングメニュー213の実行時に流す楽曲を出力部23Aに表示出力させる。また、検索部203が、楽曲を検索するための検索語を出力部23Aに表示出力させる。上述のように、検索部203が表示させる検索語は、目的関数212に示される、トレーニングメニューを評価する観点のうち、楽曲に関する観点を示す語句である。なお、楽曲は1曲単位で表示させてもよいし、複数の楽曲をまとめて1つのプレイリストとして表示させてもよい(図8参照)。
 S34では、検索部203が、検索を実行するか否かを判定する。例えば、検索部203は、表示させたキーワードを選択する操作が行われたことを検知した場合に検索を実行すると判定すればよい。S34でYESと判定された場合にはS35の処理に進み、S34でNOと判定された場合にはS36の処理に進む。
 S35では、検索部203が、S33で表示させたキーワードのうち、対象者が選択したキーワードにより楽曲の検索を実行し、検索結果を出力部23Aに表示出力させる。なお、検索部203は、対象者が入力するキーワードや、対象者が選択する絞り込み条件を用いて楽曲の検索を行ってもよい。
 S36では、検索部203が、BGMとする楽曲が選択されたか否かを判定する。なお、選択される楽曲はS33で表示させたものであってもよいし、S35で表示させたものであってもよい。また、楽曲の選択は入力部22Aを介して受け付ければよい。S36でYESと判定された場合にはS37に進み、S37でNOと判定された場合にはS34に戻る。
 S37では、生成部202が、S36で選択された楽曲をトレーニング中に流すBGMに決定する。これにより、トレーニング中に流す楽曲を含むトレーニングメニュー213が完成し、図9の処理は終了する。
 〔変形例〕
 上述の例示的実施形態で説明した各処理の実行主体は任意であり、上述の例に限られない。例えば、相互に通信可能な複数の装置により、トレーニング支援装置2Aと同様の機能を有するトレーニング支援システムを構築することができる。例えば、図5に示す各ブロックを複数の装置に分散して設けることにより、トレーニング支援装置2Aと同様の機能を有するトレーニング支援システムを構築することができる。
 〔ソフトウェアによる実現例〕
 学習装置1およびトレーニング支援装置2、2Aの一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、学習装置1およびトレーニング支援装置2、2Aは、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図10に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを学習装置1およびトレーニング支援装置2、2Aとして動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、学習装置1およびトレーニング支援装置2、2Aの各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、TPU(Tensor Processing Unit)、量子プロセッサ、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段と、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段と、を備えるトレーニング支援装置。
 (付記2)
 前記データ取得手段は、前記対象者のトレーニングメニューを生成する際の制約条件を取得し、前記生成手段は、前記制約条件を充足する前記トレーニングメニューを生成する、付記1に記載のトレーニング支援装置。
 (付記3)
 前記生成手段は、予め用意された複数の前記目的関数のうち前記対象者に応じた目的関数を用いて前記トレーニングメニューを生成する、付記1または2に記載のトレーニング支援装置。
 (付記4)
 前記学習データには、トレーニング中に流す楽曲を示す情報が含まれており、前記生成手段は、トレーニング中に流す楽曲を含む前記トレーニングメニューを生成する、付記1から3の何れか1つに記載のトレーニング支援装置。
 (付記5)
 前記目的関数に示される、トレーニングメニューを評価する観点のうち、楽曲に関する前記観点を示す語句を、楽曲を検索するための検索語として表示する検索手段を備える、付記4に記載のトレーニング支援装置。
 (付記6)
 少なくとも1つのプロセッサが、
 対象者が行うトレーニングに関する状態を示す状態データを取得することと、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成することと、を含むトレーニング支援方法。
 (付記7)
 コンピュータを、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段、およびトレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段として機能させるトレーニング支援プログラム。
 (付記8)
 トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段と、前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段と、を備える学習装置。
 (付記9)
 少なくとも1つのプロセッサが、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得することと、前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成することと、を含む学習方法。
 (付記10)
 コンピュータを、
 トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段、および前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段として機能させる学習プログラム。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得処理と、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成処理とを実行するトレーニング支援装置。
 なお、このトレーニング支援装置は、更にメモリを備えていてもよく、このメモリには、前記データ取得処理と、前記生成処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 少なくとも1つのプロセッサを備え、前記プロセッサは、トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得処理と、前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習処理と、を実行する学習装置。
 なお、この学習装置は、更にメモリを備えていてもよく、このメモリには、前記データ取得処理と、前記学習処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
1 学習装置
2、2A トレーニング支援装置
11、21、201 データ取得部
12、204 学習部
22、202 生成部
203 検索部

Claims (10)

  1.  対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段と、
     トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段と、を備えるトレーニング支援装置。
  2.  前記データ取得手段は、前記対象者のトレーニングメニューを生成する際の制約条件を取得し、
     前記生成手段は、前記制約条件を充足する前記トレーニングメニューを生成する、請求項1に記載のトレーニング支援装置。
  3.  前記生成手段は、予め用意された複数の前記目的関数のうち前記対象者に応じた目的関数を用いて前記トレーニングメニューを生成する、請求項1または2に記載のトレーニング支援装置。
  4.  前記学習データには、トレーニング中に流す楽曲を示す情報が含まれており、
     前記生成手段は、トレーニング中に流す楽曲を含む前記トレーニングメニューを生成する、請求項1から3の何れか1項に記載のトレーニング支援装置。
  5.  前記目的関数に示される、トレーニングメニューを評価する観点のうち、楽曲に関する前記観点を示す語句を、楽曲を検索するための検索語として表示する検索手段を備える、請求項4に記載のトレーニング支援装置。
  6.  少なくとも1つのプロセッサが、
     対象者が行うトレーニングに関する状態を示す状態データを取得することと、
     トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成することと、を含むトレーニング支援方法。
  7.  コンピュータを、
     対象者が行うトレーニングに関する状態を示す状態データを取得するデータ取得手段、および
     トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを用いて逆強化学習することにより生成された目的関数を用いて最適化計算を行うことにより、前記状態データが示す状態に応じたトレーニングメニューを生成する生成手段として機能させるトレーニング支援プログラム。
  8.  トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段と、
     前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段と、を備える学習装置。
  9.  少なくとも1つのプロセッサが、
     トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得することと、
     前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成することと、を含む学習方法。
  10.  コンピュータを、
     トレーニングに関する状態に応じた、当該状態で適用すべきトレーニングメニューを示す学習データを取得するデータ取得手段、および
     前記学習データを用いて逆強化学習することにより、状態に応じたトレーニングメニューを生成するための目的関数を生成する学習手段として機能させる学習プログラム。

     
PCT/JP2022/015798 2022-03-30 2022-03-30 トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム WO2023188061A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/015798 WO2023188061A1 (ja) 2022-03-30 2022-03-30 トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/015798 WO2023188061A1 (ja) 2022-03-30 2022-03-30 トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム

Publications (1)

Publication Number Publication Date
WO2023188061A1 true WO2023188061A1 (ja) 2023-10-05

Family

ID=88200237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015798 WO2023188061A1 (ja) 2022-03-30 2022-03-30 トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム

Country Status (1)

Country Link
WO (1) WO2023188061A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021038781A1 (ja) * 2019-08-29 2021-03-04 日本電気株式会社 学習装置、学習方法および学習プログラム
WO2021075289A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021229625A1 (ja) * 2020-05-11 2021-11-18 日本電気株式会社 学習装置、学習方法および学習プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021038781A1 (ja) * 2019-08-29 2021-03-04 日本電気株式会社 学習装置、学習方法および学習プログラム
WO2021075289A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021229625A1 (ja) * 2020-05-11 2021-11-18 日本電気株式会社 学習装置、学習方法および学習プログラム

Similar Documents

Publication Publication Date Title
US11562722B2 (en) Cognitive music engine using unsupervised learning
CN105659322B (zh) 推荐音频样本组合
CN108369799B (zh) 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程
JP4581476B2 (ja) 情報処理装置および方法、並びにプログラム
US9268812B2 (en) System and method for generating a mood gradient
US20130297599A1 (en) Music management for adaptive distraction reduction
Crossley Music worlds and body techniques: On the embodiment of musicking
CN105659314A (zh) 通过自动地调整样本特征来组合音频样本
JP2006526827A (ja) ユーザフィードバックを有するコンテンツ推薦装置
JP2006526826A (ja) 配列エンジンを有するコンテンツ推薦装置
CN109147807A (zh) 一种基于深度学习的音域平衡方法、装置及系统
Oliveira et al. A musical system for emotional expression
TW200821872A (en) Creating media content with selectable components
JP2006048320A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
WO2009107137A1 (en) Interactive music composition method and apparatus
US9734810B2 (en) Automatic harmony generation system
WO2023188061A1 (ja) トレーニング支援装置、トレーニング支援方法、トレーニング支援プログラム、学習装置、学習方法、および学習プログラム
CN109410972A (zh) 生成音效参数的方法、装置及存储介质
JP2002333892A (ja) オーディオ情報提供システム
US20140202314A1 (en) Tempo-adaptive pattern velocity synthesis
JP2005346347A (ja) 情報検索装置、情報検索方法、情報検索プログラムおよび記録媒体
JP2004077645A (ja) 歌詞生成装置および歌詞生成機能を実現させるためのプログラム
CN101023427A (zh) 提供符合性信息的方法
Sporka et al. Design and implementation of a non-linear symphonic soundtrack of a video game
Margounakis et al. On digitising the Greek music tradition: simulation of the Cretan lyre for mobile devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935208

Country of ref document: EP

Kind code of ref document: A1