WO2019187548A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2019187548A1
WO2019187548A1 PCT/JP2019/001989 JP2019001989W WO2019187548A1 WO 2019187548 A1 WO2019187548 A1 WO 2019187548A1 JP 2019001989 W JP2019001989 W JP 2019001989W WO 2019187548 A1 WO2019187548 A1 WO 2019187548A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
value
behavior
information processing
processing apparatus
Prior art date
Application number
PCT/JP2019/001989
Other languages
English (en)
French (fr)
Inventor
友哉 木村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020509719A priority Critical patent/JP7331837B2/ja
Priority to CA3094427A priority patent/CA3094427A1/en
Priority to US16/982,051 priority patent/US20210018882A1/en
Priority to EP19774557.3A priority patent/EP3779809A4/en
Priority to CN201980020131.7A priority patent/CN111868760A/zh
Publication of WO2019187548A1 publication Critical patent/WO2019187548A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0021Planning or execution of driving tasks specially adapted for travel time
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • B60W2050/0024Variable gains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means

Definitions

  • This disclosure relates to an information processing apparatus and an information processing method.
  • Non-Patent Document 1 discloses a technique of learning by dividing a behavior value for each purpose in reinforcement learning and using the obtained behavior value as a final behavior value.
  • Non-Patent Document 1 since the ratio in the above addition is constant, it is difficult to flexibly change the behavior of the moving object even when the purpose is changed.
  • the present disclosure proposes a new and improved information processing apparatus and information processing method capable of realizing an optimum operation following a change in purpose.
  • an action value calculation unit that calculates an action value that determines the behavior of the operation unit, and the action value calculation unit includes a plurality of first action values learned based on different rewards, and An information processing apparatus is provided that dynamically calculates a second action value to be input to the operation unit based on the acquired purpose change factor.
  • an information processing apparatus including a feedback unit that controls information notification related to the excess or deficiency.
  • the processor includes calculating an action value for determining the behavior of the operation unit, and the calculating includes a plurality of first action values learned based on different rewards.
  • the information processing method further includes dynamically calculating the second action value input to the operation unit based on the acquired purpose change factor.
  • the processor is configured to determine whether the plurality of behavior values are excessive or insufficient based on the operation result of the operation unit that performs dynamic behavior based on the plurality of behavior values learned based on different rewards.
  • An information processing method is provided that includes determining and controlling information notification related to the excess and deficiency.
  • Embodiment 1.1 Outline 1.2.
  • Functional configuration example of information processing apparatus 10 1.3.
  • Calculation of second action value 1.4.
  • Feedback on excess or deficiency of the first action value 2.
  • the above action value can be used only for a predetermined purpose. For this reason, when the purpose is changed after learning, the operating body is required to relearn a new action value corresponding to the changed new purpose.
  • Non-Patent Document 1 a technique is proposed in which the behavior value is divided into learning for each purpose in reinforcement learning, and the obtained behavior value is added to be used as the final behavior value. Yes.
  • Non-Patent Document 1 it is difficult to realize flexible follow-up to a change in purpose because the action values obtained by dividing are always added together at a predetermined ratio.
  • the information processing apparatus 10 that implements the information processing method according to an embodiment of the present disclosure includes an action value calculation unit 140 that calculates an action value that determines the behavior of the operation unit 150. Further, the behavior value calculation unit 140 according to the present embodiment inputs the first value to the operation unit 150 based on the plurality of first behavior values learned based on different rewards and the acquired purpose change factor. One of the characteristics is that the behavioral value of 2 is dynamically calculated.
  • FIG. 1 is a diagram for explaining the outline of the present embodiment.
  • FIG. 1 shows an example in the case of an autonomous driving vehicle that performs autonomous operation based on the environment E recognized by the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 learns an action value Q such that the reward R is most obtained through the action executed on the environment E during learning.
  • the information processing apparatus 10 according to the present embodiment is characterized by learning a plurality of action values Q based on a plurality of different rewards R as illustrated.
  • the information processing apparatus 10 learns the action values Q1 to Q5 corresponding to the rewards R1 to R5, respectively, based on the plurality of rewards R1 to R5.
  • the plurality of rewards R1 to R5 are set for different purposes.
  • the reward R1 is a reward for reaching the destination
  • the reward R2 is a reward for moving to the destination at a high speed.
  • the reward R3 is a reward for not hitting an obstacle
  • the reward R4 is a reward for not approaching the obstacle.
  • the reward R5 is a reward for not suddenly decelerating or accelerating.
  • the information processing apparatus 10 learns a plurality of action values Q1 to Q5 that realize a plurality of different purposes based on a plurality of rewards R1 to R5 corresponding to a plurality of different purposes. Is possible.
  • the information processing apparatus 10 according to the present embodiment can realize a more effective action with respect to the environment E by adding the plurality of action values Q learned as described above.
  • the information processing apparatus 10 when the information processing apparatus 10 is actually used, the purpose may be changed due to various factors.
  • the information processing apparatus 10 according to the present embodiment changes the ratio when adding the action values Q1 to Q5 according to the changed purpose, and the action value Q optimized for the purpose. By calculating, it is possible to realize a flexible operation following the target change.
  • the information processing apparatus 10 rewards R2 for moving to the destination at a high speed based on the above-described purpose.
  • the behavior value Q2 learned based on the above may be set high, and the final behavior value Q may be calculated.
  • the information processing apparatus 10 learns the behavior values Q3 to Q based on the rewards R3 to R5 for safe driving based on the above-described purpose.
  • the ratio of Q5 may be set high, and the final action value Q may be calculated.
  • the ratio at the time of adding the action values Q1 to Q5 is changed according to the changed purpose, thereby flexibly following the change of the purpose. It is possible to realize the operation.
  • the information processing apparatus 10 further has a function of detecting the deficiency or excess of the learned action value in addition to the above-described function and controlling information notification regarding the deficiency or excess. You may be prepared. According to the above-described function of the information processing apparatus 10 according to the present embodiment, the designer can grasp the action value that is insufficient to realize the optimum operation and the excess action value, and the effect is more effective. Realistic reinforcement learning can be realized.
  • a plurality of behavior values learned based on a plurality of different rewards may be referred to as a first behavior value.
  • the first action value according to the present embodiment corresponds to the action values Q1 to Q5 shown in FIG.
  • the final action value calculated based on the plurality of first action values may be referred to as a second action value.
  • the second action value according to the present embodiment corresponds to the action value Q shown in FIG.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 according to the present embodiment includes a reinforcement learning unit 110, an environment acquisition unit 120, a ratio calculation unit 130, an action value calculation unit 140, an operation unit 150, a log holding unit 160, and a feedback unit 170. , And an output unit 180.
  • the reinforcement learning unit 110 has a function of learning a plurality of first action values based on a plurality of rewards corresponding to a plurality of purposes (behavior indexes).
  • the reinforcement learning unit 110 outputs the plurality of learned first action values and the corresponding action index to the ratio calculation unit 130 and the action value calculation unit 140.
  • the environment acquisition unit 120 has a function of acquiring various environments related to the operation of the information processing apparatus 10 when using the learning result of the reinforcement learning unit 110.
  • the environment acquisition unit 120 according to the present embodiment acquires a purpose change factor that is a factor that changes the purpose.
  • the environment acquisition unit 120 outputs various environmental parameters related to the acquired environment and purpose change factors to the ratio calculation unit 130. Details of the functions of the environment acquisition unit 120 according to the present embodiment will be described later.
  • the ratio calculation unit 130 has a function of calculating a ratio used for calculating the second action value based on the purpose change factor. Specifically, the ratio calculation unit 130, based on the plurality of first action values input from the reinforcement learning unit 110 and the environment parameter input from the environment acquisition unit 120, includes a plurality of first action values. Calculate the weights for each of. The ratio calculation unit 130 outputs the calculated weight to the behavior value calculation unit 140.
  • the behavior value calculation unit 140 has a function of calculating the behavior value that determines the behavior of the operation unit 150. At this time, the behavior value calculation unit 140 according to the present embodiment inputs to the operation unit 150 based on the plurality of first behavior values learned based on different rewards and the acquired purpose change factors. One of the characteristics is to dynamically calculate the second action value.
  • the action value calculation unit 140 can dynamically calculate the second action value using the ratio calculated by the ratio calculation unit 130 based on the purpose change factor. Specifically, the action value calculation unit 140 according to the present embodiment calculates the second action value by adding the first action values based on the weights calculated by the ratio calculation unit 130. .
  • the second behavior value optimized for the purpose that changes according to the situation can be dynamically calculated, and the change in purpose is followed.
  • a flexible operation of the operation unit 150 can be realized. Note that details of the functions of the action value calculation unit 140 according to this embodiment will be described later.
  • the operation unit 150 according to the present embodiment is characterized in that the behavior is dynamically changed based on the second action value calculated by the action value calculation unit 140 and the estimated operation environment. Note that the operation unit 150 according to the present embodiment can perform various operations according to the characteristics of the information processing apparatus 10. For example, the operation unit 150 may control automatic driving based on the second action value, or may search for a next action in the game.
  • the operation unit 150 when the second action value changes based on the purpose change factor, the operation unit 150 according to the present embodiment has a function of causing the output unit 180 to output information related to the purpose change factor and the changing behavior.
  • the log holding unit 160 has a function of holding various logs related to the operation of the information processing apparatus 10.
  • the log holding unit 160 according to the present embodiment for example, the operation result of the operation unit 150 based on the environmental parameter, the weight set to the first action value, the calculated second action value, and the second action value. Etc. may be held.
  • the feedback unit 170 determines excess / deficiency related to the plurality of first action values based on the calculation result related to the second action value by the action value calculation unit 140, and information related to the excess / deficiency It has a function to control notification. Details of the functions of the feedback unit 170 according to the present embodiment will be described later.
  • the output unit 180 has a function of outputting various information based on control by the operation unit 150 and the feedback unit 170.
  • the output unit 180 according to the present embodiment notifies the user of information related to the purpose change factor and the changing behavior based on the control by the operation unit 150, for example.
  • the output unit 180 notifies the designer or the like of information related to excess or deficiency of the first action value based on the control by the feedback unit 170, for example.
  • the output unit 180 includes various display devices for outputting visual information, speakers for outputting sound, and the like.
  • the functional configuration example of the information processing apparatus 10 according to the present embodiment has been described above.
  • the above-described functional configuration described with reference to FIG. 2 is merely an example, and the functional configuration of the information processing apparatus 10 according to the present embodiment is not limited to the related example.
  • the functions of the information processing apparatus 10 described above may be realized by being distributed by a plurality of apparatuses.
  • the functions of the behavior value calculation unit 140, the operation unit 150, the feedback unit 170, and the like may be realized as functions of separate devices.
  • the functional configuration of the information processing apparatus 10 according to the present embodiment can be flexibly modified according to specifications and operations.
  • the second action value according to the present embodiment is an action value calculated by adding a plurality of first action values learned based on a plurality of rewards.
  • the action value is an evaluation value assigned to all actions that can be selected by itself, and is a concept different from the action itself.
  • 3A and 3B are diagrams for explaining the difference between the action value and the action.
  • FIG. 3A shows an example of the behavior when the action body 90 adds the behaviors themselves.
  • two actions b1 and b2 that can be performed by the operating body 90, which is an autonomous vehicle, in an environment where obstacles O1 and O2 exist are shown.
  • the action b1 may be an action for traveling safely, for example, and the action b2 may be an action for quickly arriving at the destination.
  • the action body 90 tries to perform the action b3 obtained by adding the actions b1 and b2 itself
  • the action b3 is obtained by adding the motion vectors related to the actions b1 and b2, as shown on the right side of FIG. 3A.
  • FIG. 3B shows an example in which the information processing apparatus 10 according to the present embodiment performs an action based on the second action value obtained by adding the first action values.
  • two actions b1 and b2 that the information processing apparatus 10 that is an autonomous driving vehicle can take in an environment where obstacles O1 and O2 exist are shown.
  • the actions b1 and b2 in FIG. 3B may be actions that are executed based on the first action values Q1 and Q2, respectively.
  • actions left turn, straight advance, or right turn
  • action values Q1 and Q2 for the action are shown in a graph.
  • the action value Q1 may be the first action value learned based on a reward for driving safely.
  • the action value Q1 is highest in a left turn that is a route with fewer obstacles, and thus the action b1 is determined based on the action value Q1.
  • the action value Q2 may be the first action value learned based on the reward for arriving at the destination quickly.
  • the action value Q2 is highest in a right turn that is more straight ahead while avoiding an obstacle, and thus the action b2 is determined based on the action value Q2.
  • the information processing apparatus 10 does not display the behaviors b1 and b2 themselves, but the behavior values Q1 and Q2 corresponding to the first behavior value according to the present embodiment, as illustrated on the right side of FIG. 3B.
  • the action value Q corresponding to the second action value is calculated, and the action b3 having the highest action value Q is determined.
  • the information processing apparatus 10 unlike the case where the actions themselves are added together, it is possible to prevent a decrease in safety or the like without performing an action that does not meet the purpose. Is possible.
  • the action value calculation unit 140 of the information processing apparatus 10 uses the weight calculated according to the purpose to add the second action value when adding the first action values as described above. May be calculated.
  • FIG. 4 is a diagram for explaining the calculation of the second action value using the weight according to the purpose according to the present embodiment.
  • the ratio calculation unit 130 sets the weight W1 for the action value Q1 related to safety to 2 and relates to high speed based on the purpose.
  • the weight W2 for the behavior value Q2 may be calculated as 1.
  • the action value calculation unit 140 uses the above-described weights W1 and W2 calculated by the ratio calculation unit 130, as shown on the left side of FIG. 4, the action value corresponding to the second action value.
  • the operation unit 150 executes the action b3 corresponding to the left turn at which the action value Q calculated by the action value calculation unit 140 is the highest.
  • the ratio calculation unit 130 sets the weight W1 for the action value Q1 related to safety to 1 and increases the speed based on the purpose.
  • the weight W2 for the action value Q2 may be calculated as 2.
  • the action value calculation unit 140 uses the weights W1 and W2 calculated by the ratio calculation unit 130, as shown on the right side of FIG. 4, and the action value corresponding to the second action value.
  • the action unit 150 executes the action b3 corresponding to the right turn that is close to the straight line where the action value Q calculated by the action value calculation unit 140 is the highest.
  • various second action values can be calculated by changing the weight for the first action value according to the purpose, and relearning It is possible to change the behavior of the operation unit 150 without performing the operation.
  • the purpose change factor according to the present embodiment refers to various factors that lead to a change in the purpose of operation of the operation unit 150 when the information processing apparatus 10 is used.
  • the information processing apparatus 10 according to the present embodiment detects various purpose change factors, determines a ratio according to the changed purpose, calculates a second action value optimized for the purpose, An operation that satisfies the purpose can be realized.
  • the purpose change factor according to the present embodiment includes, for example, a purpose change instruction given by the user.
  • FIG. 5 is a diagram for explaining the calculation of the second action value based on the purpose change instruction given by the user according to the present embodiment.
  • FIG. 5 shows a display example of a user interface for accepting a purpose change instruction given by the user.
  • the environment acquisition unit 120 can output user interfaces UI1 to UI3 as shown in FIG. 5 to the output unit 180, and can prompt input of a purpose change instruction.
  • the environment acquisition unit 120 displays the user interfaces UI to UI3 on the output unit 180 installed in the vehicle, and the user attaches importance to safety and high speed. The degree may be inquired.
  • the environment acquisition unit 120 detects values input in the user interfaces UI1 to UI3, and delivers the values to the ratio calculation unit 130 as part of the environment parameters. Further, the ratio calculation unit 130 determines a weight for the first action value based on the received environmental parameter, and passes the weight to the action value calculation unit 140. In addition, the behavior value calculation unit 140 can calculate the second behavior value by adding the first behavior values using the received weights.
  • the ratio calculation unit 130 receives values input using the indicators corresponding to the behavior values Q1 and Q2 from the environment acquisition unit 120, and based on the values, the behavior calculation unit 130
  • the weight W1 corresponding to the value Q1 may be determined as 5, and the weight W2 corresponding to the behavior value Q2 may be determined as 1.
  • the purpose change instruction given by the user according to the present embodiment has been described with a specific example. According to the above-described function of the information processing apparatus 10 according to the present embodiment, it is possible to realize an operation in accordance with a user's request that changes depending on the situation without re-learning.
  • the user interfaces UI1 to UI3 shown in FIG. 5 are merely examples, and the purpose change instruction according to the present embodiment may be detected by, for example, a voice inquiry or input.
  • the purpose change instruction according to the present embodiment may be detected based on a user's gesture, for example. In the above gesture, for example, when the user shakes the smartphone, the importance related to high speed is increased, and when the user puts weight on the seat back, the importance related to high speed is reduced. Device operations such as, may be included.
  • the purpose change factor according to the present embodiment includes a change in the operating environment of the operating unit 150.
  • the environment acquisition unit 120 according to the present embodiment may detect the matching of the environment as a purpose change factor.
  • FIG. 6 is a diagram for explaining the coincidence between the predetermined environment and the operating environment estimated from the context according to the present embodiment.
  • FIG. 6 shows an example of calculating the second action value when the information processing apparatus 10, which is an autonomous driving vehicle, receives an instruction from the user U ⁇ b> 1 ‘get by 10:00’.
  • the environment acquisition unit 120 acquires the current time as a part of the environment parameter, calculates the difference between the current time and the arrival time set at the destination, that is, the remaining time, and uses the difference as a part of the environment parameter. As shown in FIG.
  • the ratio calculation unit 130 determines a weight for the first action value based on the received remaining time and the conversion function F, and delivers the weight to the action value calculation unit 140.
  • the behavior value calculation unit 140 can calculate the second behavior value based on the received weight.
  • the ratio calculation unit 130 sets the weight W1 for the action value Q1 related to safety to 5 because the remaining time is 45 minutes and there is still time.
  • the weight W2 for the action value Q2 related to high speed may be set to 1.
  • the ratio calculation unit 130 has a remaining time of 30 minutes and there is no more time, so the weight W1 for the behavior value Q1 related to safety is set.
  • the weight W2 for the action value Q2 related to high speed may be set to 2.
  • the ratio calculation unit 130 has a remaining time of 15 minutes and there is almost no time margin, so the weight W1 for the behavior value Q1 related to safety is set to 1. And the weight W2 for the action value Q2 related to high speed may be set to 5.
  • the environment acquisition unit 120 may detect the match of the environment as a target change factor.
  • FIG. 7 is a diagram for explaining the coincidence between the predetermined environment and the operating environment in which the user has set the target operation according to the present embodiment.
  • FIG. 7 shows an example of a user interface UI for prompting the user to set a target action for a predetermined environment.
  • the user interface UI1 displays predetermined environmental states S1 to S3 for allowing the user to set a target action.
  • each of the environmental states S1 to S3 is a state in which the traveling path is a straight line, a traveling path is gently curved, and a traveling path is bent at a right angle.
  • the environment acquisition unit 120 presents a plurality of environmental states S that can affect the change in the first action value, such as safety and high speed, to the user via the user interface UI.
  • the environmental state S it is possible to inquire about what kind of operation the user wants.
  • the environment acquisition unit 120 acquires the input target action as an environment parameter, and passes the environment parameter to the ratio calculation unit 130.
  • the target action is shown by speed.
  • the calculation of the second action value based on the detection of the purpose change factor according to the present embodiment has been described. According to the function of the information processing apparatus 10 according to the present embodiment, it is possible to realize an optimal operation that follows a purpose that changes according to the situation without performing relearning.
  • the operation unit 150 When the second action value changes based on the purpose change factor, the operation unit 150 according to the present embodiment provides the user with information regarding the purpose change factor and behavior that changes based on the second action value. It has a function to notify.
  • FIG. 8 is a diagram for explaining the control of the information notification related to the purpose change factor and the changing behavior according to the present embodiment.
  • FIG. 8 shows an example in which the information processing apparatus 10 according to the present embodiment is an autonomous driving vehicle and acquires weather as an environmental parameter.
  • the information processing apparatus 10 that travels in a clear environment is shown on the left side of FIG.
  • the ratio calculation unit 130 since the ratio calculation unit 130 has good visibility because of clear weather, the speed is emphasized, the weight W1 for the behavior value Q1 related to safety is set to 1, and the weight W2 for the behavior value Q2 related to high speed is set. 2 is set.
  • the right side of FIG. 8 shows the information processing apparatus 10 that travels in an environment where fog is generated.
  • the ratio calculation unit 130 attaches importance to safety based on the fact that the environment acquisition unit 120 detects the occurrence of fog based on the image captured by the camera device, and the weight W1 for the behavior value Q1 related to safety. Is set to 2, and the weight W2 for the action value Q2 related to high speed is set to 1.
  • the operation unit 150 obtains information regarding the purpose change factor and the behavior that changes based on the second action value based on the change in the value of the second action value Q. The user U1 is notified.
  • the operation unit 150 causes the output unit 180 to output a voice utterance SO1 that notifies that an operation with improved safety is performed by detecting the occurrence of fog.
  • the operation unit 150 prior to the change in behavior, the user is notified of the reason for changing the behavior, so that the user gets a sense of discomfort or distrust with the change in behavior. Can be prevented.
  • FIG. 9 is a flowchart showing an operation flow of the information processing apparatus 10 according to the present embodiment.
  • the environment acquisition unit 120 causes the output unit 180 to display a user interface UI for inputting a purpose change instruction by a user and a target action for a predetermined environment state (S1101).
  • the environment acquisition unit 120 acquires environment parameters based on the input content to the user interface UI (S1102).
  • the ratio calculation unit 130 calculates the weight Wn for the first action value Qn based on the environmental parameter acquired in step S1102 (S1103).
  • the behavior value calculation unit 140 calculates the second behavior value Q based on the weight Wn calculated in step S1103 (S1104).
  • the operation unit 150 causes the output unit 180 to output information related to the purpose change factor and the behavior change based on the second action value Q calculated in step S1104 (S1105).
  • the operation unit 150 executes an operation optimized for the purpose based on the second action value Q calculated in step S1104 (S1106).
  • the functions of the information processing apparatus 10 according to the present embodiment have been described above in detail.
  • the case where the information processing apparatus 10 according to the present embodiment is an autonomous vehicle has been described as a main example, but the information processing apparatus 10 according to the present embodiment is not limited to such an example.
  • the information processing apparatus 10 according to the present embodiment may be an agent apparatus that performs a voice conversation with a user, for example.
  • FIG. 10 is a diagram for explaining operation control when the information processing apparatus 10 according to the present embodiment is an agent apparatus.
  • the information processing apparatus 10 is based on the behavior value Q1 learned based on the reward R1 for performing a conversational conversation and the behavior value Q2 learned based on the reward R2 for performing a calm conversation. Is shown to work. At this time, the information processing apparatus 10 may acquire the facial expression of the user U as an environmental parameter, determine a weight based on the environmental parameter, and calculate a second action value based on the weight.
  • the information processing apparatus 10 sets a higher weight W1 for the action value Q1 related to the talkative conversation, and the user U1 has a depressed expression.
  • the weight W2 for the action value Q2 related to the calm dialogue can be set high.
  • the information processing apparatus 10 it is possible to flexibly change the character of the agent according to the state of the user U1 and realize a more optimized dialogue.
  • the information processing apparatus 10 can also realize a strategy change according to the context, for example, in a picking challenge or a battle game.
  • the information processing apparatus 10 learns the behavior value Q1 learned based on the reward R1 for performing high-precision picking and the behavior value Q2 learned based on the reward R2 for performing high-speed picking. The operation is performed based on the above.
  • the information processing apparatus 10 acquires the remaining time up to the time limit as an environmental parameter, and sets the weight W2 for the action value Q2 related to high speed as the remaining time decreases, thereby setting the picking strategy according to time. Can be changed dynamically.
  • the information processing apparatus 10 learns an action value Q1 learned based on a reward R1 for winning a role with a high score, and an action value Q2 learned based on a reward R2 for winning early. Based on the action.
  • the information processing apparatus 10 acquires a point difference between the opponent and itself as an environmental parameter, and sets the weight W1 for the action value Q1 related to the victory with a high score as the point difference widens, thereby increasing the game situation. It is possible to change the strategy dynamically according to the situation. In addition, the information processing apparatus 10 acquires vital information such as the heart rate and sweat rate of the opponent and a speech as environmental parameters, and dynamically changes the strategy by calculating the weight W based on the environmental parameters. Is also possible.
  • the feedback unit 170 has a function of controlling the information notification related to the excess or deficiency of the first behavior value based on the calculation result of the second behavior value by the behavior value calculation unit 140. Have.
  • FIG. 11 is a diagram for explaining notification control related to the excess of the first action value according to the present embodiment.
  • FIG. 11 shows an example in which the information processing apparatus 10 according to the present embodiment is an agent apparatus that performs a voice conversation with a user.
  • the information processing apparatus 10 obtains the behavior value Q1 based on the reward R1 for performing a conversation with a chatter personality, and the behavior value Q2 based on the reward R2 for performing a conversation with a gentle personality.
  • the behavioral value Q3 is learned based on the reward R3 for having a conversation with annoying personality.
  • the feedback unit 170 when the feedback unit 170 according to the present embodiment detects a first action value that can be expressed by a combination of a plurality of different first action values, the detected first action value is detected.
  • the output unit 180 may execute information notification related to the excess of data.
  • the output unit 180 outputs the voice utterance SO2 that detects that it is possible and notifies the excess of the behavior value Q3.
  • the excessive first action value Qn can be pointed out to the designer or the like, and the designer deletes the network corresponding to the action value Qn. As a result, it is possible to reduce memory and calculation amount.
  • the designer can apply the knowledge to driving control learning of other devices such as drones. Expected to reduce time.
  • FIG. 12 is a flowchart showing a flow of notification control related to the excess of the first action value.
  • the feedback unit 170 first obtains the calculation result of the second behavior value Q calculated by the behavior value calculation unit 140 from the log holding unit 160 (S1201).
  • the feedback unit 170 calculates the similarity between the first action values Qn based on the calculation result acquired in step S1201 (S1202). At this time, the feedback unit 170 calculates the similarity based on the correlation value between the first action values Qn and the like.
  • the feedback unit 170 may calculate, for example, the similarity between W1Q1 + W2Q2 and Q3.
  • the feedback unit 170 determines whether or not the similarity calculated in step S1202 exceeds a threshold value (S1203).
  • the feedback unit 170 causes the output unit 180 to output a notification related to the excess of the corresponding first action value Qn (S1204).
  • the feedback unit 170 causes the output unit 180 to output that the excess of the first action value Qn is not recognized (S1205). Note that the notification in step S1205 is not necessarily performed.
  • the notification control related to the excess of the first action value according to the present embodiment has been described above. Next, notification control related to the deficiency of the first action value according to the present embodiment will be described.
  • FIG. 13 and FIG. 14 are diagrams for explaining the notification control related to the deficiency of the first action value.
  • FIG. 13 shows an example in which the information processing apparatus 10 according to the present embodiment makes a strategy according to the context in a poker game.
  • the designer D1 first sets a target action for each predetermined environmental state (scene).
  • the designer D1 sets a target role and a discard tag for each of the scenes 1 to 16.
  • the ratio calculation unit 130 calculates the weight Wn for realizing the set target action, and the behavior value calculation unit 140 calculates the second behavior value Q based on the weight Wn.
  • the feedback unit 170 calculates the degree of coincidence between the operation corresponding to the calculated second action value Q and the target action set by the designer, and the degree of coincidence falls below the threshold.
  • movement which concerns on is extracted, and the feature common to the said operation
  • the feedback unit 170 causes the output unit 180 to output a notification related to the lack of the first action value Qn based on the extracted features.
  • the feedback unit 170 causes the output unit 180 to output the voice utterance SO3 indicating that the first action value for aiming for a role having a high score is insufficient.
  • FIG. 14 shows an example in which the information processing apparatus 10 according to the present embodiment is an autonomous driving vehicle.
  • the designer D1 first sets a target action for each predetermined environmental state (scene).
  • the designer D1 sets the speed per hour for each of the environmental states S1 to S3.
  • the ratio calculator 130 calculates a weight Wn for realizing the set target action (speed), and the action value calculator 140 calculates the second action value Q based on the weight Wn.
  • the feedback unit 170 calculates the degree of coincidence between the operation corresponding to the calculated second action value Q and the target action set by the designer, and the degree of coincidence falls below the threshold.
  • An operation related to the state S is extracted, and features common to the operation are extracted.
  • the feedback unit 170 extracts features common to traveling at a speed of 20 km / h and traveling at a speed of 10 km / h based on the degree of matching being lower in the environmental states S2 and S3.
  • the feedback unit 170 causes the output unit 180 to output a notification related to the lack of the first action value Qn based on the extracted features.
  • the feedback unit 170 causes the output unit 180 to output the voice utterance SO4 indicating that the first action value for moving at low speed is insufficient.
  • the feedback unit 170 when the second action value Q that realizes the target action set for the predetermined environment cannot be calculated from the first action value Qn, It is possible to execute information notification regarding the deficiency of the action value Qn.
  • the designer can clearly grasp the shortage of the first action value Qn that is lacking in order to realize the target action. It can be used for design.
  • FIG. 15 is a flowchart showing a flow of notification control related to the deficiency of the first action value according to the present embodiment.
  • the feedback unit 170 first obtains the target action and the second action value Q set for each environmental state (scene) from the log holding unit 160 (S1301).
  • the feedback unit 170 calculates the degree of match between the target action and the second action value Q for each scene (S1302).
  • the feedback unit 170 determines whether there is a scene for which the degree of match calculated in step S1302 is below a threshold (S1303).
  • the feedback unit 170 notifies the output unit 180 that the first action value Qn is not deficient (S1307). Note that the notification in step S1307 is not necessarily performed.
  • the feedback unit 170 extracts a feature common to the target action corresponding to the extracted scene (S1304).
  • the feedback unit 170 specifies the lacking first action value Qn based on the feature extracted in step S1304 (S1305).
  • the feedback unit 170 causes the output unit 180 to output a notification regarding the deficiency of the first action value Qn identified in step S1305 (S1306).
  • FIG. 16 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to an embodiment of the present disclosure.
  • the information processing apparatus 10 includes, for example, a processor 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, and an output device 879.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.
  • the processor 871 functions as, for example, an arithmetic processing unit or a control unit, and controls all or part of the operation of each component based on various programs recorded in the ROM 872, RAM 873, storage 880, or removable recording medium 901. .
  • the ROM 872 is a means for storing a program read by the processor 871, data used for calculation, and the like.
  • a program to be read by the processor 871 various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • the processor 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example.
  • the external bus 876 is connected to various components via an interface 877.
  • the input device 878 for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Furthermore, as the input device 878, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • the input device 878 includes a voice input device such as a microphone.
  • the output device 879 is a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. It is a device that can be notified visually or audibly.
  • the output device 879 according to the present disclosure includes various vibration devices that can output a tactile stimulus.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media.
  • the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.
  • connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the communication device 883 is a communication device for connecting to a network.
  • the information processing apparatus 10 includes the behavior value calculation unit 140 that calculates the behavior value that determines the behavior of the operation unit 150.
  • the behavior value calculation unit 140 calculates a second behavior value to be input to the operation unit 150 based on the plurality of first behavior values learned based on different rewards and the acquired purpose change factor.
  • One of the features is to calculate dynamically.
  • the information processing apparatus 10 according to an embodiment of the present disclosure relates to a plurality of behavior values related to the operation of the operation unit 150 that performs dynamic behavior based on a plurality of behavior values learned based on different rewards.
  • a feedback unit 170 that determines excess / deficiency and controls notification of the excess / deficiency is provided. According to such a configuration, it is possible to realize an optimum operation following the change of purpose.
  • each step related to the processing of the information processing apparatus 10 of the present specification does not necessarily have to be processed in time series in the order described in the flowchart.
  • each step related to the processing of the information processing apparatus 10 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
  • An action value calculator that calculates an action value that determines the behavior of the action part; With The behavior value calculation unit dynamically calculates a second behavior value to be input to the operation unit based on the plurality of first behavior values learned based on different rewards and the acquired purpose change factor. To calculate, Information processing device.
  • the behavior value calculator dynamically calculates a plurality of the second behavior values based on a ratio determined based on the purpose change factor; The information processing apparatus according to (1).
  • the behavior value calculation unit adds the plurality of first behavior values based on a weight for each of the plurality of first behavior values determined based on the purpose change factor, thereby adding the second behavior value.
  • the purpose change factor includes a purpose change instruction given by a user, The information processing apparatus according to any one of (1) to (3).
  • the purpose change factor includes a change in an operating environment of the operating unit.
  • the purpose change factor includes that the operating environment matches a predetermined environment estimated from a context, The information processing apparatus according to any one of (5).
  • the purpose change factor includes that the operating environment matches a predetermined environment in which a user sets a target action.
  • An operation unit for dynamically changing the behavior based on the second behavior value and the estimated operation environment Further including The information processing apparatus according to any one of (1) to (7).
  • the operation unit When the second action value changes based on the purpose change factor, the operation unit notifies the user of information related to the purpose change factor and behavior that changes based on the second action value.
  • a ratio calculation unit that calculates a ratio used for calculating the second action value based on the acquired purpose change factor; Further including The information processing apparatus according to any one of (1) to (9).
  • the operation unit dynamically calculates based on a plurality of first action values learned based on different rewards and weights for the first action values determined according to the acquired environment. Performing the behavior based on the second behavior value The feedback unit determines an excess or deficiency related to the plurality of first action values based on a calculation result related to the second action value.
  • the information processing apparatus according to (11).
  • the feedback unit When the second action value that realizes a target action set for a predetermined environment cannot be calculated from a plurality of the first action values, the feedback unit is insufficiency in the first action value. Such information notification is executed, The information processing apparatus according to (12). (14) The feedback unit calculates a degree of coincidence between the target action corresponding to the predetermined environment and the second action value calculated in the predetermined environment, and when the degree of coincidence is lower than a threshold, Execute information notification related to lack of action value, The information processing apparatus according to (13). (15) The feedback unit specifies the first action value that is deficient based on the predetermined environment in which the degree of match is less than a threshold value, and executes information notification related to the deficiency of the specified first action value.
  • the information processing apparatus extracts features common to the plurality of target actions corresponding to the plurality of predetermined environments in which the degree of match is less than a threshold, and identifies the first action value that is deficient based on the features.
  • the information processing apparatus (15).
  • the feedback unit detects the first action value that can be expressed by a combination of a plurality of different first action values, the feedback unit executes information notification regarding the excess of the detected first action value Let The information processing apparatus according to any one of (12) to (16). (18) The feedback unit calculates a similarity between the plurality of first action values based on the plurality of first action values and the weights, and the first action exceeds the threshold.
  • the information processing apparatus calculates an action value that determines the behavior of the motion part; Including The calculating dynamically calculates a second action value to be input to the operation unit based on the plurality of first action values learned based on different rewards and the acquired purpose change factor. Calculating, Further including Information processing method. (20) Based on the operation result of the operation unit that performs dynamic behavior based on a plurality of behavior values learned based on different rewards, the processor determines a plurality of the behavior values, and relates to the excess and deficiency Controlling information notifications, including, Information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】目的の変更に追従した最適な動作を実現する。 【解決手段】動作部の振る舞いを決定する行動価値を計算する行動価値計算部、を備え、前記行動価値計算部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算する、情報処理装置が提供される。また、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作結果に基づいて、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御するフィードバック部、を備える、情報処理装置が提供される。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関する。
 近年、機械学習技術を活用した種々の装置が開発されている。上記のような装置には、例えば、強化学習により取得した行動価値に基づいて自律的動作を行う種々の動作体が挙げられる。また、強化学習の性能や効率を向上させるための技術が盛んに研究されている。例えば、非特許文献1には、強化学習において行動価値を目的ごとに分割して学習し、得られた行動価値を足し合わせることで最終的な行動価値として利用する技術が開示されている。
Harm van Seijen、外5名、「Hybrid RewardArchitecture for Reinforcement Learning」、2017年6月13日、[Online]、[平成30年3月21日検索]、インターネット<https://arxiv.org/pdf/1706.04208.pdf>
 しかし、非特許文献1に記載の技術では、上記の足し合わせにおける比率が一定であるため、目的が変化した場合であっても、動作体の挙動を柔軟に変化させることが困難である。
 そこで、本開示では、目的の変更に追従した最適な動作を実現することが可能な、新規かつ改良された情報処理装置および情報処理方法を提案する。
 本開示によれば、動作部の振る舞いを決定する行動価値を計算する行動価値計算部、を備え、前記行動価値計算部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算する、情報処理装置が提供される。
 また、本開示によれば、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作結果に基づいて、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御するフィードバック部、を備える、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、動作部の振る舞いを決定する行動価値を計算すること、を含み、前記計算することは、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算すること、をさらに含む、情報処理方法が提供される。
 また、本開示によれば、プロセッサが、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作結果に基づいて、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御すること、を含む、情報処理方法が提供される。
 以上説明したように本開示によれば、目的の変更に追従した最適な動作を実現することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の概要について説明するための図である。 同実施形態に係る情報処理装置の機能構成例を示すブロック図である。 行動価値と行動の違いについて説明するための図である。 行動価値と行動の違いについて説明するための図である。 本開示の一実施形態に係る目的に応じた重みを用いた第2の行動価値の算出について説明するための図である。 同実施形態に係るユーザにより与えられる目的変更指示に基づく第2の行動価値の計算について説明するための図である。 同実施形態に係るコンテクストから推定される所定環境と動作環境の一致について説明するための図である。 同実施形態に係るユーザが目的動作を設定した所定環境と動作環境の一致について説明するための図である。 同実施形態に係る目的変化要因と変化する振る舞いとに係る情報通知の制御について説明するための図である。 同実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 同実施形態に係る情報処理装置がエージェント装置である場合の動作制御について説明するための図である。 同実施形態に係る第1の行動価値の過剰性に係る通知制御について説明するための図である。 同実施形態に係る第1の行動価値の過剰性に係る通知制御の流れを示すフローチャートである。 同実施形態に係る第1の行動価値の不足性に係る通知制御について説明するための図である。 同実施形態に係る第1の行動価値の不足性に係る通知制御について説明するための図である。 同実施形態に係る第1の行動価値の不足性に係る通知制御の流れを示すフローチャートである。 本開示の一実施形態に係る情報処理装置のハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.概要
  1.2.情報処理装置10の機能構成例
  1.3.第2の行動価値の算出
  1.4.第1の行動価値の過不足に係るフィードバック
 2.ハードウェア構成例
 3.まとめ
 <1.実施形態>
 <<1.1.概要>>
 まず、本開示の一実施形態の概要について述べる。上述したように、近年、強化学習により取得した行動価値に基づいて自律的動作を行う種々の動作体が開発されている。上記のような動作体は、学習時に定められた所定の目的を実現するための行動価値を学習し、当該行動価値に基づいて、種々の自律的動作を実現することが可能である。
 一方、上記の行動価値は、定められた目的に対してのみ利用可能である。このため、学習後に目的が変更された場合、動作体は変更された新たな目的に対応する新たな行動価値を再学習することが求められる。
 近年では、上記のような再学習を効率化するための手法も提案されているが、効率化を実現した場合であっても再学習に要するコストは決して少なくないことから、再学習自体を回避することが望ましい。
 また、上述した非特許文献1によれば、強化学習において行動価値を目的ごとに分割して学習し、得られた行動価値を足し合わせることで最終的な行動価値として利用する技術が提案されている。
 しかし、非特許文献1に記載の技術では、分割して学習した行動価値を常に所定の比率で足し合わせるため、目的の変更に対する柔軟な追従を実現することが困難である。
 本開示に係る技術思想は、上記の点に着目して発想されたものであり、目的の変更に追従した最適な動作を再学習を行わずに実現することを可能とする。このために、本開示の一実施形態に係る情報処理方法を実現する情報処理装置10は、動作部150の振る舞いを決定する行動価値を計算する行動価値計算部140を備える。また、本実施形態に係る行動価値計算部140は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、動作部150に入力する第2の行動価値を動的に計算すること、を特徴の一つとする。
 図1は、本実施形態の概要について説明するための図である。図1では、本実施形態に係る情報処理装置10が認識した環境Eに基づいて自律動作を行う自動運転車である場合の一例が示されている。
 図1の上段に示すように、本実施形態に係る情報処理装置10は、学習時において、環境Eに対して実行する行動を通じて報酬Rが最も多く得られるような行動価値Qを学習する。この際、本実施形態に係る情報処理装置10は、図示するように、複数の異なる報酬Rに基づいて複数の行動価値Qを学習することを特徴の一つとする。
 図1に示す一例の場合、情報処理装置10は、複数の報酬R1~R5に基づいて、報酬R1~R5にそれぞれ対応する行動価値Q1~Q5を学習している。この際、複数の報酬R1~5は、異なる目的に対応して設定される。例えば、図1に示す一例の場合、報酬R1は、目的地に辿り着く、ことに対する報酬であり、報酬R2は、速い速度で目的地まで移動する、ことに対する報酬である。また、報酬R3は、障害物にぶつからない、ことに対する報酬であり、報酬R4は、障害物に近づかない、ことに対する報酬である。また、報酬R5は、急減速や急加速をしない、ことに対する報酬である。
 このように、本実施形態に係る情報処理装置10は、異なる複数の目的に対応した複数の報酬R1~R5に基づいて、異なる複数の目的を実現する複数の行動価値Q1~Q5を学習することが可能である。本実施形態に係る情報処理装置10は、上記のように学習した複数の行動価値Qを足し合わせることで、環境Eに対しより効果的な行動を実現することができる。
 一方、情報処理装置10が実際に利用される際には、種々の要因により目的が変更されることも想定される。このために、本実施形態に係る情報処理装置10は、変更された目的に応じて、行動価値Q1~Q5を足し合わせる際の比率を変更し、当該目的に対して最適化された行動価値Qを計算することで、目的の変更に追従した柔軟な動作を実現することが可能である。
 例えば、図1に示すように、ユーザU1aが速く目的地に辿り着くことを目的とする場合、情報処理装置10は、上記の目的に基づいて、速い速度で目的地まで移動することに対する報酬R2に基づいて学習した行動価値Q2の比率を高く設定し、最終的な行動価値Qを計算してよい。図1に示す一例の場合、情報処理装置10は、最終的な行動価値Qを、Q=Q1+5Q2+Q3+Q4+Q5、として計算している。
 また、例えば、ユーザU1bが安全に目的地に辿り着くことを目的とする場合、情報処理装置10は、上記の目的に基づいて、安全運転に対する報酬R3~R5に基づいて学習した行動価値Q3~Q5の比率を高く設定し、最終的な行動価値Qを計算してよい。図1に示す一例の場合、情報処理装置10は、最終的な行動価値Qを、Q=Q1+Q2+5Q3+5Q4+3Q5、として計算している。
 このように、本実施形態に係る情報処理装置10によれば、変更された目的に応じて、行動価値Q1~Q5を足し合わせる際の比率を変更することで、目的の変更に追従した柔軟な動作を実現することが可能である。
 また、本実施形態に係る情報処理装置10は、上述の機能に加え、学習済の行動価値の不足性や過剰性を検出し、当該不足性や過剰性に係る情報通知を制御する機能をさらに備えてよい。本実施形態に係る情報処理装置10が有する上記の機能によれば、最適な動作を実現するために不足している行動価値や、過剰な行動価値を設計者が把握することができ、より効果的な強化学習を実現することが可能となる。
 以下、上記機能を実現する情報処理装置10の構成について詳細に説明する。なお、以下の説明においては、異なる複数の報酬に基づいて学習された複数の行動価値を、第1の行動価値、と称する場合がある。例えば、本実施形態に係る第1の行動価値は、図1に示す行動価値Q1~Q5に対応する。
 また、以下の説明においては、複数の第1の行動価値に基づいて計算される最終的な行動価値を、第2の行動価値、と称する場合がある。例えば、本実施形態に係る第2の行動価値は、図1に示す行動価値Qに対応する。
 <<1.2.情報処理装置10の機能構成例>>
 次に、本実施形態に係る情報処理装置10の機能構成例について説明する。図2は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図2を参照すると、本実施形態に係る情報処理装置10は、強化学習部110、環境取得部120、比率計算部130、行動価値計算部140、動作部150、ログ保持部160、フィードバック部170、および出力部180を備える。
 (強化学習部110)
 本実施形態に係る強化学習部110は、複数の目的(行動指標)に対応する複数の報酬に基づいて、複数の第1の行動価値を学習する機能を有する。本実施形態に係る強化学習部110は、学習した複数の第1の行動価値と、対応する行動指標とを比率計算部130および行動価値計算部140に出力する。
 (環境取得部120)
 本実施形態に係る環境取得部120は、強化学習部110の学習結果の利用時に、情報処理装置10の動作に係る種々の環境を取得する機能を有する。また、本実施形態に係る環境取得部120は、目的が変化する要因である目的変化要因を取得する。環境取得部120は、取得した環境や目的変化要因に係る種々の環境パラメータを比率計算部130に出力する。本実施形態に係る環境取得部120が有する機能の詳細については別途後述する。
 (比率計算部130)
 本実施形態に係る比率計算部130は、目的変化要因に基づいて、第2の行動価値の計算に用いられる比率を計算する機能を有する。具体的には、比率計算部130は、強化学習部110から入力された複数の第1の行動価値と、環境取得部120から入力された環境パラメータとに基づいて、複数の第1の行動価値のそれぞれに対する重みを計算する。比率計算部130は、計算した上記の重みを行動価値計算部140に出力する。
 (行動価値計算部140)
 本実施形態に係る行動価値計算部140は、動作部150の振る舞いを決定する行動価値を計算する機能を有する。この際、本実施形態に係る行動価値計算部140は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、動作部150に入力する第2の行動価値を動的に計算すること、を特徴の一つとする。
 本実施形態に係る行動価値計算部140は、比率計算部130が目的変化要因に基づいて計算した比率を用いて、第2の行動価値を動的に計算することができる。具体的には、本実施形態に係る行動価値計算部140は、比率計算部130が計算した上記の重みに基づいて、第1の行動価値を足し合わせることで、第2の行動価値を計算する。
 本実施形態に係る行動価値計算部140が有する上記の機能によれば、状況により変化する目的に対し最適化された第2の行動価値を動的に計算することができ、目的変化に追従した動作部150の柔軟な動作を実現することが可能となる。なお、本実施形態に係る行動価値計算部140が有する機能の詳細については別途後述する。
 (動作部150)
 本実施形態に係る動作部150は、行動価値計算部140が計算した第2の行動価値と、推定された動作環境とに基づいて、振る舞いを動的に変化させることを特徴の一つとする。なお、本実施形態に係る動作部150は、情報処理装置10の特性に応じた種々の動作を行うことができる。動作部150は、例えば、第2の行動価値に基づいて自動運転を制御してもよいし、ゲームにおける次のアクションを探索してもよい。
 また、本実施形態に係る動作部150は、上記の目的変化要因に基づいて第2の行動価値が変化した場合、当該目的変化要因と変化する振る舞いとに係る情報を出力部180に出力させる機能を有する。
 (ログ保持部160)
 本実施形態に係るログ保持部160は、情報処理装置10の動作に係る各種のログを保持する機能を有する。本実施形態に係るログ保持部160は、例えば、環境パラメータや、第1の行動価値に設定された重み、計算された第2の行動価値、第2の行動価値に基づく動作部150の動作結果などを保持してよい。
 (フィードバック部170)
 本実施形態に係るフィードバック部170は、行動価値計算部140による第2の行動価値に係る計算結果に基づいて、複数の第1の行動価値に係る過不足を判定し、当該過不足に係る情報通知を制御する機能を有する。本実施形態に係るフィードバック部170が有する機能の詳細については別途後述する。
 (出力部180)
 本実施形態に係る出力部180は、動作部150やフィードバック部170による制御に基づいて、種々の情報を出力する機能を有する。本実施形態に係る出力部180は、例えば、動作部150による制御に基づいて、目的変化要因と変化する振る舞いとに係る情報をユーザに対し通知する。また、出力部180は、例えば、フィードバック部170による制御に基づいて、第1の行動価値の過不足に係る情報を設計者などに通知する。
 このために、本実施形態に係る出力部180は、視覚情報を出力するための各種の表示装置や、音声を出力するためのスピーカなどを備える。
 以上、本実施形態に係る情報処理装置10の機能構成例について述べた。なお、図2を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理装置10の機能構成は係る例に限定されない。例えば、上述した情報処理装置10の機能は、複数の装置により分散されて実現されてもよい。例えば、行動価値計算部140、動作部150、フィードバック部170などが有する機能は、それぞれ別途の装置の機能として実現されてもよい。本実施形態に係る情報処理装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.3.第2の行動価値の算出>>
 続いて、本実施形態に係る第2の行動価値の算出について詳細に説明する。上述したように、本実施形態に係る第2の行動価値とは、複数の報酬に基づいて学習された複数の第1の行動価値を足し合わせることで計算される行動価値である。
 また、ここで、行動価値とは、自身が選択し得るすべての行動に対して割り振られた評価値であり、行動そのものとは異なる概念である。
 図3Aおよび図3Bは、行動価値と行動の違いについて説明するための図である。
 図3Aには、動作体90が行動そのものを足し合わせた場合の挙動の一例が示されている。図3Aの左側には、自動運転車である動作体90が、障害物O1およびO2が存在する環境下において、取り得る2つの行動b1およびb2が示されている。行動b1は、例えば、安全に走行するための行動であってよく、行動b2は、速く目的地に到着するための行動であってもよい。
 ここで、動作体90が行動b1およびb2そのものを足し合わせた行動b3を行おうとする場合、行動b3は、図3Aの右側に示すように、行動b1およびb2に係る動作ベクトルを足し合わせたものとなり、目的に沿わない意味のない行動となるばかりか、障害物O1に衝突するなどの損害に繋がる可能性も生じることとなる。
 一方、図3Bには、本実施形態に係る情報処理装置10が第1の行動価値を足し合わせた第2の行動価値に基づいて行動を行う場合の一例が示されている。図3Bの左側には、自動運転車である情報処理装置10が、障害物O1およびO2が存在する環境下において、取り得る2つの行動b1およびb2が示されている。
 ここで、図3Bにおける行動b1およびb2は、第1の行動価値Q1およびQ2にそれぞれ基づいて実行される行動であってよい。図3Bの左側上方には、上記の環境下において情報処理装置10が取り得る行動(左折、直進、または右折)と、当該行動に対する行動価値Q1およびQ2の値がグラフにより示されている。
 ここで、行動価値Q1は、安全に走行することに対する報酬に基づいて学習された第1の行動価値であってよい。この場合、行動価値Q1は、より障害物の少ない経路である左折において最も高くなることから、行動価値Q1に基づいて行動b1が決定される。
 一方、行動価値Q2は、速く目的地に到着することに対する報酬に基づいて学習された第1の行動価値であってよい。この場合、行動価値Q2は、障害物を避けながらもより直進に近い右折において最も高くなることから、行動価値Q2に基づいて行動b2が決定される。
 この際、本実施形態に係る情報処理装置10は、行動b1およびb2そのものではなく、図3Bの右側に示すように、本実施形態に係る第1の行動価値に対応する行動価値Q1およびQ2を足し合わせることで、第2の行動価値に対応する行動価値Qを計算し、行動価値Qが最も高くなる行動b3を決定する。
 本実施形態に係る情報処理装置10が有する上記の機能によれば、行動そのものを足し合わせた場合とは異なり、目的に沿わない行動を行うことなく、また安全性などの低下を防止することが可能である。
 さらには、本実施形態に係る情報処理装置10の行動価値計算部140は、上記のような第1の行動価値の足し合わせに際し、目的に応じて算出された重みを用いて第2の行動価値を算出してよい。
 図4は、本実施形態に係る目的に応じた重みを用いた第2の行動価値の算出について説明するための図である。
 例えば、より安全性を重視する目的が検出された場合、本実施形態に係る比率計算部130は、当該目的に基づいて、安全性に係る行動価値Q1に対する重みW1を2に、高速性に係る行動価値Q2に対する重みW2を1として計算してもよい。
 この際、本実施形態に行動価値計算部140は、比率計算部130が計算した上記の重みW1およびW2を用いて、図4の左側に示すように、第2の行動価値に対応する行動価値Qを、Q=2Q1+Q2、として算出する。
 また、動作部150は、行動価値計算部140が計算した上記の行動価値Qが最も高くなる左折に対応した行動b3を実行する。
 また、例えば、高速性を重視する目的が検出された場合、本実施形態に係る比率計算部130は、当該目的に基づいて、安全性に係る行動価値Q1に対する重みW1を1に、高速性に係る行動価値Q2に対する重みW2を2として計算してもよい。
 この際、本実施形態に行動価値計算部140は、比率計算部130が計算した上記の重みW1およびW2を用いて、図4の右側に示すように、第2の行動価値に対応する行動価値Qを、Q=Q1+2Q2、として算出する。
 また、動作部150は、行動価値計算部140が計算した上記の行動価値Qが最も高くなる直進に近い右折に対応した行動b3を実行する。
 以上、本実施形態に係る第2の行動価値の算出について説明した。本実施形態に係る情報処理装置10が有する上記の機能によれば、目的に応じて第1の行動価値に対する重みを変更することで多様な第2の行動価値を算出することができ、再学習を行わずに動作部150の振る舞いを変化させることが可能となる。
 続いて、本実施形態に係る目的変化要因について説明する。本実施形態に係る目的変化要因とは、情報処理装置10の利用時において、動作部150の動作の目的の変化に繋がる種々の要因を指す。本実施形態に係る情報処理装置10は、種々の目的変化要因を検出し、変更された目的に応じた比率を決定することで、当該目的に最適化された第2の行動価値を計算し、当該目的を満たす動作を実現することが可能である。
 本実施形態に係る目的変化要因は、例えば、ユーザにより与えられる目的変更指示を含む。図5は、本実施形態に係るユーザにより与えられる目的変更指示に基づく第2の行動価値の計算について説明するための図である。
 図5には、ユーザにより与えられる目的変更指示を受け付けるためのユーザインタフェースの表示例が示されている。本実施形態に係る環境取得部120は、図5に示すようなユーザインタフェースUI1~UI3を出力部180に出力させ、目的変更指示の入力を促すことが可能である。
 例えば、情報処理装置10が自動運転車である場合、環境取得部120は、車内に設置される出力部180にユーザインタフェースUI~UI3を表示させ、安全性と高速性に関し、ユーザが重要視する度合いを問い合わせてもよい。
 この際、環境取得部120は、ユーザインタフェースUI1~UI3において入力された値を検出し、当該値を環境パラメータの一部として比率計算部130に引き渡す。また、比率計算部130は、受け取った上記の環境パラメータに基づいて、第1の行動価値に対する重みを決定し、当該重みを行動価値計算部140に引き渡す。また、行動価値計算部140は、受け取った重みを用いて第1の行動価値を足し合わせ、第2の行動価値を計算することができる。
 例えば、図5に示すユーザインタフェースUI1の場合、比率計算部130は、行動価値Q1およびQ2にそれぞれ対応するインジケータを用いて入力された値を環境取得部120から受け取り、当該値に基づいて、行動価値Q1に対応する重みW1を5に決定し、行動価値Q2に対応する重みW2を1に決定してよい。この際、行動価値計算部140は、決定された重みW1およびW2に基づいて、第2の行動価値Qを、Q=5Q1+Q2、により計算することができる。
 また、例えば、図5に示すユーザインタフェースUI2の場合、比率計算部130は、行動価値Q1およびQ2をそれぞれ縦軸および横軸に持つグラフを用いて入力された値を環境取得部120から受け取り、当該値に基づいて、行動価値Q1に対応する重みW1を4.3に決定し、行動価値Q2に対応する重みW2を0.6に決定してよい。この際、行動価値計算部140は、決定された重みW1およびW2に基づいて、第2の行動価値Qを、Q=4.3Q1+0.6Q2、により計算することができる。
 また、例えば、図5に示すユーザインタフェースUI3の場合、比率計算部130は、行動価値Q1およびQ2にそれぞれ対応する入力フィールドに入力された値を環境取得部120から受け取り、当該値に基づいて、行動価値Q1に対応する重みW1を4.6に決定し、行動価値Q2に対応する重みW2を1.5に決定してよい。この際、行動価値計算部140は、決定された重みW1およびW2に基づいて、第2の行動価値Qを、Q=4.6Q1+1.5Q2、により計算することができる。
 以上、本実施形態に係るユーザにより与えられる目的変更指示について具体例を挙げて説明した。本実施形態に係る情報処理装置10が有する上記の機能によれば、状況などに応じて変化するユーザの要望に沿った動作を再学習なしで実現することが可能である。
 なお、図5に示したユーザインタフェースUI1~UI3は、あくまで一例であり、本実施形態に係る目的変更指示は、例えば、音声による問い合わせや入力により検出されてもよい。また、本実施形態に係る目的変更指示は、例えば、ユーザのジェスチャに基づいて検出されてもよい。上記のジェスチャには、例えば、ユーザがスマートフォンを振った場合には、高速性に係る重要度を増加させ、ユーザが座席の背もたれに体重を掛けた場合には、高速性に係る重要度を低減する、などの機器操作が含まれてもよい。
 また、本実施形態に係る目的変化要因には、動作部150の動作環境の変化が含まれる。本実施形態に係る環境取得部120は、例えば、コンテクストから推定される所定環境に動作環境が一致した場合、当該環境の一致を目的変化要因として検出してもよい。
 図6は、本実施形態に係るコンテクストから推定される所定環境と動作環境の一致について説明するための図である。図6には、自動運転車である情報処理装置10が、ユーザU1による「10時までには着いて」、という指示を受け取った場合における第2の行動価値の算出例が示されている。
 この際、環境取得部120は、現在時刻を環境パラメータの一部として取得し、現在時刻と目的地への到着設定時刻との差分、すなわち残り時間を計算し、当該差分を環境パラメータの一部として、比率計算部130に引き渡す。
 また、比率計算部130は、受け取った残り時間と変換関数Fに基づいて第1の行動価値に対する重みを決定し、当該重みを行動価値計算部140に引き渡す。また、行動価値計算部140は、受け取った重みに基づいて、第2の行動価値を計算することが可能である。
 例えば、現在時刻が9時15分である場合、比率計算部130は、残り時間が45分であり、まだ時間に余裕があることから、安全性に係る行動価値Q1に対する重みW1を5に設定し、高速性に係る行動価値Q2に対する重みW2を1に設定してもよい。この場合、行動価値計算部140は、決定された重みW1および重みW2に基づいて、第2の行動価値Qを、Q=5Q1+Q2、により計算することができる。
 また、例えば、現在時刻が9時30分である場合、比率計算部130は、残り時間が30分であり、時間の余裕がなくなってきたことから、安全性に係る行動価値Q1に対する重みW1を3に設定し、高速性に係る行動価値Q2に対する重みW2を2に設定してもよい。この場合、行動価値計算部140は、決定された重みW1および重みW2に基づいて、第2の行動価値Qを、Q=3Q1+2Q2、により計算することができる。
 また、例えば、現在時刻が9時45分である場合、比率計算部130は、残り時間が15分であり、時間の余裕がほぼないことから、安全性に係る行動価値Q1に対する重みW1を1に設定し、高速性に係る行動価値Q2に対する重みW2を5に設定してもよい。この場合、行動価値計算部140は、決定された重みW1および重みW2に基づいて、第2の行動価値Qを、Q=Q1+5Q2、により計算することができる。
 また、本実施形態に係る環境取得部120は、例えば、ユーザが目的動作を設定した所定環境に動作環境が一致した場合、当該環境の一致を目的変化要因として検出してもよい。
 図7は、本実施形態に係るユーザが目的動作を設定した所定環境と動作環境の一致について説明するための図である。図7には、所定環境に対する目的動作の設定をユーザに促すためのユーザインタフェースUIの一例が示されている。
 図7に示す一例の場合、ユーザインタフェースUI1には、ユーザに目的動作を設定させるための所定の環境状態S1~S3が表示されている。ここで、環境状態S1~S3はそれぞれ、走行路が直線の状態、走行路が緩やかにカーブしている状態、走行路が直角に曲がっている状態である。
 本実施形態に係る環境取得部120は、上記のように、例えば安全性や高速性など第1の行動価値の変化に影響し得る複数の環境状態SをユーザインタフェースUIを介してユーザに提示し、環境状態Sに対して、ユーザがどのような動作を望むのかを問い合わせることができる。
 また、環境取得部120は、入力された目的動作を環境パラメータとして取得し、当該環境パラメータを比率計算部130に引き渡す。なお、図7に示す一例では、ユーザU1が音声により目的動作を入力する場合が示されており、ここで、目的動作は、時速により示されている。
 また、比率計算部130は、環境状態Sごとに環境パラメータを受け取り、複数の環境状態Sの設置に対し最も合致する重みWnを線形回帰などを用いて計算する。また、本実施形態に係る行動価値計算部140は、上記のように計算された重みWnを用いて、第2の行動価値を算出することができる。図7に示す一例の場合、行動価値計算部140は、重みWnに基づいて、第2の行動価値Qを、Q=2.3Q1+Q2、により算出している。
 以上、本実施形態に係る目的変化要因の検出に基づく第2の行動価値の算出について説明した。本実施形態に係る情報処理装置10が有する上記の機能によれば、状況に応じて変化する目的に追従した最適な動作を、再学習を行うことなく実現することが可能である。
 続いて、本実施形態に係る目的変化要因と変化する振る舞いとに係る情報通知の制御について説明する。本実施形態に係る動作部150は、目的変化要因に基づいて第2の行動価値が変化した場合、当該目的変化要因と、第2の行動価値に基づいて変化する振る舞いとに係る情報をユーザに対し通知させる機能を有する。
 図8は、本実施形態に係る目的変化要因と変化する振る舞いとに係る情報通知の制御について説明するための図である。図8には、本実施形態に係る情報処理装置10が自動運転車であり、天候を環境パラメータとして取得する場合の一例が示されている。
 例えば、図8の左側には、晴れた環境下で走行する情報処理装置10が示されている。この際、比率計算部130は、晴れのため見通しがよいことから、速度を重視し、安全性に係る行動価値Q1に対する重みW1を1に設定し、高速性に係る行動価値Q2に対する重みW2を2に設定している。
 また、行動価値計算部140は、決定された重みW1およびW2を用いて第2の行動価値Qを、Q=Q1+2Q2、により算出し、動作部150が、算出された第2の行動価値Qに基づいて、比較的速度を出した走行を行う。
 一方、図8の右側には、霧が発生している環境下で走行する情報処理装置10が示されている。この際、比率計算部130は、環境取得部120がカメラ装置が撮像した画像に基づいて霧の発生を検出したことに基づいて、安全性を重視し、安全性に係る行動価値Q1に対する重みW1を2に設定し、高速性に係る行動価値Q2に対する重みW2を1に設定している。
 また、行動価値計算部140は、決定された重みW1およびW2を用いて第2の行動価値Qを、Q=2Q1+Q2、により算出する。この際、本実施形態に係る動作部150は、第2の行動価値Qの値が変化したことに基づいて、目的変化要因と、第2の行動価値に基づいて変化する振る舞いとに係る情報をユーザU1に対し通知させる。
 図8に示す一例の場合、動作部150は、出力部180に、霧の発生を検知したことにより安全性を高めた運転を行う旨を通知する音声発話SO1を出力させている。
 このように、本実施形態に係る動作部150によれば、振る舞いの変化に先だって、振る舞いを変化させる理由をユーザに対し通知させることで、ユーザが振る舞いの変化に対し違和感や不信感を得ることを防止することが可能である。
 次に、本実施形態に係る情報処理装置10の動作の流れについて詳細に説明する。図9は、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。
 図9を参照すると、まず、環境取得部120が、ユーザによる目的変更指示や、所定環境状態に対する目的動作を入力するためのユーザインタフェースUIを出力部180に表示させる(S1101)。
 続いて、環境取得部120は、ユーザインタフェースUIに対する入力内容に基づいて環境パラメータを取得する(S1102)。
 次に、比率計算部130は、ステップS1102において取得された環境パラメータに基づいて、第1の行動価値Qnに対する重みWnを計算する(S1103)。
 次に、行動価値計算部140は、ステップS1103において計算された重みWnに基づいて、第2の行動価値Qを計算する(S1104)。
 次に、動作部150は、ステップS1104において計算された第2の行動価値Qに基づいて、目的変化要因や振る舞いの変化に係る情報を出力部180に出力させる(S1105)。
 次に、動作部150が、ステップS1104において計算された第2の行動価値Qに基づいて、目的に最適化された動作を実行する(S1106)。
 以上、本実施形態に係る情報処理装置10が有する機能について詳細に説明した。なお、上記では、本実施形態に係る情報処理装置10が自動運転車である場合を主な例として述べたが、本実施形態に係る情報処理装置10は、係る例に限定されない。本実施形態に係る情報処理装置10は、例えば、ユーザとの音声対話を行うエージェント装置であってもよい。
 図10は、本実施形態に係る情報処理装置10がエージェント装置である場合の動作制御について説明するための図である。
 図10では、情報処理装置10が、おしゃべりな対話を行うことに対する報酬R1に基づいて学習した行動価値Q1と、落ち着いた対話を行うことに対する報酬R2に基づいて学習した行動価値Q2と、に基づいて動作する場合が示されている。この際、情報処理装置10は、ユーザUの表情を環境パラメータとして取得し、当該環境パラメータに基づいて重みを決定し、当該重みに基づいて第2の行動価値を算出してよい。
 具体的には、情報処理装置10は、ユーザU1の笑顔の度合いが高いほど、おしゃべりな対話に係る行動価値Q1に対する重みW1を高く設定し、ユーザU1の顔が沈んだ表情をしているほど、落ち着いた対話に係る行動価値Q2に対する重みW2を高く設定することができる。
 このように、本実施形態に係る情報処理装置10によれば、ユーザU1の状態に応じて、エージェントの性格を柔軟に変化させ、より最適化された対話を実現することが可能である。
 また、本実施形態に係る情報処理装置10は、例えば、ピッキングチャレンジや対戦ゲームなどにおいて、コンテクストに応じた戦略変化を実現することも可能である。
 例えば、ピッキングチャレンジの場合、情報処理装置10は、精度の高いピッキングを行うことに対する報酬R1に基づいて学習した行動価値Q1と、高速なピッキングを行うことに対する報酬R2に基づいて学習した行動価値Q2とに基づいて動作を行う。
 この際、情報処理装置10は、環境パラメータとして制限時間までの残り時間を取得し、残り時間が少なくなるほど高速性に係る行動価値Q2に対する重みW2を高く設定することで、ピッキング戦略を時間に応じて動的に変化させることが可能である。
 また、例えば、麻雀ゲームの場合、情報処理装置10は、点数の高い役で勝つことに対する報酬R1に基づいて学習した行動価値Q1と、早く勝つことに対する報酬R2に基づいて学習した行動価値Q2とに基づいて動作を行う。
 この際、情報処理装置10は、環境パラメータとして対戦相手と自身との点差を取得し、点差が広がるほど高得点での勝利に係る行動価値Q1に対する重みW1を高く設定することで、ゲームの状況に応じて戦略を動的に変化させることが可能である。また、情報処理装置10は、対戦相手の心拍数や発汗量などのバイタル情報や発言を環境パラメータとして取得し、当該環境パラメータに基いて重みWを計算することで戦略を動的に変化させることも可能である。
 <<1.4.第1の行動価値の過不足に係るフィードバック>>
 次に、本実施形態に係る第1の行動価値の過不足に係るフィードバックについて詳細に説明する。上述したように、本実施形態に係るフィードバック部170は、行動価値計算部140による第2の行動価値の計算結果に基づいて、第1の行動価値の過不足に係る情報通知を制御する機能を有する。
 まず、本実施形態に係るフィードバック部170による第1の行動価値の過剰性に係る通知制御について説明する。図11は、本実施形態に係る第1の行動価値の過剰性に係る通知制御について説明するための図である。
 図11には、本実施形態に係る情報処理装置10が、ユーザとの音声対話を行うエージェント装置である場合の一例が示されている。図11に示す一例の場合、情報処理装置10は、おしゃべりな性格の対話を行うことに対する報酬R1に基づいて行動価値Q1を、優しい性格の対話を行うことに対する報酬R2に基づいて行動価値Q2を、おせっかいな性格の会話を行うことに対する報酬R3に基づいて行動価値Q3を、それぞれ学習している。
 上記のような場合において、本実施形態に係るフィードバック部170は、複数の別の第1の行動価値の組み合わせで表現可能な第1の行動価値を検出した場合、検出された第1の行動価値の過剰性に係る情報通知を出力部180に実行させてよい。
 図11に示す一例の場合、フィードバック部170は、おせっかいな性格に係る行動価値Q3が、おしゃべりな性格に係る行動価値Q1、および優しい性格に係る行動価値Q2の組み合わせにより、Q3=xQ1+yQ2、として表現できることを検出し、行動価値Q3の過剰性を通知する音声発話SO2を出力部180に出力させている。
 このように、本実施形態に係るフィードバック部170によれば、設計者などに対し過剰な第1の行動価値Qnを指摘することができ、設計者が行動価値Qnに対応するネットワークを削除するなどしてメモリや計算量を削減することが可能となる。
 また、例えば、自動運転制御などにおいて、特定の行動価値Qnに過剰性が検出された場合、設計者は当該知見を、ドローンなどの他のデバイスの運転制御学習にも応用することができ、学習時間を軽減させる効果などが期待される。
 続いて、図12を参照して、第1の行動価値の過剰性に係る通知制御の流れについて詳細に説明する。図12は、第1の行動価値の過剰性に係る通知制御の流れを示すフローチャートである。
 図12を参照すると、フィードバック部170は、まず、ログ保持部160から、行動価値計算部140が算出した第2の行動価値Qの計算結果を取得する(S1201)。
 次に、フィードバック部170は、ステップS1201において取得した計算結果に基づいて、第1の行動価値Qn間の類似度を計算する(S1202)。この際、フィードバック部170は、第1の行動価値Qn間の相関値などに基づいて類似度を算出する。フィードバック部170は、例えば、W1Q1+W2Q2とQ3の類似度などを計算してよい。
 次に、フィードバック部170は、ステップS1202において計算した類似度が閾値を上回るか否かを判定する(S1203)。
 ここで、類似度が閾値を上回る場合(S1203:YES)、フィードバック部170は、該当する第1の行動価値Qnの過剰性に係る通知を出力部180に出力させる(S1204)。
 一方、類似度が閾値以下である場合(S1203:NO)、フィードバック部170は、第1の行動価値Qnの過剰性が認められない旨を出力部180に出力させる(S1205)。なお、ステップS1205における通知は必ずしも行われなくてよい。
 以上、本実施形態に係る第1の行動価値の過剰性に係る通知制御について説明した。次に、本実施形態に係る第1の行動価値の不足性に係る通知制御について説明する。
 図13および図14は、第1の行動価値の不足性に係る通知制御について説明するための図である。
 図13には、本実施形態に係る情報処理装置10がポーカーゲームにおいてコンテクストに応じた戦略を立案する場合の一例が示されている。この際、設計者D1は、まず、所定の環境状態(シーン)ごとに目的動作を設定する。図13に示す一例の場合、設計者D1は、シーン1~16に対して、それぞれ狙う役と捨てる札を設定している。
 次に、比率計算部130は、設定された目的動作を実現するための重みWnを計算し、行動価値計算部140は、重みWnに基づいて第2の行動価値Qを計算する。
 次に、本実施形態に係るフィードバック部170は、計算された第2の行動価値Qに対応する動作と、設計者が設定した目的動作との合致度を計算し、合致度が閾値を下回るシーンに係る動作を抽出し、当該動作に共通する特徴を抽出する。
 続いて、フィードバック部170は、抽出した特徴に基づいて第1の行動価値Qnの不足性に係る通知を出力部180に出力させる。図13に示す一例の場合、フィードバック部170は、点数の高い役を狙うための第1の行動価値が不足している旨を示す音声発話SO3を出力部180に出力させている。
 また、図14には、本実施形態に係る情報処理装置10が自動運転車である場合の一例が示されている。この際、設計者D1は、まず、所定の環境状態(シーン)ごとに目的動作を設定する。図14に示す一例の場合、設計者D1は、環境状態S1~S3に対して、それぞれ時速を設定している。
 次に、比率計算部130は、設定された目的動作(時速)を実現するための重みWnを計算し、行動価値計算部140は、重みWnに基づいて第2の行動価値Qを計算する。
 次に、本実施形態に係るフィードバック部170は、計算された第2の行動価値Qに対応する動作と、設計者が設定した目的動作との合致度を計算し、合致度が閾値を下回る環境状態Sに係る動作を抽出し、当該動作に共通する特徴を抽出する。図14に示す一例の場合、フィードバック部170は、環境状態S2およびS3において合致度が下回ることに基づいて、時速20kmでの走行および時速10kmでの走行に共通する特徴を抽出する。
 続いて、フィードバック部170は、抽出した特徴に基づいて第1の行動価値Qnの不足性に係る通知を出力部180に出力させる。図14に示す一例の場合、フィードバック部170は、低速で移動するための第1の行動価値が不足している旨を示す音声発話SO4を出力部180に出力させている。
 このように、本実施形態に係るフィードバック部170は、所定環境に対して設定された目的動作を実現する第2の行動価値Qが、第1の行動価値Qnから計算不能な場合、第1の行動価値Qnの不足性に係る情報通知を実行させることが可能である。
 本実施形態に係るフィードバック部170が有する上記の機能によれば、目的動作を実現するために不足している第1の行動価値Qnの不足を設計者が明確に把握することができ、学習の設計に活用することが可能となる。
 次に、本実施形態に係る第1の行動価値の不足性に係る通知制御の流れについて詳細に説明する。図15は、本実施形態に係る第1の行動価値の不足性に係る通知制御の流れを示すフローチャートである。
 図15を参照すると、フィードバック部170は、まず、ログ保持部160から、環境状態(シーン)ごとに設定された目的動作と、第2の行動価値Qを取得する(S1301)。
 次に、フィードバック部170は、シーンごとに目的動作と第2の行動価値Qとの合致度を計算する(S1302)。
 続いて、フィードバック部170は、ステップS1302において算出した合致度が閾値を下回るシーンが存在するか否かを判定する(S1303)。
 ここで、合致度が閾値を下回るシーンが存在しない場合(S1303:NO)、フィードバック部170は、第1の行動価値Qnに不足性が認められない旨を出力部180に通知させる(S1307)。なお、ステップS1307における通知は必ずしも行われなくてもよい。
 一方、合致度が閾値を下回るシーンが存在する場合(S1303:YES)、フィードバック部170は、抽出されたシーンに対応する目的動作に共通する特徴を抽出する(S1304)。
 次に、フィードバック部170は、ステップS1304において抽出した特徴に基づいて、不足する第1の行動価値Qnを特定する(S1305)。
 次に、フィードバック部170は、ステップS1305において特定した第1の行動価値Qnの不足性に係る通知を出力部180に出力させる(S1306)。
 <2.ハードウェア構成例>
 次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図16は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図16を参照すると、情報処理装置10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (プロセッサ871)
 プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インターフェース877)
 プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <3.まとめ>
 以上説明したように、本開示の一実施形態に係る情報処理装置10は、動作部150の振る舞いを決定する行動価値を計算する行動価値計算部140を備える。また、行動価値計算部140は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、動作部150に入力する第2の行動価値を動的に計算することを特徴の一つとする。また、本開示の一実施形態に係る情報処理装置10は、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部150の動作に関し、複数の上記行動価値に係る過不足を判定し、当該過不足に係る情報通知を制御するフィードバック部170を備える。係る構成によれば、目的の変更に追従した最適な動作を実現することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
 また、本明細書の情報処理装置10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 動作部の振る舞いを決定する行動価値を計算する行動価値計算部、
 を備え、
 前記行動価値計算部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算する、
情報処理装置。
(2)
 前記行動価値計算部は、前記目的変化要因に基づいて決定された比率に基づいて、複数の前記第2の行動価値を動的に計算する、
前記(1)に記載の情報処理装置。
(3)
 前記行動価値計算部は、前記目的変化要因に基づいて決定された複数の前記第1の行動価値ごとの重みに基づいて、複数の前記第1の行動価値を足し合わせることで前記第2の行動価値を動的に計算する、
前記(1)または(2)に記載の情報処理装置。
(4)
 前記目的変化要因は、ユーザにより与えられる目的変更指示を含む、
前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
 前記目的変化要因は、前記動作部の動作環境の変化を含む、
前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
 前記目的変化要因は、コンテクストから推定される所定環境に前記動作環境が一致したこと、を含む、
前記(5)のいずれかに記載の情報処理装置。
(7)
 前記目的変化要因は、ユーザが目的動作を設定した所定環境に前記動作環境が一致したこと、を含む、
前記(5)または(6)に記載の情報処理装置。
(8)
 前記第2の行動価値と推定された動作環境とに基づいて振る舞いを動的に変化させる動作部、
 をさらに含む、
前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
 前記動作部は、前記目的変化要因に基づいて前記第2の行動価値が変化した場合、前記目的変化要因と、前記第2の行動価値に基づいて変化する振る舞いとに係る情報をユーザに対し通知させる、
前記(8)に記載の情報処理装置。
(10)
 取得された前記目的変化要因に基づいて、前記第2の行動価値の計算に用いられる比率を計算する比率計算部、
 をさらに含む、
前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
 異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作に関し、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御するフィードバック部、
 を備える、
情報処理装置。
(12)
 前記動作部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された環境に応じて決定された前記第1の行動価値ごとの重みと、に基づいて動的に計算された第2の行動価値に基づいて前記振る舞いを実行し、
 前記フィードバック部は、前記第2の行動価値に係る計算結果に基づいて、複数の前記第1の行動価値に係る過不足を判定する、
前記(11)に記載の情報処理装置。
(13)
 前記フィードバック部は、所定環境に対して設定された目的動作を実現する前記第2の行動価値が、複数の前記第1の行動価値から計算不能な場合、前記第1の行動価値の不足性に係る情報通知を実行させる、
前記(12)に記載の情報処理装置。
(14)
 前記フィードバック部は、前記所定環境に対応する前記目的動作と、前記所定環境において計算された前記第2の行動価値との合致度を計算し、前記合致度が閾値を下回る場合、前記第1の行動価値の不足性に係る情報通知を実行させる、
前記(13)に記載の情報処理装置。
(15)
 前記フィードバック部は、前記合致度が閾値を下回る前記所定環境に基づいて、不足する前記第1の行動価値を特定し、特定した前記第1の行動価値の不足性に係る情報通知を実行させる、
前記(14)に記載の情報処理装置。
(16)
 前記フィードバック部は、前記合致度が閾値を下回る複数の前記所定環境に対応する複数の前記目的動作に共通する特徴を抽出し、前記特徴に基づいて不足する前記第1の行動価値を特定する、
前記(15)に記載の情報処理装置。
(17)
 前記フィードバック部は、複数の別の前記第1の行動価値の組み合わせで表現可能な前記第1の行動価値を検出した場合、検出された前記第1の行動価値の過剰性に係る情報通知を実行させる、
前記(12)~(16)のいずれかに記載の情報処理装置。
(18)
 前記フィードバック部は、複数の前記第1の行動価値と前記重みとに基づいて、複数の前記第1の行動価値の間の類似度を計算し、前記類似度が閾値を上回る前記第1の行動価値を検出した場合、検出された前記第1の行動価値の過剰性に係る情報通知を実行させる、
前記(17)に記載の情報処理装置。
(19)
 プロセッサが、動作部の振る舞いを決定する行動価値を計算すること、
 を含み、
 前記計算することは、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算すること、
 をさらに含む、
情報処理方法。
(20)
 プロセッサが、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作結果に基づいて、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御すること、
 を含む、
情報処理方法。
 10   情報処理装置
 110  強化学習部
 120  環境取得部
 130  比率計算部
 140  行動価値計算部
 150  動作部
 160  ログ保持部
 170  フィードバック部
 180  出力部

Claims (20)

  1.  動作部の振る舞いを決定する行動価値を計算する行動価値計算部、
     を備え、
     前記行動価値計算部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算する、
    情報処理装置。
  2.  前記行動価値計算部は、前記目的変化要因に基づいて決定された比率に基づいて、複数の前記第2の行動価値を動的に計算する、
    請求項1に記載の情報処理装置。
  3.  前記行動価値計算部は、前記目的変化要因に基づいて決定された複数の前記第1の行動価値ごとの重みに基づいて、複数の前記第1の行動価値を足し合わせることで前記第2の行動価値を動的に計算する、
    請求項1に記載の情報処理装置。
  4.  前記目的変化要因は、ユーザにより与えられる目的変更指示を含む、
    請求項1に記載の情報処理装置。
  5.  前記目的変化要因は、前記動作部の動作環境の変化を含む、
    請求項1に記載の情報処理装置。
  6.  前記目的変化要因は、コンテクストから推定される所定環境に前記動作環境が一致したこと、を含む、
    請求項5に記載の情報処理装置。
  7.  前記目的変化要因は、ユーザが目的動作を設定した所定環境に前記動作環境が一致したこと、を含む、
    請求項5に記載の情報処理装置。
  8.  前記第2の行動価値と推定された動作環境とに基づいて振る舞いを動的に変化させる動作部、
     をさらに含む、
    請求項1に記載の情報処理装置。
  9.  前記動作部は、前記目的変化要因に基づいて前記第2の行動価値が変化した場合、前記目的変化要因と、前記第2の行動価値に基づいて変化する振る舞いとに係る情報をユーザに対し通知させる、
    請求項8に記載の情報処理装置。
  10.  取得された前記目的変化要因に基づいて、前記第2の行動価値の計算に用いられる比率を計算する比率計算部、
     をさらに含む、
    請求項1に記載の情報処理装置。
  11.  異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作に関し、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御するフィードバック部、
     を備える、
    情報処理装置。
  12.  前記動作部は、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された環境に応じて決定された前記第1の行動価値ごとの重みと、に基づいて動的に計算された第2の行動価値に基づいて前記振る舞いを実行し、
     前記フィードバック部は、前記第2の行動価値に係る計算結果に基づいて、複数の前記第1の行動価値に係る過不足を判定する、
    請求項11に記載の情報処理装置。
  13.  前記フィードバック部は、所定環境に対して設定された目的動作を実現する前記第2の行動価値が、複数の前記第1の行動価値から計算不能な場合、前記第1の行動価値の不足性に係る情報通知を実行させる、
    請求項12に記載の情報処理装置。
  14.  前記フィードバック部は、前記所定環境に対応する前記目的動作と、前記所定環境において計算された前記第2の行動価値との合致度を計算し、前記合致度が閾値を下回る場合、前記第1の行動価値の不足性に係る情報通知を実行させる、
    請求項13に記載の情報処理装置。
  15.  前記フィードバック部は、前記合致度が閾値を下回る前記所定環境に基づいて、不足する前記第1の行動価値を特定し、特定した前記第1の行動価値の不足性に係る情報通知を実行させる、
    請求項14に記載の情報処理装置。
  16.  前記フィードバック部は、前記合致度が閾値を下回る複数の前記所定環境に対応する複数の前記目的動作に共通する特徴を抽出し、前記特徴に基づいて不足する前記第1の行動価値を特定する、
    請求項15に記載の情報処理装置。
  17.  前記フィードバック部は、複数の別の前記第1の行動価値の組み合わせで表現可能な前記第1の行動価値を検出した場合、検出された前記第1の行動価値の過剰性に係る情報通知を実行させる、
    請求項12に記載の情報処理装置。
  18.  前記フィードバック部は、複数の前記第1の行動価値と前記重みとに基づいて、複数の前記第1の行動価値の間の類似度を計算し、前記類似度が閾値を上回る前記第1の行動価値を検出した場合、検出された前記第1の行動価値の過剰性に係る情報通知を実行させる、
    請求項17に記載の情報処理装置。
  19.  プロセッサが、動作部の振る舞いを決定する行動価値を計算すること、
     を含み、
     前記計算することは、異なる報酬に基づいて学習された複数の第1の行動価値と、取得された目的変化要因と、に基づいて、前記動作部に入力する第2の行動価値を動的に計算すること、
     をさらに含む、
    情報処理方法。
  20.  プロセッサが、異なる報酬に基づいて学習された複数の行動価値に基づく動的な振る舞いを行う動作部の動作結果に基づいて、複数の前記行動価値に係る過不足を判定し、前記過不足に係る情報通知を制御すること、
     を含む、
    情報処理方法。
PCT/JP2019/001989 2018-03-26 2019-01-23 情報処理装置および情報処理方法 WO2019187548A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020509719A JP7331837B2 (ja) 2018-03-26 2019-01-23 情報処理装置および情報処理方法
CA3094427A CA3094427A1 (en) 2018-03-26 2019-01-23 Information processing device and information processing method
US16/982,051 US20210018882A1 (en) 2018-03-26 2019-01-23 Information processing device and information processing method
EP19774557.3A EP3779809A4 (en) 2018-03-26 2019-01-23 DEVICE AND PROCESS FOR PROCESSING INFORMATION
CN201980020131.7A CN111868760A (zh) 2018-03-26 2019-01-23 信息处理设备和信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-057898 2018-03-26
JP2018057898 2018-03-26

Publications (1)

Publication Number Publication Date
WO2019187548A1 true WO2019187548A1 (ja) 2019-10-03

Family

ID=68059013

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001989 WO2019187548A1 (ja) 2018-03-26 2019-01-23 情報処理装置および情報処理方法

Country Status (6)

Country Link
US (1) US20210018882A1 (ja)
EP (1) EP3779809A4 (ja)
JP (1) JP7331837B2 (ja)
CN (1) CN111868760A (ja)
CA (1) CA3094427A1 (ja)
WO (1) WO2019187548A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023512723A (ja) * 2020-02-07 2023-03-28 ディープマインド テクノロジーズ リミテッド 目的別行動価値関数を使用する多目的強化学習
CN118192394A (zh) * 2024-05-20 2024-06-14 贵州航天控制技术有限公司 一种测试系统指令中转定时方法及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7048456B2 (ja) * 2018-08-30 2022-04-05 本田技研工業株式会社 学習装置、学習方法、およびプログラム
US11645498B2 (en) * 2019-09-25 2023-05-09 International Business Machines Corporation Semi-supervised reinforcement learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035956A (ja) * 1998-07-17 2000-02-02 Japan Science & Technology Corp エージェント学習装置
US6473851B1 (en) * 1999-03-11 2002-10-29 Mark E Plutowski System for combining plurality of input control policies to provide a compositional output control policy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035956A (ja) * 1998-07-17 2000-02-02 Japan Science & Technology Corp エージェント学習装置
US6473851B1 (en) * 1999-03-11 2002-10-29 Mark E Plutowski System for combining plurality of input control policies to provide a compositional output control policy

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HARM VAN SEIJEN, HYBRID REWARD ARCHITECTURE FOR REINFORCEMENT LEARNING, 13 June 2017 (2017-06-13), Retrieved from the Internet <URL:https://arxiv.org/pdf/1706.04208.pdf>
KARLSSON, JONAS: "Learning to Solve Multiple Goals", UNIVERSITY OF ROCHESTER, 1997, pages 34 - 46, XP055641383 *
TAKUMI KAMIOKA, EIJI UCHIBE, KENJI DOYA: "Max-Min Actor-Critic for Multiple Reward Reinforcement Learning", IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS (D, vol. J90-D, no. 9, 2007, pages 2510 - 2521, XP009522894, ISSN: 1880-4535 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023512723A (ja) * 2020-02-07 2023-03-28 ディープマインド テクノロジーズ リミテッド 目的別行動価値関数を使用する多目的強化学習
JP7436688B2 (ja) 2020-02-07 2024-02-22 ディープマインド テクノロジーズ リミテッド 目的別行動価値関数を使用する多目的強化学習
CN118192394A (zh) * 2024-05-20 2024-06-14 贵州航天控制技术有限公司 一种测试系统指令中转定时方法及装置

Also Published As

Publication number Publication date
US20210018882A1 (en) 2021-01-21
EP3779809A4 (en) 2021-09-08
EP3779809A1 (en) 2021-02-17
JP7331837B2 (ja) 2023-08-23
CN111868760A (zh) 2020-10-30
JPWO2019187548A1 (ja) 2021-05-13
CA3094427A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
WO2019187548A1 (ja) 情報処理装置および情報処理方法
KR102334942B1 (ko) 돌봄 로봇을 위한 데이터 처리 방법 및 장치
KR102411766B1 (ko) 음성 인식 서비스를 활성화하는 방법 및 이를 구현한 전자 장치
US10970527B2 (en) Robot attention detection
JP6844608B2 (ja) 音声処理装置および音声処理方法
US11430438B2 (en) Electronic device providing response corresponding to user conversation style and emotion and method of operating same
JP6756328B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11367443B2 (en) Electronic device and method for controlling electronic device
KR20200034039A (ko) 로봇 및 그 동작 방법
JP7476941B2 (ja) ロボット、ロボットの制御方法及びプログラム
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
US20190279632A1 (en) System for processing user utterance and controlling method thereof
US20200269421A1 (en) Information processing device, information processing method, and program
CN111625094B (zh) 智能后视镜的交互方法、装置、电子设备和存储介质
US20220180887A1 (en) Multimodal beamforming and attention filtering for multiparty interactions
CN111050266B (zh) 一种基于耳机检测动作进行功能控制的方法及系统
JP6969576B2 (ja) 情報処理装置、および情報処理方法
CN113810814B (zh) 耳机模式切换的控制方法及装置、电子设备和存储介质
JP2021113835A (ja) 音声処理装置および音声処理方法
US20230033828A1 (en) Information processing device, information processing method, and program
US20220055223A1 (en) Electronic device for providing reaction on basis of user state and operating method therefor
WO2019142420A1 (ja) 情報処理装置および情報処理方法
US10832040B2 (en) Cognitive rendering of inputs in virtual reality environments
WO2023188904A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN117765952A (zh) 人机交互的方法、装置和设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19774557

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020509719

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3094427

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019774557

Country of ref document: EP

Effective date: 20201026