WO2022162934A1 - 旅行計画支援システム、方法およびプログラム - Google Patents

旅行計画支援システム、方法およびプログラム Download PDF

Info

Publication number
WO2022162934A1
WO2022162934A1 PCT/JP2021/003513 JP2021003513W WO2022162934A1 WO 2022162934 A1 WO2022162934 A1 WO 2022162934A1 JP 2021003513 W JP2021003513 W JP 2021003513W WO 2022162934 A1 WO2022162934 A1 WO 2022162934A1
Authority
WO
WIPO (PCT)
Prior art keywords
travel
cost function
travel plan
traveler
learning
Prior art date
Application number
PCT/JP2021/003513
Other languages
English (en)
French (fr)
Inventor
秋紗子 藤井
卓郎 鹿嶋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/003513 priority Critical patent/WO2022162934A1/ja
Priority to US18/274,909 priority patent/US20240085196A1/en
Priority to JP2022578001A priority patent/JPWO2022162934A1/ja
Publication of WO2022162934A1 publication Critical patent/WO2022162934A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning

Definitions

  • the present invention relates to a travel plan support system, a travel plan support method, and a travel plan support program that support generation of travel plans.
  • Travel plans are created taking into account various factors. When planning, guidebooks, SNS (Social Networking Service), route search applications, etc. are used, and in the end, travel plans that are considered optimal for travelers are determined using these various tools. In addition, in order to determine a more preferable travel plan, there are cases in which a travel agency person in charge is requested to make a travel plan.
  • SNS Social Networking Service
  • Patent Document 1 describes a method for easily searching for routes that pass through points such as sightseeing spots.
  • the method described in Patent Document 1 when displaying a plurality of waypoints including a first waypoint and a second waypoint, another display candidate waypoints for Specifically, when another route point candidate that substitutes for the first route point or the second route point is selected, the travel route before and after the route point selected by the other route point candidate is selected. Displays a travel route in which the other selected candidate waypoints are replaced with the corresponding waypoints without changing the point.
  • Patent Literature 2 describes a road learning model generation device and a delivery plan generation device that support delivery of multiple parcels to be delivered.
  • the road learning model generation device described in Patent Document 2 calculates a road cost, which indicates the delivery efficiency while traveling on a road, for each road, based on the driving history of a skilled driver, road network information, and road feature values.
  • a learning model is generated by inverse reinforcement learning.
  • the dispatch plan generating device generates an optimum dispatch plan using the generated road learning model.
  • the route candidates are not necessarily routes that indicate an appropriate itinerary for the traveler. Therefore, as a result, the traveler must evaluate the route candidates one by one, which makes it difficult to reduce the traveler's burden.
  • the road learning model described in Patent Document 2 it is possible to plan a route in line with the ideas of experts.
  • the road learning model generated by the method described in Patent Document 2 is used for deriving a delivery plan that reduces the driver's delivery burden. That is, since the road learning model is a model that emphasizes efficiency such as time and distance, it is difficult to apply it to travel planning as it is.
  • an object of the present invention is to provide a travel plan support system, a travel plan support method, and a travel plan support program that can support generation of a travel plan suitable for a traveler.
  • the travel planning support system is a function that accepts input of a cost function for calculating the cost incurred in the itinerary, which is represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary.
  • a cost function for calculating the cost incurred in the itinerary, which is represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary.
  • the travel plan support method accepts input of a cost function for calculating the cost incurred in the itinerary, which is represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary, Training in which the specified attribute matches the attribute information among the training data including the schedule information indicating the travel plan of the traveler, the attribute information indicating the attribute of the traveler, and the performance information indicating the movement performance of the traveler It is characterized by extracting data and learning a cost function according to attributes by inverse reinforcement learning using the extracted training data.
  • the travel planning support program inputs a cost function for calculating the cost incurred in the itinerary, which is represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary, to the computer.
  • a cost function for calculating the cost incurred in the itinerary, which is represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary.
  • FIG. 1 is a block diagram showing a configuration example of a first embodiment of a travel planning support system according to the present invention
  • FIG. FIG. 4 is an explanatory diagram showing an example of planning data
  • 4 is a flow chart showing an operation example of the learning device of the first embodiment
  • It is a flow chart which shows an example of operation of a travel plan output device of a first embodiment.
  • FIG. 2 is a block diagram showing a configuration example of a second embodiment of a travel planning support system according to the present invention
  • FIG. 9 is a flowchart showing an operation example of the learning device of the second embodiment; It is a flowchart which shows the operation example of the travel plan output device of 2nd embodiment.
  • FIG. 1 is an explanatory diagram showing an application example of the travel planning support system of the present invention
  • 1 is a block diagram showing an overview of a travel planning support system according to the present invention
  • FIG. 1 is a block diagram showing a configuration example of a first embodiment of a travel planning support system according to the present invention.
  • the travel plan support system of the first embodiment generates a cost function to be used when making a travel plan that is assumed to be preferable for the gender and age specified by the user who makes the travel plan, and provides an appropriate travel plan for the user. is generated using its cost function. Details of the cost function will be described later.
  • the travel plan support system 1 of the first embodiment includes a travel history storage device 10, a learning device 120, a travel plan output device 130, and a display device 40.
  • the display device 40 is a device that outputs various processing results by the travel plan support system 1 .
  • the display device 40 is implemented by, for example, a display device. 1 illustrates one display device 40 connected to the travel plan output device 130, the display device 40 connected to the study device 120 and the display device connected to the travel plan output device 130 40 may be provided separately.
  • the travel history storage device 10 stores a traveler's past travel history (hereinafter referred to as planning data). It should be noted that the planning data in this embodiment includes not only performance information when actually traveling but also schedule information at the planning stage. The planning data also includes information indicating the traveler's attributes and the traveler's evaluation.
  • FIG. 2 is an explanatory diagram showing an example of planning data.
  • the planning data exemplified in FIG. 2 includes items that are roughly classified into three categories (schedule information, user information, and performance information).
  • the schedule information is information assumed in the travel plan of the traveler
  • the performance information is information indicating the contents of the travel performance actually performed by the traveler based on the travel plan.
  • the user information is information indicating the attributes of the person who made the travel plan, and is also used as information when specifying a person who is assumed to be an expert, which will be described later.
  • Information including schedule information and performance information may be referred to as itinerary or itinerary information.
  • the planning data illustrated in FIG. 2 is an example, and the planning data may include all the items illustrated in FIG. 2, or may include some of the items. Also, the planning data may include items other than those illustrated in FIG. For example, the performance information may include information indicating the environment such as the weather. Planning data is created and collected using a dedicated application or an existing SNS, for example.
  • the learning device 120 includes an attribute input unit 121, a cost function input unit 122, a data extraction unit 123, an inverse reinforcement learning unit 124, a learning result output unit 125, and a storage unit 126.
  • the attribute input unit 121 accepts the input of the expert's attribute desired by the user who plans the trip.
  • the attribute input unit 121 may receive input of attributes such as gender and age, for example. Also, the attribute input unit 121 may accept input of information indicating a specific user (for example, an influencer, etc.) as an attribute.
  • an expert in this embodiment means a person who is considered to be able to realize an itinerary considered appropriate for a traveler.
  • "appropriate” does not necessarily mean only efficiency, but includes states that can give a favorable impression to the user, such as comfort and taste. For example, when "twenties" is specified as an attribute, it is determined that a person in her twenties who is accustomed to travel is specified, and processing is performed.
  • the cost function input unit 122 receives an input of a cost function for calculating the cost incurred in the itinerary as a cost function used for learning by the later-described inverse reinforcement learning unit 124 . Specifically, the cost function input unit 122 inputs each feature quantity assumed to be intended by the traveler in the itinerary, such as the planning data illustrated in FIG. information) is received as an input of a cost function represented by a linear sum of terms each weighted with a degree of importance.
  • the value calculated by the cost function can also be said to be an evaluation index used to evaluate the itinerary.
  • the cost function used in this embodiment is a model used when the travel plan output device 130, which will be described later, designs the planning, and it is used to determine what kind of policy the actually adopted itinerary was created. Since it is a learned model, it can also be called a planning design model.
  • the cost function input unit 122 may receive input of constraints to be satisfied together with the cost function.
  • the cost function and constraints are predetermined by an analyst or the like. That is, candidates for feature quantities to be considered in the itinerary are selected in advance by an analyst or the like and defined as a cost function.
  • Equation 1 when evaluating the itinerary, when considering the evaluation of travel time and the evaluation of places as items (feature values) intended by experts, the cost function for calculating the optimization index is given by Equation 1 below. represented. x ij and z i in Equation 1 represent feature amounts.
  • the feature amounts shown above are examples, and other feature amounts may be included.
  • the cost function may be defined as a function in which the longer the stay time is, the lower the calculated cost (value) is. Note that feature amounts that are less relevant to travel plans are given lower weights as a result of inverse reinforcement learning, and as a result, feature amounts intended by experts in travel plans are extracted.
  • the data extraction unit 123 extracts planning data corresponding to the attribute received by the attribute input unit 121 from the travel history storage device 10. For example, when the travel history storage device 10 stores the planning data illustrated in FIG. 2, the data extraction unit 123 may extract planning data whose received attribute matches the user information (attribute information). . In addition, since the extracted planning data is data used for learning by the inverse reinforcement learning unit 124 described later, the extracted planning data may also be referred to as training data.
  • the data extraction unit 123 may extract the planning data of a person who satisfies the predetermined condition of the expert. good. This makes it possible to use information in the travel history storage device 10 that stores planning data of an arbitrary person as training data for inverse reinforcement learning, which will be described later.
  • the method of extracting the expert's planning data is arbitrary and predetermined by the analyst.
  • the data extraction unit 123 extracts information such as a person who travels frequently, a person who is highly evaluated by others, a person who creates an inexpensive itinerary, a person who visits many spots (sightseeing spots), A person who has visited many times, a person who has many followers on an SNS, or the like may be regarded as an expert, and the planning data of the person may be extracted as the planning data of the expert.
  • the data extraction unit 123 In order to match the feature amount included in the cost function, the data extraction unit 123 also performs processing for converting items included in the planning data into feature amounts (calculation, conversion to binary values, etc.), data integration processing, data cleansing, and so on. etc.
  • the inverse reinforcement learning unit 124 learns the above-described cost function by inverse reinforcement learning using the training data extracted by the data extraction unit 123. Specifically, the inverse reinforcement learning unit 124 learns the cost function by inverse reinforcement learning using expert planning data corresponding to the received attributes as training data.
  • the training data includes information representing the details of the itinerary of the expert (specifically, schedule information indicating the travel plan of the traveler, attribute information indicating the attributes of the traveler, and travel records of the traveler). performance information) is included.
  • the method by which the inverse reinforcement learning unit 124 performs inverse reinforcement learning is arbitrary.
  • the inverse reinforcement learning unit 124 for example, executes a mathematical optimization process that generates an expert's itinerary based on the input cost function and constraint conditions, and reduces the difference between the generated expert's itinerary and the training data.
  • the cost function may be learned by repeating the process of estimating the cost function that updates the parameter (degree of importance) of the cost function so that
  • the inverse reinforcement learning unit 124 learns the cost function through inverse reinforcement learning using the planning data, making it possible to extract the feature amount related to the itinerary. Therefore, it becomes possible to create an optimal travel plan in consideration of various feature quantities.
  • the learning result output unit 125 outputs the learned cost function. Specifically, the learning result output unit 125 outputs the feature amount included in the cost function of the designated attribute and the weight of the feature amount in association with each other.
  • the learning result output unit 125 may store the learned cost function in the storage unit 126 , or may transmit information on the cost function to the travel plan output device 130 and store it in the storage unit 134 .
  • the learning result output unit 125 may display the content of the cost function on the display device 40.
  • the content of the cost function By displaying the content of the cost function on the display device 40, it becomes possible for the expert to visually recognize the items that are important in the itinerary.
  • the storage unit 126 stores the learned cost function.
  • the storage unit 126 may also store various parameters that the inverse reinforcement learning unit 124 uses for learning.
  • the storage unit 126 is realized by, for example, a magnetic disk or the like.
  • the attribute input unit 121, the cost function input unit 122, the data extraction unit 123, the inverse reinforcement learning unit 124, and the learning result output unit 125 are computer processors that operate according to programs (learning program, travel plan support program). (For example, it is implemented by a CPU (Central Processing Unit)).
  • the program is stored in the storage unit 126 of the learning device 120, the processor reads the program, and according to the program, the attribute input unit 121, the cost function input unit 122, the data extraction unit 123, the inverse reinforcement learning unit 124, and the It may operate as the learning result output unit 125 .
  • the functions of the learning device 120 may be provided in a SaaS (Software as a Service) format.
  • the attribute input unit 121, the cost function input unit 122, the data extraction unit 123, the inverse reinforcement learning unit 124, and the learning result output unit 125 may each be realized by dedicated hardware. Also, part or all of each component of each device may be implemented by general-purpose or dedicated circuitry, processors, etc., or combinations thereof. These may be composed of a single chip, or may be composed of multiple chips connected via a bus. A part or all of each component of each device may be implemented by a combination of the above-described circuits and the like and programs.
  • the plurality of information processing devices, circuits, etc. may be centrally arranged or distributed. may be placed.
  • the information processing device, circuits, and the like may be implemented as a form in which each is connected via a communication network, such as a client-server system, a cloud computing system, or the like.
  • the travel plan output device 130 includes a condition input unit 131, a travel plan generation unit 132, a travel plan output unit 133, and a storage unit 134.
  • the storage unit 134 stores various types of information used when the travel plan generation unit 132, which will be described later, generates a travel plan.
  • the storage unit 134 stores related information such as, for example, places that are candidates for moving points in the target area, means of transportation, and travel time between two points using each means of transportation.
  • the storage unit 134 may also store the cost function learned by the learning device 120 .
  • the storage unit 134 is realized by, for example, a magnetic disk or the like.
  • the condition input unit 131 accepts input of constraints at the time of travel planning. Specifically, the condition input unit 131 receives input of constraints when creating a travel plan. Examples of constraint conditions include, for example, a combination of a start point and a goal point, information on places that must be visited, places that are candidates for travel points, staying time, costs, and the like.
  • condition input unit 131 may also accept input of related information such as travel time between two locations.
  • the condition input unit 131 may acquire related information from the storage unit 134, for example.
  • the travel plan generation unit 132 generates a travel plan that minimizes the cost calculated by the above-described cost function, among the travel plans that move between the candidates for the travel points so as to satisfy the input constraint conditions. Specifically, the travel plan generating unit 132 generates a set of travel point candidates such as sightseeing spots, and the cost incurred when moving to the travel point candidate, or the cost incurred when staying at the travel point candidate. Based on , a travel plan may be generated by finding the travel or stay combination that minimizes the total cost.
  • the travel plan generation unit 132 may use any method to find a combination of travel or stay that minimizes the total cost.
  • the itinerary generator 132 may generate the itinerary as a combinatorial optimization problem. For example, instead of the distance used in the Dijkstra algorithm, the travel plan generation unit 132 may generate a travel plan as a problem of solving a route that minimizes the cost, using a cost calculated by a cost function. .
  • the travel plan output unit 133 outputs the generated travel plan.
  • the travel plan output unit 133 outputs, as a travel plan, various types of information such as travel points, travel means, time required for travel, stay time, and the like, which enable travel to be realized.
  • the travel plan output unit 133 may output travel information (for example, travel route, travel time, stay time, etc.) between travel points included in the travel plan by superimposing it on the map. This makes it possible to more specifically grasp the output travel plan.
  • condition input unit 131 the travel plan generation unit 132, and the travel plan output unit 133 are implemented by a computer processor (eg, CPU) that operates according to programs (travel plan output program, travel plan support program).
  • a computer processor eg, CPU
  • FIG. 3 is a flowchart showing an operation example of the learning device 120 of this embodiment.
  • the attribute input unit 121 receives input of attributes desired by the user who plans the trip (step S11).
  • the cost function input unit 122 receives an input of a cost function for calculating costs incurred in the itinerary (step S12).
  • the data extraction unit 123 extracts training data whose specified attribute matches the attribute information (step S13).
  • the inverse reinforcement learning unit 124 learns the cost function by inverse reinforcement learning using the extracted training data (step S14). Then, the learning result output unit 125 outputs the learned cost function (step S15).
  • FIG. 4 is a flowchart showing an operation example of the travel plan output device 130 of this embodiment.
  • the condition input unit 131 accepts input of constraints when creating a travel plan (step S21).
  • the itinerary generator 132 generates an itinerary that minimizes the cost calculated by the cost function, among the itineraries that move between the candidates of the movement points so as to satisfy the constraint conditions (step S22). Then, the travel plan output unit 133 outputs the generated travel plan (step S23).
  • the cost function input unit 122 receives an input of a cost function for calculating the cost incurred in the itinerary, and the data extraction unit 123 extracts training data whose specified attribute matches the attribute information. Extract. Then, the inverse reinforcement learning unit 124 learns the cost function by inverse reinforcement learning using the extracted training data, thereby supporting generation of an appropriate travel plan for the traveler.
  • the general method is to decide the places you want to visit based on the Internet, guidebooks, etc., and then decide the means to get to the decided places in a cumulative manner. For example, when going from point A to point C via point B on the way, the travel method from point A to point B is decided as a train based on a guidebook, and the travel method from point B to point C is determined based on a map application. For example, the method of transportation is determined to be a taxi.
  • the inverse reinforcement learning unit 124 generates a model by inverse reinforcement learning from the past planning data of experts. Then, the travel plan generator 132 uses the cost function to output a travel plan that reflects the intention of the expert. Therefore, it becomes possible to create a travel plan taking factors other than travel time into consideration.
  • the data extraction unit 123 extracts planning data corresponding to the accepted attribute from the travel history storage device 10, and the extracted planning data is used to generate a cost function.
  • the itinerary output device 130 uses the generated cost function to generate an itinerary. This can be said to be matching with a person similar to the specified attribute (that is, oneself), and it is possible to obtain a travel plan that suits one's own tastes and preferences.
  • the data extraction unit 123 narrows down the planning data, for example, it is possible to reuse the travel history of any person who traveled based on the generated travel plan as planning data.
  • the guidebook can only include some recommendations, and is easily affected by the passage of time. Also, if many travelers follow a guidebook, there is a fear that they will concentrate on the places listed in the guidebook.
  • the learning device 120 learns a cost function that indicates a traveler's intention from past planning data. For example, by limiting the training data to local people or increasing the frequency of model updates, it will be possible to generate real-time travel plans.
  • the inverse reinforcement learning unit 124 learns the cost function based on the planning data corresponding to the designated attributes, so it is possible to generate an appropriate travel plan according to the attributes. .
  • the inverse reinforcement learning unit 124 specializes in planning data by a specific person (for example, influencer X) and learns the cost function, so that the influencer's pseudo travel plan (for example, "If X I will follow the travel route").
  • a travel plan support system generates a plurality of cost functions in advance, and allows a user who plans a trip to select a cost function for a desired genre, thereby providing an appropriate trip for the selected genre. Generate plans.
  • FIG. 5 is a block diagram showing a configuration example of the second embodiment of the travel planning support system according to the present invention.
  • a travel plan support system 2 of the second embodiment includes a travel history storage device 10 , a learning device 220 , a travel plan output device 230 and a display device 40 .
  • the contents of the travel history storage device 10 and the display device 40 are the same as in the first embodiment.
  • the learning device 220 includes a cost function input unit 122, a data extraction unit 223, an inverse reinforcement learning unit 224, a learning result output unit 125, a storage unit 126, and a cost function classification unit 227.
  • the contents of the cost function input unit 122, the learning result output unit 125 and the storage unit 126 are the same as in the first embodiment.
  • the learning device 220 may include the attribute input unit 121 of the first embodiment.
  • the data extraction unit 223 extracts planning data from the travel history storage device 10. Note that the data extraction unit 223 of the present embodiment extracts planning data from the travel history storage device 10 based on predetermined rules.
  • the data extraction unit 223 of the present embodiment may, for example, randomly extract a predetermined number of pieces of planning data, or may extract planning data for each age range.
  • the extracted planning data is used for learning processing in the inverse reinforcement learning unit 224, which will be described later.
  • the inverse reinforcement learning unit 224 learns a plurality of cost functions using the extracted planning data as training data.
  • the cost function learning method is the same as in the first embodiment. Any method can be used to generate the plurality of cost functions.
  • the data extraction unit 223 is caused to extract a plurality of groups of planning data, and the extracted planning data for each group is used to generate a cost function based on the planning data. You can learn.
  • the cost function classification unit 227 classifies each learned cost function. Specifically, the cost function classifying unit 227 sets information (hereinafter also referred to as a label) that can identify the content of each learned cost function.
  • the cost function classifying unit 227 may set a label indicating the content of the feature amount with the highest weight set in each cost function. For example, in the case of a cost function in which the highest weight is set for the travel distance, the cost function classification unit 227 may set a label such as "travel plan (model) emphasizing travel distance" for the cost function. Further, for example, in the case of a cost function in which the highest weight is set to the feature amount related to food, the cost function classification unit 227 sets a label such as “food-focused travel plan (model)” to the cost function. good too.
  • the cost function classification unit 227 may set a label that indicates the characteristics of the cost function based on the narrowing conditions when extracting planning data (training data). For example, if the age is specified as an attribute, the cost function classification unit 227 may set a label such as "travel plan for XX generation" to the cost function.
  • the cost function classification unit 227 may accept input of a label to be set for each cost function based on explicit instructions from the analyst.
  • the analyst may instruct to set a label for each cost function based on the output result from the learning result output unit 125, for example.
  • the learning result output unit 125 may output the learned cost function together with the set label.
  • the cost function input unit 122, the data extraction unit 223, the inverse reinforcement learning unit 224, the learning result output unit 125, and the cost function classification unit 227 operate according to programs (learning program, travel plan support program). Realized by a processor.
  • the travel plan output device 230 includes a condition input unit 131, a travel plan generation unit 132, a travel plan output unit 133, and a cost function selection unit 234.
  • the contents of the condition input unit 131, the travel plan generation unit 132, and the travel plan output unit 133 are the same as in the first embodiment.
  • the cost function selection unit 234 accepts selection of a cost function by the user. Specifically, the cost function selection unit 234 presents the label set for each cost function to the user and accepts a selection from the user. After that, the itinerary generator 132 generates an itinerary based on the input constraints and the selected cost function, as in the first embodiment.
  • condition input unit 131 the travel plan generation unit 132, the travel plan output unit 133, and the cost function selection unit 234 are realized by a computer processor that operates according to programs (travel plan output program, travel plan support program). .
  • FIG. 6 is a flowchart showing an operation example of the learning device 220 of this embodiment.
  • the process in which the cost function input unit 122 receives the input of the cost function is the same as the process in step S12 illustrated in FIG.
  • the data extraction unit 223 extracts planning data from the travel history storage device 10 (step S31).
  • the inverse reinforcement learning unit 224 learns a plurality of cost functions by inverse reinforcement learning using the extracted training data (step S32).
  • the cost function classification unit 227 sets a label to each learned cost function (step S33). After that, the process of outputting the learned cost function by the learning result output unit 125 is the same as the process of step S15 shown in FIG.
  • FIG. 7 is a flowchart showing an operation example of the travel plan output device 230 of this embodiment.
  • the cost function selection unit 234 accepts selection of a cost function by the user (step S41). After that, the processing from receiving the input of the constraint condition to generating the travel plan and outputting it is the same as the processing from step S21 to step S23 shown in FIG.
  • the inverse reinforcement learning unit 224 learns a plurality of cost functions, and the cost function selection unit 234 accepts selection of the cost function by the user, as compared with the first embodiment. With such a configuration, it becomes possible to generate a travel plan according to the feature values that the user places importance on.
  • the travel plan support system 1 of the first embodiment creates a travel plan intended by a traveler of the same age.
  • FIG. 8 is an explanatory diagram showing an example of processing for creating a travel plan.
  • the attribute input unit 121 receives an input of a traveler's attribute (twenties) as an attribute
  • the data extraction unit 123 extracts past planning data D1 of the traveler (twenties) illustrated in FIG. .
  • the cost function input unit 122 receives an input of the cost function of Equation 1 illustrated above.
  • the inverse reinforcement learning unit 124 generates a cost function from which the weights ( ⁇ i , ⁇ i ) that minimize the optimization index are derived by inverse reinforcement learning, and the learning result output unit 125 outputs the learned cost function. Output. For example, when the value of ⁇ is small, it indicates that time is not so important, and when the value of ⁇ is large, it indicates that evaluation of place is important.
  • the condition input unit 131 accepts input of constraints at the time of travel planning. Further, the condition input unit 131 receives input of related information D2 in A city.
  • the travel plan generation unit 132 applies the relevant information D2, which is a candidate for the current visit site, to a cost function that has learned the intention of the expert (here, in his twenties), and creates a travel plan that is in line with the intention of the expert. to generate For example, when the itinerary D3 is generated, it can be said that the itinerary to visit in the order of a ⁇ c ⁇ b ⁇ e is closest to the intention of the expert.
  • FIG. 9 is an explanatory diagram showing an application example of the travel planning support system of the present invention.
  • the travel plan support system 1 accepts user registration from users via their smartphones, for example. Attribute information is extracted by this user registration. The travel plan support system 1 matches similar users based on this attribute information, extracts relevant data from the planning data, and performs inverse reinforcement learning. The travel plan support system 1 then uses the generated cost function to generate a travel plan.
  • the user draws up a travel plan based on the generated travel plan, and registers the actual plan in the travel plan support system 1. After that, the user leaves for the trip. After the departure, when the user's facility usage information and travel data until returning home are collected, the travel plan support system 1 extracts performance information from the history, and stores the extracted performance information as a new data. Register as planning data.
  • FIG. 10 is a block diagram showing an overview of a planning support system according to the present invention.
  • the planning support system 70 (for example, the travel plan support system 1) according to the present invention calculates the cost incurred in the itinerary represented by the linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary.
  • Function input means 71 for example, cost function input unit 122 that receives input of a cost function to be calculated (for example, Equation 1 shown above), schedule information indicating a traveler's travel plan, and attributes indicating the traveler's attributes information and training data containing performance information indicating the travel performance of the traveler, learning means 72 (for example, inverse reinforcement learning unit 124) for learning the cost function, and the designated attribute is
  • a data extraction means 73 for example, a data extraction unit 123) for extracting training data that matches the attribute information is provided.
  • the learning means 72 learns a cost function according to attributes by inverse reinforcement learning using the extracted training data.
  • the planning support system 70 also includes condition input means (for example, the condition input unit 131) for receiving input of constraints when creating a travel plan, and a travel plan for moving each travel point candidate so as to satisfy the constraints.
  • condition input means for example, the condition input unit 131
  • a travel plan for moving each travel point candidate so as to satisfy the constraints.
  • it may include a travel plan generating means (for example, the travel plan generating unit 132) that generates a travel plan that minimizes the cost calculated by the cost function.
  • the itinerary generating means generates a set of travel point candidates, and the cost incurred when moving to the travel point candidates calculated by the cost function or the cost incurred when staying at the travel point candidates.
  • a trip plan may be generated (eg, as a combinatorial problem) by finding the combination of trips or stays that minimizes the total cost.
  • the planning support system 70 may also include travel plan output means (for example, the travel plan output unit 133) that superimposes and outputs travel information between travel points included in the travel plan on a map.
  • travel plan output means for example, the travel plan output unit 133
  • the planning support system 70 may also include learning result output means (for example, the learning result output unit 125) that outputs the feature quantity included in the cost function and the weight of the feature quantity in association with each other.
  • learning result output means for example, the learning result output unit 125
  • the planning support system 70 (for example, the travel plan support system 2) includes cost function classifying means (for example, the cost function classifying section 227) that sets a label that is information that can identify the content of the learned cost function. may be Then, the cost function classifying means may set, to the learned cost function, a label indicating the content of the feature amount with the highest weight set.
  • cost function classifying means for example, the cost function classifying section 227) that sets a label that is information that can identify the content of the learned cost function. may be Then, the cost function classifying means may set, to the learned cost function, a label indicating the content of the feature amount with the highest weight set.
  • the data extracting means 73 may extract training data of a person who satisfies a predetermined expert condition.
  • the function input means 71 may accept input of a cost function in which the longer the travel time is, the higher the cost is calculated, and the higher the evaluation of the travel point is, the lower the calculated cost is.
  • Function input means for receiving input of a cost function for calculating the cost incurred in the itinerary, represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary;
  • the cost function is learned by inverse reinforcement learning using training data including schedule information indicating a travel plan of a traveler, attribute information indicating attributes of the traveler, and performance information indicating travel performance of the traveler.
  • a means of learning data extracting means for extracting training data whose specified attribute matches the attribute information;
  • a planning support system wherein the learning means learns a cost function corresponding to the attribute by inverse reinforcement learning using extracted training data.
  • Appendix 2 Condition input means for accepting input of constraints when creating a travel plan; planning according to appendix 1; support system.
  • the travel plan generation means includes a set of travel point candidates and a cost incurred when moving to the travel point candidate calculated by a cost function or a cost incurred when staying at the travel point candidate. 3.
  • appendix 4 The planning support system according to appendix 2 or appendix 3, further comprising travel plan output means for superimposing and outputting travel information between travel points included in the travel plan on a map.
  • Appendix 5 The planning support system according to any one of Appendices 1 to 4, comprising learning result output means for outputting the feature amount included in the cost function and the weight of the feature amount in association with each other. .
  • Cost function classification means for setting a label that is information that can identify the contents of the learned cost function, 6.
  • the planning support system according to any one of appendices 1 to 5, wherein the cost function classifying means sets a label indicating the content of the feature value set with the highest weight to the learned cost function.
  • Appendix 7 The planning support system according to any one of Appendices 1 to 6, wherein the data extracting means extracts training data of a person who satisfies a predetermined skill condition.
  • the function input means receives an input of a cost function in which the longer the travel time is, the higher the cost is calculated, and the higher the evaluation of the travel point is, the lower the cost is calculated. Any one of appendices 1 to 7 The planning support system described in 1.
  • (Appendix 9) Receiving input of a cost function for calculating the cost incurred in the itinerary, represented by a linear sum of terms weighted for each feature value assumed to be intended by the traveler in the itinerary, Among training data including schedule information indicating a travel plan of a traveler, attribute information indicating an attribute of the traveler, and track record information indicating the movement track record of the traveler, a specified attribute matches the attribute information. extract the training data, A planning support method characterized by learning a cost function according to the attributes by inverse reinforcement learning using the extracted training data.
  • Appendix 10 Receiving input of constraints when creating a travel plan, The planning support method according to appendix 9, further comprising the step of generating a travel plan that minimizes the cost calculated by the cost function, among travel plans for moving the candidates for each travel point so as to satisfy the constraint conditions.
  • Appendix 12 to the computer, Condition input processing for receiving input of constraints when creating a travel plan, and A planning support program for executing a travel plan generation process for generating a travel plan that minimizes the cost calculated by the cost function among the travel plans for moving the candidates for each moving point so as to satisfy the constraint conditions.
  • the program storage medium according to appendix 11 for storing.
  • Appendix 14 to the computer, Condition input processing for receiving input of constraints when creating a travel plan, and A planning support according to appendix 13 is executed for generating a travel plan that minimizes the cost calculated by the cost function among the travel plans for moving the candidates of the moving points so as to satisfy the constraint conditions. program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

関数入力手段(71)は、旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、旅程において生じるコストを算出するコスト関数の入力を受け付ける。学習手段72は、旅行者の旅行計画を示す予定情報およびその旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、コスト関数を学習する。データ抽出手段(73)は、指定された属性が属性情報に合致するトレーニングデータを抽出する。そして、学習手段(72)は、抽出されたトレーニングデータを用いた逆強化学習により、属性に応じたコスト関数を学習する。

Description

旅行計画支援システム、方法およびプログラム
 本発明は、旅行計画の生成を支援する旅行計画支援システム、旅行計画支援方法および旅行計画支援プログラムに関する。
 旅行計画は、様々な要素を考慮して作成される。計画時には、ガイドブックやSNS(Social Networking Service )、経路探索アプリケーションなどが用いられ、最終的には、これらの様々なツールを用いて旅行者が最適と思われる旅行計画が決定される。また、より好ましい旅行計画を決定するため、旅行代理店の担当者に旅行計画を依頼する場合もある。
 また、特許文献1には、観光スポットなどの経由地を経由する経路を容易に探索できる方法が記載されている。特許文献1に記載された方法では、第1の経由地と第2の経由地とを含む複数の経由地を表示する際に、第1の経由地または第2の経由地の代替となる他の経由地候補を表示させる。具体的には、第1の経由地または第2の経由地の代替となる他の経由地候補が選択されると、移動ルートのうち、他の経由地候補が選択された経由地の前後の地点は変更せず、選択された他の経由地候補を、対応する経由地に置き換えた移動ルートを表示する。
 また、移動計画に関し、効率的なルートを計画する方法も各種知られている。例えば、特許文献2には、配送対象となる複数の荷物の配送を支援する道路学習モデル生成装置および配送計画生成装置が記載されている。特許文献2に記載された道路学習モデル生成装置は、熟練ドライバーの走行履歴と道路ネットワーク情報と道路特徴量とを基に、道路の走行中の配送効率を示す道路コストを道路ごとに演算する道路学習モデルを逆強化学習により生成する。そして、配送計画生成装置は、生成した道路学習モデルを用いて、最適な配送計画を生成する。
特開2018-155519号公報 国際公開2019/082720号
 一般的な方法では、旅行者が一つずつ旅行計画を行っていくが、この方法では、より適切な旅行計画を見逃してしまう恐れがある。また、旅行代理店の担当者に依頼した場合、より好ましい旅行計画を提示される可能性は高まるが、担当者の属人性や恣意的なお勧めが含まれる可能性を否定できない。ガイドブックを参考にする場合も同様である。
 特許文献1に記載された方法を用いることで、指定された観光スポットを経由する経路の候補を探索することは可能である。しかし、経路の候補が、必ずしも旅行者にとって適切な旅程を示す経路であるとは限らない。そのため、旅行者は、結果的に経路の候補に対して一つずつ評価を行う必要があるため、旅行者の負担を低減させることは難しい。
 また、特許文献2に記載された道路学習モデルを用いることで、熟練者の考えに則したルートを計画することは可能である。しかし、特許文献2に記載された方法により生成される道路学習モデルは、ドライバーの配送負担を軽減する配送計画の導出に用いられるものである。すなわち、上記道路学習モデルは、時間や距離などの効率性を重視したモデルであるため、そのまま旅行計画に適用することは難しい。
 例えば、旅行計画は、必ずしも効率性のみが重視されるものではなく、例えば、時間や距離を要したとしても、経由すべき場所が存在する場合には、その経由地が選択されるべきである。特許文献2に記載された方法では、そのような旅行において考慮すべき内容を見逃してしまうおそれがある。
 そこで、本発明は、旅行者にとって適切な旅行計画の生成を支援できる旅行計画支援システム、旅行計画支援方法および旅行計画支援プログラムを提供することを目的とする。
 本発明による旅行計画支援システムは、旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力手段と、旅行者の旅行計画を示す予定情報およびその旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、コスト関数を学習する学習手段と、指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出手段とを備え、学習手段は、抽出されたトレーニングデータを用いた逆強化学習により、属性に応じたコスト関数を学習することを特徴とする。
 本発明による旅行計画支援方法は、旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、旅程において生じるコストを算出するコスト関数の入力を受け付け、旅行者の旅行計画を示す予定情報およびその旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報を含むトレーニングデータのうち、指定された属性が属性情報に合致するトレーニングデータを抽出し、抽出されたトレーニングデータを用いた逆強化学習により、属性に応じたコスト関数を学習することを特徴とする。
 本発明による旅行計画支援プログラムは、コンピュータに、旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力処理、旅行者の旅行計画を示す予定情報およびその旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、コスト関数を学習する学習処理、および、指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出処理を実行させ、学習処理で、抽出されたトレーニングデータを用いた逆強化学習により、属性に応じたコスト関数を学習させることを特徴とする。
 本発明によれば、旅行者にとって適切な旅行計画の生成を支援できる。
本発明による旅行計画支援システムの第一の実施形態の構成例を示すブロック図である。 プランニングデータの例を示す説明図である。 第一の実施形態の学習装置の動作例を示すフローチャートである。 第一の実施形態の旅行計画出力装置の動作例を示すフローチャートである。 本発明による旅行計画支援システムの第二の実施形態の構成例を示すブロック図である。 第二の実施形態の学習装置の動作例を示すフローチャートである。 第二の実施形態の旅行計画出力装置の動作例を示すフローチャートである。 旅行計画を作成する処理の例を示す説明図である。 本発明の旅行計画支援システムの適用例を示す説明図である。 本発明による旅行計画支援システムの概要を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
 図1は、本発明による旅行計画支援システムの第一の実施形態の構成例を示すブロック図である。第一の実施形態の旅行計画支援システムは、旅行計画を行うユーザから指定される性別や年代に好ましいと想定される旅行計画を行う際に用いられるコスト関数を生成し、ユーザにとって適切な旅行計画をそのコスト関数を用いて生成する。なお、コスト関数の詳細については後述される。
 第一の実施形態の旅行計画支援システム1は、旅行履歴記憶装置10と、学習装置120と、旅行計画出力装置130と、表示装置40とを備えている。
 表示装置40は、旅行計画支援システム1による各種処理結果を出力する装置である。表示装置40は、例えば、ディスプレイ装置によって実現される。なお、図1では、旅行計画出力装置130に接続された表示装置40を1台例示しているが、学習装置120に接続される表示装置40と、旅行計画出力装置130に接続される表示装置40とが、別々に設けられていてもよい。
 旅行履歴記憶装置10は、旅行者の過去の旅行履歴(以下、プランニングデータと記す。)を記憶する。なお、本実施形態におけるプランニングデータは、実際に旅行を行った際の実績情報だけでなく、計画段階の予定情報も含む。また、プランニングデータには、旅行者の属性や、その旅行者の評価を示す情報も含まれる。
 図2は、プランニングデータの例を示す説明図である。図2に例示するプランニングデータは、項目として、大きく3つの区分(予定情報、利用者情報、実績情報)に分類される項目を含む。予定情報は、旅行者の旅行計画において想定される情報であり、実績情報は、旅行計画に基づいて旅行者が実際に行った移動実績の内容を示す情報である。また、利用者情報は、その旅行計画を行った人物の属性等を示す情報であり、後述する熟練者として想定する人物を特定する際の情報としても利用される。なお、予定情報および実績情報を含めた情報を旅程、または、旅程情報と記すこともある。
 なお、図2に例示するプランニングデータは一例であり、プランニングデータが、図2に例示する全ての項目を含んでいてもよく、一部の項目を含んでいてもよい。また、プランニングデータが、図2に例示する以外の項目を含んでいてもよい。例えば、実績情報に、天気など、環境を示す情報が含まれていてもよい。プランニングデータは、例えば、専用のアプリケーションや既存のSNSを用いて作成および収集される。
 学習装置120は、属性入力部121と、コスト関数入力部122と、データ抽出部123と、逆強化学習部124と、学習結果出力部125と、記憶部126とを含む。
 属性入力部121は、旅行計画を行うユーザが所望する熟練者の属性の入力を受け付ける。属性入力部121は、例えば、性別や年代などの属性の入力を受け付けてもよい。 また、属性入力部121は、属性として特定のユーザ(例えば、インフルエンサーなど)を示す情報の入力を受け付けてもよい。
 なお、本実施形態における熟練者とは、旅行者にとって適切と思われる旅程を実現できると考えられる人物を意味する。なお、ここでの適切とは、必ずしも効率性のみを意味するものではなく、快適性や、嗜好性など、利用者に好適な印象を与え得る状態を含む。例えば、属性として「20代」が指定された場合、旅行慣れした20代の人物が指定されたものと判断して処理が行われる。
 コスト関数入力部122は、後述する逆強化学習部124が学習に用いるコスト関数として、旅程において生じるコストを算出するコスト関数の入力を受け付ける。具体的には、コスト関数入力部122は、図2に例示するプランニングデータに含まれるような、旅行者が旅程において意図すると想定される各特徴量(すなわち、予定情報および実績情報に含まれる各種情報)に重視度合いがそれぞれ重み付けされた項の線形和で表されたコスト関数の入力を受け付ける。
 なお、この重視度合いは、旅程に対する利用者の意図を表わしていると言うこともできる。そのため、コスト関数によって算出される値は、旅程の評価に用いられる評価指標とも言える。また、本実施形態で用いられるコスト関数は、後述する旅行計画出力装置130がプランニングを設計する際に用いられるモデルであり、実際に採用された旅程がどのようなポリシに基づいて作成されたかを学習したモデルであることから、プランニング設計モデルと言うこともできる。
 また、コスト関数入力部122は、コスト関数と共に、満たすべき制約条件の入力を受け付けてもよい。コスト関数および制約条件は、分析者等により予め定められる。すなわち、旅程において考慮すべき特徴量の候補が分析者等により予め選択され、コスト関数として定義される。
 例えば、旅程を評価する際に、移動時間の評価および場所の評価を熟練者が意図する項目(特徴量)として考慮する場合、最適化指標を算出するコスト関数は、以下に例示する式1で表わされる。式1におけるxijおよびzが特徴量を示す。
Figure JPOXMLDOC01-appb-M000001
 式1において、xijは、場所iから場所jへの移動の有無を示す。具体的には、場所iから場所jに移動する場合、xij=1になり、場所iから場所jに移動しない場合、xij=0になる。また、dijは、場所iから場所jへの移動時間を示し、zは、場所iの評価度合いを示す。すなわち、上記式1に示すコスト関数は、移動時間が長いほどコスト(値)が高く算出され、移動地点(場所)の評価が高いほどコスト(値)が低く算出される関数と言える。
 なお、上記に示す特徴量は例示であり、その他の特徴量を含んでいてもよい。例えば、特徴量として、各場所における滞在時間が挙げられる。コスト関数は、滞在時間が長いほどコスト(値)が低く算出される関数として定義されてもよい。なお、旅行計画に関連の低い特徴量は、逆強化学習の結果として重みが低く設定されるため、結果的に旅行計画で熟練者が意図する特徴量が抽出されることになる。
 データ抽出部123は、属性入力部121が受け付けた属性に対応するプランニングデータを旅行履歴記憶装置10から抽出する。例えば、旅行履歴記憶装置10が図2に例示するプランニングデータを記憶している場合、データ抽出部123は、受け付けた属性が利用者情報(属性情報)に合致するプランニングデータを抽出してもよい。なお、抽出されたプランニングデータは、後述する逆強化学習部124が学習に用いるデータであるため、抽出されたプランニングデータのことをトレーニングデータと言うこともある。
 また、旅行履歴記憶装置10が上述する熟練者以外の人物のプランニングデータ記憶している場合、データ抽出部123は、予め定めた熟練者の条件を満たす人物のプランニングデータを抽出するようにしてもよい。これにより、任意の人物のプランニングデータを記憶する旅行履歴記憶装置10の情報を、後述する逆強化学習のトレーニングデータとして利用することが可能になる。
 熟練者のプランニングデータを抽出する方法は任意であり、分析者等により予め定められる。データ抽出部123は、例えば、旅行の回数の多い人物、他人からの評価が高い人物、安価な旅程を作成している人物、多くのスポット(観光地)を訪問している人物、同一スポットに多数訪問している人物、SNSにおいてフォロワーの多い人物などを熟練者とし、その人物のプランニングデータを熟練者のプランニングデータとして抽出してもよい。
 また、データ抽出部123は、コスト関数に含まれる特徴量に合わせるため、プランニングデータに含まれる項目を特徴量へ変換する処理(演算や2値への変換等)やデータの統合処理、データクレンジングなどを行ってもよい。
 逆強化学習部124は、データ抽出部123によって抽出されたトレーニングデータを用いた逆強化学習により、上述するコスト関数を学習する。具体的には、逆強化学習部124は、受け付けた属性に対応する熟練者のプランニングデータをトレーニングデータとして用いた逆強化学習によりコスト関数を学習する。すなわち、このトレーニングデータには、熟練者の旅程の内容を表わす情報(具体的には、旅行者の旅行計画を示す予定情報および旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報)が含まれる。
 逆強化学習部124が逆強化学習を行う方法は任意である。逆強化学習部124は、例えば、入力されたコスト関数および制約条件に基づいて熟練者の旅程を生成する数理最適化処理の実行と、生成された熟練者の旅程とトレーニングデータとの差分を小さくするようにコスト関数のパラメータ(重視度合い)を更新するコスト関数の推定処理を繰り返すことで、コスト関数を学習してもよい。
 逆強化学習部124がプランニングデータを用いて逆強化学習によりコスト関数を学習することにより、旅程に関する特徴量を抽出することが可能になる。そのため、様々な特徴量を考慮して最適な旅行計画を作成できるようになる。
 学習結果出力部125は、学習されたコスト関数を出力する。具体的には、学習結果出力部125は、指定された属性のコスト関数に含まれる特徴量と、その特徴量の重みとを対応付けて出力する。学習結果出力部125は、学習されたコスト関数を記憶部126に記憶させてもよく、旅行計画出力装置130にコスト関数の情報を送信して記憶部134に記憶させてもよい。
 また、学習結果出力部125は、コスト関数の内容を表示装置40に表示してもよい。表示装置40にコスト関数の内容を表示することにより、熟練者が旅程において重視する項目を視認することが可能になる。
 記憶部126は、学習されたコスト関数を記憶する。また、記憶部126は、逆強化学習部124が学習に用いる各種パラメータを記憶していてもよい。記憶部126は、例えば、磁気ディスク等により実現される。
 属性入力部121と、コスト関数入力部122と、データ抽出部123と、逆強化学習部124と、学習結果出力部125とは、プログラム(学習プログラム、旅行計画支援プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU(Central Processing Unit ))によって実現される。
 例えば、プログラムは、学習装置120の記憶部126に記憶され、プロセッサは、そのプログラムを読み込み、プログラムに従って、属性入力部121、コスト関数入力部122と、データ抽出部123、逆強化学習部124および学習結果出力部125として動作してもよい。また、学習装置120の機能がSaaS(Software as a Service )形式で提供されてもよい。
 また、属性入力部121と、コスト関数入力部122と、データ抽出部123と、逆強化学習部124と、学習結果出力部125とは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry )、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。
 また、学習装置120の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
 旅行計画出力装置130は、条件入力部131と、旅行計画生成部132と、旅行計画出力部133と、記憶部134と含む。
 記憶部134は、後述する旅行計画生成部132が旅行計画を生成する際に利用する各種情報を記憶する。記憶部134は、例えば、対象とする地域で移動地点の候補になる場所や、移動手段、各移動手段を用いた2地点間の移動時間などの関連情報を記憶する。また、記憶部134は、学習装置120によって学習されたコスト関数を記憶してもよい。記憶部134は、例えば、磁気ディスク等により実現される。
 条件入力部131は、旅行計画時の制約条件の入力を受け付ける。具体的には、条件入力部131は、旅行計画を作成する際の制約条件の入力を受け付ける。制約条件の例として、例えば、スタート地点とゴール地点の組み合わせ、必須で訪問したい場所の情報や、移動地点の候補となる場所、滞在時間、費用等が挙げられる。
 また、条件入力部131は、2つの場所の間の移動時間などの関連情報の入力を合わせて受け付けてもよい。条件入力部131は、例えば、記憶部134から関連情報を取得してもよい。
 旅行計画生成部132は、入力された制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、上述するコスト関数により算出されるコストが最小になる旅行計画を生成する。具体的には、旅行計画生成部132は、観光地などの移動地点の候補の集合と、移動地点の候補へ移動する際に生じるコスト、または、その移動地点の候補に滞在する際に生じるコストに基づいて、総コストが最小になる移動または滞在の組み合わせを求めることにより旅行計画を生成してもよい。
 旅行計画生成部132が総コストを最小にするような移動または滞在の組み合わせを求める方法は任意である。旅行計画生成部132は、組み合わせ最適化問題として旅行計画を生成してもよい。旅行計画生成部132は、例えば、ダイクストラ法のアルゴリズムにおいて用いられる距離の代わりに、コスト関数により算出されるコストを用いて、コストを最小化する経路を解く問題として旅行計画を生成してもよい。
 旅行計画出力部133は、生成された旅行計画を出力する。旅行計画出力部133は、例えば、移動地点と移動手段、移動に要する時間、滞在時間等、旅行を実現可能な各種情報を旅行計画として出力する。また、旅行計画出力部133は、旅行計画に含まれる各移動地点間の移動情報(例えば、移動経路、移動時間、滞在時間等)を地図上に重畳させて出力してもよい。これにより、出力された旅行計画をより具体的に把握することが可能になる。
 条件入力部131と、旅行計画生成部132と、旅行計画出力部133とは、プログラム(旅行計画出力プログラム、旅行計画支援プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU)によって実現される。
 次に、本実施形態の旅行計画支援システムの動作を説明する。図3は、本実施形態の学習装置120の動作例を示すフローチャートである。属性入力部121は、旅行計画を行うユーザが所望する属性の入力を受け付ける(ステップS11)。また、コスト関数入力部122は、旅程において生じるコストを算出するコスト関数の入力を受け付ける(ステップS12)。データ抽出部123は、指定された属性が属性情報に合致するトレーニングデータを抽出する(ステップS13)。逆強化学習部124は、抽出されたトレーニングデータを用いた逆強化学習により、コスト関数を学習する(ステップS14)。そして、学習結果出力部125は、学習されたコスト関数を出力する(ステップS15)。
 図4は、本実施形態の旅行計画出力装置130の動作例を示すフローチャートである。
 条件入力部131は、旅行計画を作成する際の制約条件の入力を受け付ける(ステップS21)。旅行計画生成部132は、制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、コスト関数により算出されるコストが最小になる旅行計画を生成する(ステップS22)。そして、旅行計画出力部133は、生成された旅行計画を出力する(ステップS23)。
 以上のように、本実施形態では、コスト関数入力部122が、旅程において生じるコストを算出するコスト関数の入力を受け付け、データ抽出部123が、指定された属性が属性情報に合致するトレーニングデータを抽出する。そして、逆強化学習部124が、抽出されたトレーニングデータを用いた逆強化学習により、コスト関数を学習するよって、旅行者にとって適切な旅行計画の生成を支援できる。
 例えば、ある都市を観光する場合、一般的な方法では、インターネットやガイドブック等に基づいて訪問したい場所を決定し、決定した場所に行くための手段を積み上げ式で決定する。例えば、A地点から途中B地点を経由してC地点まで行く場合、ガイドブックに基づいてA地点からB地点までの移動方法を電車と決定し、地図アプリケーションに基づいてB地点からC地点までの移動方法をタクシーと決定する、などである。
 しかし、一般的な方法では、経由地を含めた目的地に対する最適な経路や所要時間を把握することは可能であるが、滞在時間等を含めて複数の地点を移動する場合、適切な経路を把握することは難しい。例えば、待ち合わせで1時間の空きがあって、ある地点まで移動するような状況を考える。一般的な方法を用いることで、待ち合わせ場所からある地点までを往復するために要する移動時間は把握できるが、滞在時間(例えば、清算の時間等も含む)を含めた適切な計画を把握することは難しく、時間が足りなくなってしまうような状況も否定できない。
 一方、本実施形態の旅行計画支援システムでは、逆強化学習部124が熟練者の過去のプランニングデータから逆強化学習によりモデルを生成する。そして、旅行計画生成部132が、そのコスト関数を用いることで、熟練者の意図を反映した旅行計画を出力する。そのため、移動時間以外の要因も考慮して旅行計画を作成することが可能になる。
 また、本実施形態では、データ抽出部123が、受け付けられた属性に対応するプランニングデータを旅行履歴記憶装置10から抽出し、抽出されたプランニングデータを用いてコスト関数が生成される。そして、旅行計画出力装置130が、生成されたコスト関数を用いて旅行計画を生成する。これは、指定した属性(すなわち、自分自身)に類似する人物とのマッチングを行っているということができ、自分自身の趣味嗜好にあった旅行計画を得ることも可能になる。
 さらに、データ抽出部123がプランニングデータを絞り込むため、例えば、生成された旅行計画に基づいて旅行を行った任意の人物の旅行履歴もプランニングデータとして再利用することが可能になる。
 また、ガイドブックでは一部のお勧めしか掲載できず、経過年による影響も受けやすい。また、多くの旅行者がガイドブックに従うと、そのガイドブックに掲載された場所に集中してしまう恐れもある。一方、本実施形態では、学習装置120が、過去のプランニングデータから旅行者の意図を示すコスト関数を学習する。例えば、トレーニングデータを地元の人物に限定したり、モデルの更新頻度を上げたりすることで、リアルタイムな旅行計画を生成することも可能になる。
 また、旅行がうまいという定義は難しく、旅行者に適切な情報を検索することは難しい。例えば、熟練者(旅行慣れした人物)による旅行計画は、高齢者や初心者には難しい場合もある。一方、本実施形態では、逆強化学習部124が、指定された属性に応じたプランニングデータに基づいてコスト関数を学習するため、その属性に応じて適切な旅行計画を生成することが可能になる。
 また、逆強化学習部124が、特定の人物(例えば、インフルエンサーX)によるプランニングデータに特化してコスト関数を学習することで、そのインフルエンサーの擬似的な旅行計画(例えば、「Xならこういう旅行ルートを辿ります」)を提供することも可能になる。
 また、本実施形態では、トレーニングデータからコスト関数を学習するため、旅行計画を定義した、いわゆるマスタを準備しておく必要がなくなり、そのマスタに対する個々の情報のメンテナンスコストを抑制することが可能になる。
実施形態2.
 次に、本発明の旅行計画支援システムの第二の実施形態を説明する。第二の実施形態の旅行計画支援システムは、予め複数のコスト関数を生成しておき、旅行計画を行うユーザに所望するジャンルのコスト関数を選択させることで、選択されたジャンルでの適切な旅行計画を生成する。
 図5は、本発明による旅行計画支援システムの第二の実施形態の構成例を示すブロック図である。第二の実施形態の旅行計画支援システム2は、旅行履歴記憶装置10と、学習装置220と、旅行計画出力装置230と、表示装置40とを備えている。旅行履歴記憶装置10および表示装置40の内容は、第一の実施形態と同様である。
 学習装置220は、コスト関数入力部122と、データ抽出部223と、逆強化学習部224と、学習結果出力部125と、記憶部126と、コスト関数分類部227とを含む。コスト関数入力部122、学習結果出力部125および記憶部126の内容は、第一の実施形態と同様である。なお、学習装置220が、第一の実施形態の属性入力部121を含んでいてもよい。
 データ抽出部223は、プランニングデータを旅行履歴記憶装置10から抽出する。なお、本実施形態のデータ抽出部223は、予め定めた規則に基づいて旅行履歴記憶装置10からプランニングデータを抽出する。本実施形態のデータ抽出部223は、例えば、ランダムに予め定めた件数のプランニングデータを抽出してもよく、年代の範囲ごとにプランニングデータを抽出してもよい。抽出されたプランニングデータが、後述する逆強化学習部224での学習処理に用いられる。
 逆強化学習部224は、抽出されたプランニングデータをトレーニングデータとして用いて複数のコスト関数を学習する。なお、コスト関数の学習方法は、第一の実施形態と同様である。複数のコスト関数の生成方法は任意であり、例えば、データ抽出部223にプランニングデータの複数のグループを抽出させ、抽出されたグループごとのプランニングデータを用いて、それぞれにプランニングデータに基づくコスト関数を学習してもよい。
 コスト関数分類部227は、学習された各コスト関数を分類する。具体的には、コスト関数分類部227は、学習された各コスト関数の内容を識別可能な情報(以下、ラベルと記すこともある。)を設定する。コスト関数分類部227は、各コスト関数で最も重みが高く設定された特徴量の内容を示すラベルを設定してもよい。例えば、移動距離に最も高い重みが設定されたコスト関数の場合、コスト関数分類部227は、そのコスト関数に「移動距離重視の旅行計画(モデル)」のようなラベルを設定してもよい。また、例えば、食に関する特徴量に最も高い重みが設定されたコスト関数の場合、コスト関数分類部227は、そのコスト関数に「食重視の旅行計画(モデル)」のようなラベルを設定してもよい。
 他にも、コスト関数分類部227は、プランニングデータ(トレーニングデータ)を抽出する際の絞り込み条件に基づいて、コスト関数の特徴を示すラベルを設定してもよい。例えば、属性として年代が指定された場合、コスト関数分類部227は、そのコスト関数に「○○代の旅行計画」のようなラベルを設定してもよい。
 また、コスト関数分類部227は、分析者からの明示的な指示に基づいて各コスト関数に設定するラベルの入力を受け付けてもよい。分析者は、例えば、学習結果出力部125による出力結果に基づいて、各コスト関数にラベルを設定するように指示してもよい。
 なお、学習結果出力部125は、設定されたラベルと共に学習されたコスト関数を出力してもよい。
 コスト関数入力部122と、データ抽出部223と、逆強化学習部224と、学習結果出力部125と、コスト関数分類部227とは、プログラム(学習プログラム、旅行計画支援プログラム)に従って動作するコンピュータのプロセッサによって実現される。
 旅行計画出力装置230は、条件入力部131と、旅行計画生成部132と、旅行計画出力部133と、コスト関数選択部234とを含む。条件入力部131、旅行計画生成部132および旅行計画出力部133の内容は、第一の実施形態と同様である。
 コスト関数選択部234は、ユーザによるコスト関数の選択を受け付ける。具体的には、コスト関数選択部234は、各コスト関数に設定したラベルをユーザに提示し、ユーザからの選択を受け付ける。以降、旅行計画生成部132は、第一の実施形態と同様に、入力された制約条件と選択されたコスト関数に基づいて旅行計画を生成する。
 条件入力部131と、旅行計画生成部132と、旅行計画出力部133と、コスト関数選択部234とは、プログラム(旅行計画出力プログラム、旅行計画支援プログラム)に従って動作するコンピュータのプロセッサによって実現される。
 次に、本実施形態の旅行計画支援システムの動作を説明する。図6は、本実施形態の学習装置220の動作例を示すフローチャートである。コスト関数入力部122がコスト関数の入力を受け付ける処理は、図3に例示するステップS12の処理と同様である。データ抽出部223は、プランニングデータを旅行履歴記憶装置10から抽出する(ステップS31)。
 逆強化学習部224は、抽出されたトレーニングデータを用いた逆強化学習により、複数のコスト関数を学習する(ステップS32)。コスト関数分類部227は、学習された各コスト関数にラベルを設定する(ステップS33)。以降、学習結果出力部125が学習されたコスト関数を出力する処理は、図3に示すステップS15の処理と同様である。
 図7は、本実施形態の旅行計画出力装置230の動作例を示すフローチャートである。
 コスト関数選択部234は、ユーザによるコスト関数の選択を受け付ける(ステップS41)。以降、制約条件の入力を受け付けて旅行計画を生成し、出力するまでの処理は、図4に示すステップS21からステップS23までの処理と同様である。
 以上のように、本実施形態では、第一の実施形態と比較し、逆強化学習部224が、複数のコスト関数を学習し、コスト関数選択部234が、ユーザによるコスト関数の選択を受け付ける。そのような構成により、ユーザが重視する特徴量に応じた旅行計画を生成することが可能になる。
 以下、具体例を用いて、本発明の旅行計画支援システムの動作を説明する。本具体例では、20代のユーザがA市を旅行する場合に、第一の実施形態の旅行計画支援システム1が同年代の旅行者が意図するような旅行計画を作成する場合を例示する。
 図8は、旅行計画を作成する処理の例を示す説明図である。まず、属性入力部121が属性として、旅行者の属性(20代)の入力を受け付けると、データ抽出部123が、図8に例示する旅行者(20代)の過去のプランニングデータD1を抽出する。また、コスト関数入力部122が、上記に例示する式1のコスト関数の入力を受け付ける。逆強化学習部124は、逆強化学習により、最適化指標を最小化する重み(α,β)が導出されたコスト関数を生成し、学習結果出力部125は、学習されたコスト関数を出力する。例えば、αの値が小さい場合、時間をあまり重視しないことを示し、βの値が大きい場合、場所の評価を重視していることを示す。
 次に、条件入力部131は、旅行計画時の制約条件の入力を受け付ける。また、条件入力部131は、A市における関連情報D2の入力を受け付ける。旅行計画生成部132は、今回の訪問地の候補になる関連情報D2を、熟練者(ここでは、20代)の意図を学習したコスト関数に適用して、熟練者の意図に即した旅行計画を生成する。例えば、旅行計画D3が生成された場合、a→c→b→eの順に訪問する旅行計画が、最も熟練者の意図と近いということが言える。
 次に、本発明の旅行計画支援システムの適用例を説明する。ここでも、第一の実施形態の旅行計画支援システム1の動作を例示する。図9は、本発明の旅行計画支援システムの適用例を示す説明図である。
 旅行計画支援システム1は、例えば、スマートフォンを介してユーザから、ユーザ登録を受け付ける。このユーザ登録により、属性情報が抽出される。旅行計画支援システム1は、この属性情報に基づいて類似ユーザのマッチングを行い、プランニングデータから該当するデータを抽出して逆強化学習を行う。そして、旅行計画支援システム1は、生成されたコスト関数を利用して旅行計画を生成する。
 ユーザは、生成された旅行計画に基づいて旅行計画を立案し、実際の計画を旅行計画支援システム1に登録する。その後、ユーザは、旅行に出発する。出発後、ユーザによる施設利用の情報や帰宅までの移動データなどの履歴が収集されると、旅行計画支援システム1は、それらの履歴から実績情報を抽出し、抽出された実績情報を、新たなプランニングデータとして登録する。
 このようなサイクルで実績情報を蓄積させることで、より適切な旅行計画を作成でき、また、リアルタイムな旅行計画を生成することも可能になる。
 次に、本発明の概要を説明する。図10は、本発明によるプランニング支援システムの概要を示すブロック図である。本発明によるプランニング支援システム70(例えば、旅行計画支援システム1)は、旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、旅程において生じるコストを算出するコスト関数(例えば、上記に示す式1)の入力を受け付ける関数入力手段71(例えば、コスト関数入力部122)と、旅行者の旅行計画を示す予定情報およびその旅行者の属性を示す属性情報、並びに、その旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、コスト関数を学習する学習手段72(例えば、逆強化学習部124)と、指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出手段73(例えば、データ抽出部123)とを備えている。
 学習手段72は、抽出されたトレーニングデータを用いた逆強化学習により、属性に応じたコスト関数を学習する。
 そのような構成により、旅行者にとって適切な旅行計画の生成を支援できる。
 また、プランニング支援システム70は、旅行計画を作成する際の制約条件の入力を受け付ける条件入力手段(例えば、条件入力部131)と、制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成手段(例えば、旅行計画生成部132)とを備えていてもよい。
 具体的には、旅行計画生成手段は、移動地点の候補の集合と、コスト関数により算出される移動地点の候補へ移動する際に生じるコストまたは移動地点の候補に滞在する際に生じるコストに基づいて、総コストが最小になる移動または滞在の組み合わせを求めることにより(例えば、組み合わせ問題として)旅行計画を生成してもよい。
 また、プランニング支援システム70は、旅行計画に含まれる各移動地点間の移動情報を地図上に重畳させて出力する旅行計画出力手段(例えば、旅行計画出力部133)を備えていてもよい。
 また、プランニング支援システム70は、コスト関数に含まれる特徴量と、その特徴量の重みとを対応付けて出力する学習結果出力手段(例えば、学習結果出力部125)を備えていてもよい。
 また、プランニング支援システム70(例えば、旅行計画支援システム2)は、学習されたコスト関数の内容を識別可能な情報であるラベルを設定するコスト関数分類手段(例えば、コスト関数分類部227)を備えていてもよい。そして、コスト関数分類手段は、最も重みが高く設定された特徴量の内容を示すラベルを学習されたコスト関数に設定してもよい。
 また、データ抽出手段73は、予め定めた熟練者の条件を満たす人物のトレーニングデータを抽出してもよい。
 また、関数入力手段71は、移動時間が長いほどコストが高く算出され、移動地点の評価が高いほどコストが低く算出されるコスト関数の入力を受け付けてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力手段と、
 旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、前記コスト関数を学習する学習手段と、
 指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出手段とを備え、
 前記学習手段は、抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習する
 ことを特徴とするプランニング支援システム。
(付記2)旅行計画を作成する際の制約条件の入力を受け付ける条件入力手段と、
 前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成手段とを備えた
 付記1記載のプランニング支援システム。
(付記3)旅行計画生成手段は、移動地点の候補の集合と、コスト関数により算出される当該移動地点の候補へ移動する際に生じるコストまたは当該移動地点の候補に滞在する際に生じるコストに基づいて、総コストが最小になる移動または滞在の組み合わせを求めることにより旅行計画を生成する
 付記2記載のプランニング支援システム。
(付記4)旅行計画に含まれる各移動地点間の移動情報を地図上に重畳させて出力する旅行計画出力手段を備えた
 付記2または付記3記載のプランニング支援システム。
(付記5)コスト関数に含まれる特徴量と、当該特徴量の重みとを対応付けて出力する学習結果出力手段を備えた
 付記1から付記4のうちのいずれか1つに記載のプランニング支援システム。
(付記6)学習されたコスト関数の内容を識別可能な情報であるラベルを設定するコスト関数分類手段を備え、
 前記コスト関数分類手段は、最も重みが高く設定された特徴量の内容を示すラベルを学習されたコスト関数に設定する
 付記1から付記5のうちのいずれか1つに記載のプランニング支援システム。
(付記7)データ抽出手段は、予め定めた熟練者の条件を満たす人物のトレーニングデータを抽出する
 付記1から付記6のうちのいずれか1つに記載のプランニング支援システム。
(付記8)関数入力手段は、移動時間が長いほどコストが高く算出され、移動地点の評価が高いほどコストが低く算出されるコスト関数の入力を受け付ける
 付記1から付記7のうちのいずれか1つに記載のプランニング支援システム。
(付記9)旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付け、
 旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報を含むトレーニングデータのうち、指定された属性が前記属性情報に合致するトレーニングデータを抽出し、
 抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習する
 ことを特徴とするプランニング支援方法。
(付記10)旅行計画を作成する際の制約条件の入力を受け付け、
 前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する
 付記9記載のプランニング支援方法。
(付記11)コンピュータに、
 旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力処理、
 旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、前記コスト関数を学習する学習処理、および、
 指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出処理を実行させ、
 前記学習処理で、抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習させる
 ためのプランニング支援プログラムを記憶するプログラム記憶媒体。
(付記12)コンピュータに、
 旅行計画を作成する際の制約条件の入力を受け付ける条件入力処理、および、
 前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成処理を実行させるためのプランニング支援プログラムを記憶する
 付記11記載のプログラム記憶媒体。
(付記13)コンピュータに、
 旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力処理、
 旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報を含むトレーニングデータを用いた逆強化学習により、前記コスト関数を学習する学習処理、および、
 指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出処理を実行させ、
 前記学習処理で、抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習させる
 ためのプランニング支援プログラム。
(付記14)コンピュータに、
 旅行計画を作成する際の制約条件の入力を受け付ける条件入力処理、および、
 前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成処理を実行させる
 付記13記載のプランニング支援プログラム。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1,2 旅行計画支援システム
 10 旅行履歴記憶装置
 40 表示装置
 120,220 学習装置
 121 属性入力部
 122 コスト関数入力部
 123,223 データ抽出部
 124,224 逆強化学習部
 125 学習結果出力部
 126 記憶部
 130,230 旅行計画出力装置
 131 条件入力部
 132 旅行計画生成部
 133 旅行計画出力部
 134 記憶部
 227 コスト関数分類部
 234 コスト関数選択部

Claims (12)

  1.  旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力手段と、
     旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報とを含むトレーニングデータを用いた逆強化学習により、前記コスト関数を学習する学習手段と、
     指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出手段とを備え、
     前記学習手段は、抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習する
     ことを特徴とするプランニング支援システム。
  2.  旅行計画を作成する際の制約条件の入力を受け付ける条件入力手段と、
     前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成手段とを備えた
     請求項1記載のプランニング支援システム。
  3.  旅行計画生成手段は、移動地点の候補の集合と、コスト関数により算出される当該移動地点の候補へ移動する際に生じるコストまたは当該移動地点の候補に滞在する際に生じるコストに基づいて、総コストが最小になる移動または滞在の組み合わせを求めることにより旅行計画を生成する
     請求項2記載のプランニング支援システム。
  4.  旅行計画に含まれる各移動地点間の移動情報を地図上に重畳させて出力する旅行計画出力手段を備えた
     請求項2または請求項3記載のプランニング支援システム。
  5.  コスト関数に含まれる特徴量と、当該特徴量の重みとを対応付けて出力する学習結果出力手段を備えた
     請求項1から請求項4のうちのいずれか1項に記載のプランニング支援システム。
  6.  学習されたコスト関数の内容を識別可能な情報であるラベルを設定するコスト関数分類手段を備え、
     前記コスト関数分類手段は、最も重みが高く設定された特徴量の内容を示すラベルを学習されたコスト関数に設定する
     請求項1から請求項5のうちのいずれか1項に記載のプランニング支援システム。
  7.  データ抽出手段は、予め定めた熟練者の条件を満たす人物のトレーニングデータを抽出する
     請求項1から請求項6のうちのいずれか1項に記載のプランニング支援システム。
  8.  関数入力手段は、移動時間が長いほどコストが高く算出され、移動地点の評価が高いほどコストが低く算出されるコスト関数の入力を受け付ける
     請求項1から請求項7のうちのいずれか1項に記載のプランニング支援システム。
  9.  旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付け、
     旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報とを含むトレーニングデータのうち、指定された属性が前記属性情報に合致するトレーニングデータを抽出し、
     抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習する
     ことを特徴とするプランニング支援方法。
  10.  旅行計画を作成する際の制約条件の入力を受け付け、
     前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する
     請求項9記載のプランニング支援方法。
  11.  コンピュータに、
     旅行者が旅程において意図すると想定される各特徴量にそれぞれ重み付けされた項の線形和で表された、当該旅程において生じるコストを算出するコスト関数の入力を受け付ける関数入力処理、
     旅行者の旅行計画を示す予定情報および当該旅行者の属性を示す属性情報、並びに、当該旅行者の移動実績を示す実績情報とを含むトレーニングデータを用いた逆強化学習により、前記コスト関数を学習する学習処理、および、
     指定された属性が属性情報に合致するトレーニングデータを抽出するデータ抽出処理を実行させ、
     前記学習処理で、抽出されたトレーニングデータを用いた逆強化学習により、前記属性に応じたコスト関数を学習させる
     ためのプランニング支援プログラムを記憶するプログラム記憶媒体。
  12.  コンピュータに、
     旅行計画を作成する際の制約条件の入力を受け付ける条件入力処理、および、
     前記制約条件を満たすように各移動地点の候補を移動する旅行計画のうち、前記コスト関数により算出されるコストが最小になる旅行計画を生成する旅行計画生成処理を実行させるためのプランニング支援プログラムを記憶する
     請求項11記載のプログラム記憶媒体。
PCT/JP2021/003513 2021-02-01 2021-02-01 旅行計画支援システム、方法およびプログラム WO2022162934A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/003513 WO2022162934A1 (ja) 2021-02-01 2021-02-01 旅行計画支援システム、方法およびプログラム
US18/274,909 US20240085196A1 (en) 2021-02-01 2021-02-01 Travel planning assistance system, method, and program
JP2022578001A JPWO2022162934A1 (ja) 2021-02-01 2021-02-01

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/003513 WO2022162934A1 (ja) 2021-02-01 2021-02-01 旅行計画支援システム、方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2022162934A1 true WO2022162934A1 (ja) 2022-08-04

Family

ID=82653062

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/003513 WO2022162934A1 (ja) 2021-02-01 2021-02-01 旅行計画支援システム、方法およびプログラム

Country Status (3)

Country Link
US (1) US20240085196A1 (ja)
JP (1) JPWO2022162934A1 (ja)
WO (1) WO2022162934A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010572A (ja) * 2005-07-01 2007-01-18 Denso Corp ナビゲーションシステム、および、そのナビゲーションシステムに用いる記憶装置
JP2008180591A (ja) * 2007-01-24 2008-08-07 Toyota Motor Corp 走行制御計画生成装置
JP2008292237A (ja) * 2007-05-23 2008-12-04 Denso It Laboratory Inc ナビゲーション装置、ナビゲーション方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010572A (ja) * 2005-07-01 2007-01-18 Denso Corp ナビゲーションシステム、および、そのナビゲーションシステムに用いる記憶装置
JP2008180591A (ja) * 2007-01-24 2008-08-07 Toyota Motor Corp 走行制御計画生成装置
JP2008292237A (ja) * 2007-05-23 2008-12-04 Denso It Laboratory Inc ナビゲーション装置、ナビゲーション方法およびプログラム

Also Published As

Publication number Publication date
US20240085196A1 (en) 2024-03-14
JPWO2022162934A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
CN108286980B (zh) 一种预测目的地和推荐驾驶路线的方法
Chabini Discrete dynamic shortest path problems in transportation applications: Complexity and algorithms with optimal run time
JP6792977B2 (ja) 旅行の複数要因ベースのランク付けのためのシステム及び方法
JP6723721B2 (ja) 旅行プランナーのための旅行再ランキング
Frejinger Route choice analysis: data, models, algorithms and applications
CN107423837A (zh) 旅游路线的智能规划方法及系统
US20140351037A1 (en) Travel planning
Smirnov et al. Intelligent mobile tourist guide: Context-based approach and implementation
Verbas et al. Time-dependent intermodal A* algorithm: Methodology and implementation on a large-scale network
Bucher et al. A heuristic for multi-modal route planning
US20150046081A1 (en) Systems and methods for time management and multipoint navigation
WO2020228626A1 (en) Method and system for recommending multi-modal itineraries
Kazagli et al. Revisiting the route choice problem: A modeling framework based on mental representations
WO2022162934A1 (ja) 旅行計画支援システム、方法およびプログラム
JP7470919B2 (ja) 情報処理方法、情報処理プログラム及び情報処理システム
Rahaman Context-aware mobility analytics and trip planning
Schwinger et al. Mobility-oriented agenda planning as a value-adding feature for mobility as a service
Feng et al. Multi-objective trajectory optimization in planning for sequential activities across space and through time
Sós et al. Effects of Cognitive Biases and Their Fuzzy Measure During Freight Transportation
Tsolkas et al. Busfinder: a personalized multimodal transportation guide with dynamic routing
Choy et al. Hierarchical Service Quality Analysis Using Structural Equation Modeling (SEM): A Case on Malaysian Taxi
Esztergár-Kiss Optimization of multimodal travel chains
US11774257B2 (en) User behavior influence in transportation systems
El-kenawy et al. Mobile Tourism Recommender System for Users to Get a Better Choice of Tour
Veillette et al. Small steps, big differences: assessing the validity of using home and work locations to estimate walking distances to transit

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21922946

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022578001

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18274909

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21922946

Country of ref document: EP

Kind code of ref document: A1