WO2024105981A1 - レコメンド評価装置 - Google Patents

レコメンド評価装置 Download PDF

Info

Publication number
WO2024105981A1
WO2024105981A1 PCT/JP2023/032702 JP2023032702W WO2024105981A1 WO 2024105981 A1 WO2024105981 A1 WO 2024105981A1 JP 2023032702 W JP2023032702 W JP 2023032702W WO 2024105981 A1 WO2024105981 A1 WO 2024105981A1
Authority
WO
WIPO (PCT)
Prior art keywords
store
evaluation
user
visit
recommendation
Prior art date
Application number
PCT/JP2023/032702
Other languages
English (en)
French (fr)
Inventor
裕木子 吉川
哲哉 山口
優樹 勝間田
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2024105981A1 publication Critical patent/WO2024105981A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements

Definitions

  • the present invention relates to a recommendation evaluation device that evaluates recommendations made to a user.
  • Patent Document 1 describes estimating a user's mood based on the manner in which the user operates, and sending suggested activities that match the user's mood to the user as recommendation information.
  • the present invention aims to provide a recommendation evaluation device that can evaluate recommendations.
  • the recommendation evaluation device of the present invention includes an evaluation derivation unit that derives a visit possibility evaluation for a store recommended to a target user and a visit possibility evaluation assuming that no recommendation was made, and a recommendation evaluation unit that derives a recommendation evaluation based on the visit possibility evaluation for the store recommended to the target user and the visit possibility evaluation assuming that no recommendation was made.
  • FIG. 1 is a diagram illustrating an overview of the operation of a recommendation system 100 according to the present disclosure.
  • FIG. 1 is a schematic diagram illustrating the concept of recommendation effect.
  • 1 is a block diagram showing a functional configuration of a recommendation system 100 in the present disclosure.
  • FIG. 11 is a diagram showing a specific example of store information.
  • FIG. 13 is a diagram showing visit history information for each user.
  • FIG. 11 is a diagram showing a specific example of user attribute information.
  • FIG. 11 is a diagram showing a specific example of recommendation history information.
  • 11 is a flowchart for acquiring candidate stores to be visited in the recommendation system 100.
  • 11 is a flowchart showing detailed processing of recommendation evaluation in the recommendation system 100.
  • FIG. 13 is a diagram showing the storage transition of visit history information.
  • FIG. 13 is a schematic diagram showing a process of acquiring a target visit candidate store fx1 by the store acquisition unit 101.
  • FIG. FIG. 1 is a diagram showing stores in the vicinity of a target store. 13 is a schematic diagram showing how to obtain values of candidate stores to be visited from the generated visit history table.
  • FIG. FIG. 13 is a diagram showing how to calculate the attribute evaluation fx2_1. A schematic diagram of a method for calculating the limit evaluation fx2_2 is shown.
  • 1 is a block diagram showing a functional configuration of a learning device 120 that learns a situation model 108.
  • FIG. FIG. 1 is a diagram showing a process for advance preparation for generating a situation model 108.
  • FIG. 11 is a diagram showing a specific example of a learning process of a situation model 108.
  • FIG. 13 is a block diagram showing the functional configuration of a learning device 130 for learning an estimation model 109 for obtaining an irrational evaluation fx3.
  • FIG. 11 is a schematic diagram for explaining the generation of various management tables.
  • FIG. 11 is a diagram showing a learning process using various management tables.
  • FIG. 13 is a diagram showing a process of calculating an unreasonable evaluation fx3 using the estimation model 109.
  • 2 is a block diagram showing the functional configuration of a learning device 140 that learns an evaluation model 110.
  • FIG. FIG. 2 is a schematic diagram showing the operation of the learning device 140.
  • FIG. 11 is a diagram showing detailed processing of a store derivation unit 103 and a recommendation evaluation unit 104.
  • FIG. FIG. 4 is a schematic diagram showing timings of a learning process and an estimation process.
  • FIG. 2 is a diagram showing a specific example of a browsing history storage unit 105a.
  • 13 is a schematic diagram showing a case where a degree of familiarity of each store is calculated from browsing history information.
  • FIG. FIG. 13 is a diagram showing a specific example of a browsing history storage unit 105a that stores whether browsing is due to a recommendation.
  • 13 is a schematic diagram showing a case where a degree of familiarity of each store is calculated from browsing history information.
  • FIG. FIG. 13 is a schematic diagram showing a process taking into account both a visit history and a browsing history.
  • 1 is a diagram illustrating an example of a hardware configuration of a recommendation system 100 according to an embodiment of the present
  • FIG. 1 is a diagram showing an overview of the operation of the recommendation system 100 in the present disclosure.
  • the recommendation system 100 transmits a recommendation message to the user terminal 200 in response to a customer referral request from the store 300.
  • This recommendation message is, for example, information about the store 300, and if the store 300 is a restaurant, the information includes the menu, limited-time sales, and the like.
  • the recommendation message is information for recommending the store 300 to the user.
  • the recommendation system 100 transmits a recommendation to a user terminal 200 owned by a user U, and the user terminal 200 displays (presents) the recommendation message at an appropriate time.
  • a user U visits the store 300.
  • the recommendation system 100 determines whether the user has visited the store. The visit determination is made by a notification from the store 300 or the user terminal 200 to the recommendation system 100.
  • the recommendation system 100 provides feedback to itself to improve recommendation accuracy, and also presents the recommendation effect to the store 300. Depending on the recommendation effect, the store 300 pays a customer referral fee to the recommendation system 100 (its operator).
  • the recommendation system 100 sends a recommendation message to the user terminal 200 (user U) and calculates the recommendation effect (evaluation) of the recommendation message, thereby making it possible to calculate an appropriate compensation for the recommendation.
  • Figure 2 is a schematic diagram showing the concept of recommendation effect.
  • Figure 2(a) is a schematic diagram assuming that user U visits store A when there is no recommendation.
  • Figure 2(b) is a schematic diagram showing an actual case where user U visits store A when there is a recommendation.
  • FIG. 3 is a block diagram showing the functional configuration of the recommendation system 100 according to the present disclosure.
  • the recommendation system 100 includes a store acquisition unit 101, a store evaluation unit 102, an evaluation derivation unit 103, a recommendation evaluation unit 104, a store information storage unit 105, a visit history storage unit 106, a DB management unit 106a, a user attribute storage unit 107, a situation model 108, an estimation model 109, an evaluation model 110, and a recommendation history storage unit 111.
  • the store acquisition unit 101 is a part that acquires candidate stores fx1 to be visited by the user.
  • the store acquisition unit 101 acquires known stores that are available in the user's options from the store information storage unit 105 and the visit history storage unit 106, and acquires candidate stores fx1 that the user is likely to visit based on the known stores. The process of acquiring candidate stores to be visited will be described in detail later.
  • the store evaluation unit 102 is a part that calculates a store evaluation fx2 of each store for a user based on the visit history information stored in the visit history storage unit 106, the user attribute information stored in the user attribute storage unit 107, and the store information stored in the store information storage unit 105.
  • the store evaluation unit 102 calculates an attribute evaluation fx2_1 based on the degree of match between each user's tastes and preferences and the store, based on the attributes of each user.
  • the store evaluation unit 102 also calculates a constraint evaluation fx2_2 of each store based on each user's visitation history and the information on each store.
  • the evaluation derivation unit 103 is a part that inputs the attribute evaluation fx2_1, the constraint evaluation fx2_2, and the irrational evaluation fx3 to the evaluation model 110 and obtains the visit possibility evaluation g(x) that is the output.
  • the irrational evaluation fx3 is obtained from the estimation model 109 based on the user's most recent visit information to the recommended store and other stores.
  • the evaluation derivation unit 103 only needs to input at least one of the attribute evaluation fx2_1, the constraint evaluation fx2_2, and the irrational evaluation fx3, and the estimation model 109 may also learn using at least one of them.
  • the recommendation evaluation unit 104 is a part that evaluates the recommendation effect based on the difference between the visit likelihood evaluation g(x) for a visited store (e.g., store A) and the visit likelihood evaluation g(x) assuming that there was no recommendation.
  • the recommendation evaluation unit 104 refers to the recommendation history storage unit 111 and does not perform a recommendation evaluation for a store (e.g., store A) that has been recommended in the past or within a specified period of time.
  • the store information storage unit 105 is a section that stores store information.
  • Store information is attribute information such as the store's genre and price range.
  • Figure 4 is a diagram showing a specific example of store information. As shown in the diagram, the store information for each store includes the genre, price range, store format, whether or not there is parking, opening hours, area, etc.
  • the genre indicates the type of store, such as a restaurant, clothing store, general goods store, etc.
  • the visit history storage unit 106 is a part that stores visit history information for each user.
  • Figure 5 is a diagram showing a specific example. As shown in the diagram, the visit history information is configured by associating a user ID, visit date and time, store, means of transportation, accompanying person, time period, and candidate stores to be visited.
  • the DB management unit 106a is a part that stores visit history information in the visit history storage unit 106. Each time the user terminal 200 visits, the DB management unit 106a acquires visit information (the same information as the visit history information) from the user terminal 200 or the visited store.
  • the user attribute storage unit 107 is a part that stores user attribute information for each user.
  • FIG. 6 is a diagram showing a specific example of user attribute information. As shown in the diagram, the user attribute information includes a user ID, gender, residence, occupation, etc. In addition to this information, age, family structure, etc. may also be included.
  • the situation model 108 is an estimation model prepared for each user's visiting situation, and is a machine learning model that inputs the user's visiting situation and outputs an evaluation fx2_2 for that store.
  • This situation model 108 is generated for each visiting situation based on the visit history for each user in all areas (means of transportation, whether accompanied, time of day, etc.), and is learned using the user's visiting situation as an explanatory variable and whether or not each store was visited as an objective variable. Therefore, the output of the situation model 108 indicates the possibility of visiting each store.
  • the estimation model 109 is a machine learning model that inputs the user's most recent visit information and outputs an irrational evaluation fx3 that indicates the likelihood of visiting each store.
  • This estimation model 109 is generated by machine learning using the most recent visit information, including the user's visit frequency information for the store (number of times the user has visited, number of days since, genre, etc.) and the user's most recent situation information at that time (weather, previous price range, whether the store was visited, etc.), as explanatory variables, and the presence or absence of the visit as the objective variable. This learning will be described later.
  • the evaluation model 110 is a machine learning model that inputs the store evaluation fx2 (fx2_1, fx2_2) and the irrational evaluation fx3 and outputs a visit likelihood evaluation g(x).
  • This evaluation model 110 is generated by machine learning using the store evaluation fx2 and the irrational evaluation fx3 as explanatory variables and the presence or absence of a visit as the objective variable. This learning will be described later.
  • the recommendation history storage unit 111 is a part that stores recommendation history information for each user.
  • FIG. 7 is a diagram showing a specific example of recommendation history information. As shown in the diagram, the recommendation history information includes the user ID of the user to whom the recommendation was made, the date and time of the recommendation, and the store that was recommended.
  • the attribute model is attribute information for each store prepared for each store, and is generated based on the attributes of users visiting each store. Then, this attribute model may be used to calculate the attribute evaluation fx2_1. Furthermore, learning processing of the situation model 108 and attribute model for calculating the store evaluation fx2 may be performed at this timing.
  • Figure 8 is a flowchart for acquiring candidate stores to be visited in the recommendation system 100.
  • the DB management unit 106a acquires the user status n hours before the visit and stores it in association with the visit history storage unit 106 (S102).
  • FIG. 10(b) shows visit history information reflecting the user status.
  • this user status includes the user's means of transportation, whether or not the user is accompanied, and the time period.
  • the DB management unit 106a may acquire this information directly from the user terminal 200 by user operation, or may acquire information acquired based on a sensor of the user terminal 200, etc.
  • the DB management unit 106a may estimate the means of transportation, whether or not the user is accompanied, etc. based on location information in a DB that registers the location of the user terminal 200.
  • the DB management unit 106a acquires information n hours before the visit.
  • the user terminal 200 or the terminal management server constantly stores the user status, and the DB management unit 106a can acquire information from the user status n hours before.
  • the store acquisition unit 101 acquires the user's candidate stores fx1 (S103) and stores the candidate stores in the visit history storage unit 106 (S104).
  • Figure 10(c) shows visit history information that reflects the candidate stores.
  • the evaluation derivation unit 103 judges whether or not store A is determined to be included in the candidate stores to be visited (S105). Here, if it is determined that store A is not included and the recommendation evaluation unit 104 determines that store A is recommended, the recommendation evaluation unit 104 determines that the recommendation is effective and the processing ends (S106). On the other hand, if it is determined that store A is included, the evaluation derivation unit 103 performs more detailed evaluation processing.
  • FIG. 9 is a flowchart showing the detailed processing of recommendation evaluation in the recommendation system 100.
  • the store evaluation unit 102 calculates the evaluation fx2 of each candidate store to be visited by the target user (S201). More specifically, the store evaluation unit 102 calculates an attribute evaluation fx2_1 and a constraint evaluation fx2_2. Note that a learning process of the situation model 108 for calculating the store evaluation fx2 may be performed at this timing.
  • the evaluation derivation unit 103 calculates an irrational evaluation fx3 for each candidate store to be visited based on statistical information including the user's most recent behavior (S202).
  • the evaluation derivation unit 103 stores the attribute evaluation fx2_1, the constraint evaluation fx2_2, and the irrational evaluation fx3 for the target user in the visit history storage unit 106 (S203).
  • FIG. 10(d) shows a diagram in which the attribute evaluation fx2_1, the constraint evaluation fx2_2, and the irrational evaluation fx3 for the target user are reflected in the visit history information. Note that the learning process of the estimation model 109 for calculating the irrational evaluation fx3 may be performed at this timing.
  • the evaluation derivation unit 103 determines whether the visited store (e.g., store A) has been recommended to the user in the past (or within a predetermined period of time) by referring to the recommendation history storage unit 111 (S204).
  • the evaluation derivation unit 103 determines that the product has been recommended, it calculates the visit probability g(x) using each evaluation (fx2 and fx3), and calculates the recommendation effect using the visit probability g(x) (S205). Specifically, it further calculates the visit probability g(x) assuming that the product had not been recommended, and calculates the recommendation effect by finding the difference between the visit probability g(x) when the product was recommended and the visit probability g(x) assuming that the product had not been recommended. Note that the learning process of the evaluation model 110 for calculating the visit probability g(x) may be performed at this timing.
  • evaluation derivation unit 103 determines that the item is not recommended, it does not perform a recommendation evaluation (S206).
  • the recommendation system 100 can determine the effectiveness of the recommendations.
  • the administrator of the recommendation delivery can determine the delivery fee for the recommendation based on the effectiveness of the recommendation, enabling rational operation.
  • FIGS. 11 to 13 are diagrams showing how to obtain candidate store fx1 to be visited.
  • FIG. 11 is a schematic diagram showing the process of obtaining candidate store fx1 to be visited by the store obtaining unit 101.
  • the store acquisition unit 101 refers to the visit history storage unit 106 to acquire the visit history (see FIG. 10(a)) of the target user (user 101 in FIG. 11) for all areas (S1).
  • the store acquisition unit 101 acquires stores in the same area as the currently visited store from the visit history (S2).
  • the store acquisition unit 101 then tabulates the visit history for each target user, acquires the visit history for the relevant area, and generates a visit history table (S3).
  • FIG. 12 is a diagram showing stores neighboring a target store. As shown in the figure, it may be a good idea to include neighboring stores as candidate stores to be visited. In the present disclosure, neighboring stores within a specified radius, such as a radius of 10 m, from the target store are considered as candidate stores to be visited (FIG. 12(a)). In addition, stores that are in the same tenant as the target store are considered as neighboring stores and candidate stores to be visited (FIG. 12(b)). Information on whether they are in the same tenant may be determined based on the tenant name included in the store information. In FIG. 4, the tenant name is omitted.
  • FIG. 13 is a schematic diagram showing how to find the evaluation value of a candidate store to be visited from the generated visit history table.
  • FIG. 13(a) shows the visit history table. As shown in this figure, this visit history table describes the visit history (frequency) of each store. According to FIG. 13(a), the following stores A to E have the following impressions on the user:
  • the store acquisition unit 101 calculates the degree to which the user remembers each store (degree of familiarity) based on the number of visits to the corresponding area and the corresponding store visits according to this visit history table. The number of visits to an area can be found from the visit history information.
  • the degree of familiarity degree of familiarity is based on the following formula. According to this formula, the degree to which the user remembers can be found based on the number of visits to an area and the interval between visits. The following formula is designed so that the greater the interval between visits, the lower the degree of familiarity.
  • the degree of remembering is not limited to the above formula, and can be determined based on the frequency of visits and/or the interval between visits.
  • the above "day” is a discount rate (coefficient) for discounting the evaluation value based on the number of days since the visit. For example, the coefficient is set to 1/3 after 3 days, 1/10 after 10 days, and so on, decreasing according to the number of days that have passed.
  • FIG. 13(b) is a diagram showing the values for each candidate store to be visited acquired by the store acquisition unit 101.
  • stores F and G which are nearby stores A to E, are added to this group of stores.
  • Stores A to E have their evaluation values (degree of familiarity: degree to which the user remembers them) calculated as described above.
  • Stores F and G have not been visited, so they do not have evaluation values. Therefore, the store acquisition unit 101 calculates evaluation values for nearby stores F and G by multiplying the evaluation values of stores A and B, which were derived to determine nearby stores F and G as nearby stores, by a specified coefficient.
  • Stores with high evaluation values are added as candidates because there is a possibility that the user also knows the nearby stores.
  • Candidate stores to be visited by the user are extracted using a threshold value that would be considered a candidate if the value was higher than this threshold.
  • the store acquisition unit 101 designates stores with evaluation values equal to or greater than a threshold as candidate stores to be visited fx1. These evaluation values may be used for the visit probability evaluation g(x) described below. This allows not only the stores to be calculated as candidate stores, but also the evaluation value of the store as candidate stores to be visited fx1 to be treated equally to evaluations fx2 and fx3 described below, allowing a more accurate evaluation to be calculated.
  • FIG. 14 is a diagram showing how to calculate store evaluation fx2. As a preliminary step, the following process is performed. As shown in FIG. 14(a), based on the visit history information in the visit history storage unit 106 and the user attribute information in the user attribute storage unit 107, users who visited each store and their user attribute information are obtained. In FIG. 14(a), for example, attribute information (visiting user attribute history) of users visiting store A is obtained.
  • statistical user information is generated for each store.
  • This statistical user information is generated based on the visiting user attribute history, and is based on the average, median, or mode. Note that for items such as residence and occupation for which the average or median cannot be calculated, the information may be based on the mode.
  • This unit may be provided in the recommendation system 100 or in an external device.
  • FIG. 14(c) is a diagram showing user attribute information.
  • the calculation process of the attribute evaluation fx2_1 for a store is shown using FIG. 14(b) and FIG. 14(c).
  • the store evaluation unit 102 calculates the similarity between the user attribute information of the target user (FIG. 14(c)) and the statistical user information for each store (visiting user attribute history, FIG. 14(b)), and sets this similarity as the attribute evaluation fx2_1.
  • the store evaluation unit 102 refers to the user attribute storage unit 107 to acquire user attribute information to be evaluated for recommendation effectiveness.
  • the store evaluation unit 102 calculates the similarity between the attribute information of each store in the candidate stores fx1 to be visited and the attribute information of the user, thereby calculating an evaluation fx2_1 for each store.
  • the similarity is calculated using cosine similarity, but is not limited to this.
  • a predicted visit value calculated from the attributes of a user visiting a store and whether or not they will visit can also be used as an evaluation value.
  • an attribute evaluation model can be used to input user attributes and use a model that estimates the likelihood of a visit for that user.
  • the attribute evaluation model is trained using user attributes as explanatory variables and whether or not they will visit as a target variable.
  • the attribute evaluation fx2_1 is calculated from the attributes of a user visiting a store and whether or not they will visit, and the method of calculating a store evaluation based on user attributes is not limited to the above.
  • Figure 15 shows a schematic diagram.
  • the store evaluation unit 102 acquires the visit status of the target user (user 101) from the visit history storage unit 106. This situation information is based on n hours prior to the user's visit to the store. Then, a situation model 108 created for each user is selected according to the situation. Multiple situation models 108 are prepared in advance according to situation patterns, and the store evaluation unit 102 selects the situation model 108 that matches the pattern that is closest to the user's visit status n hours prior.
  • the store evaluation unit 102 refers to the store information storage unit 105 to acquire store information for the candidate store fx1 to be visited.
  • the store evaluation unit 102 then inputs this store information into the situation model 108.
  • the store evaluation unit 102 acquires the constraint evaluation fx2_2 for each store output from the situation model 108.
  • FIG. 16 is a block diagram showing the functional configuration of a learning device 120 that learns the situation model 108.
  • This learning device 120 may be provided in the recommendation system 100, or may exist separately from the recommendation system 100.
  • the learning device 120 includes a visiting situation pattern classification unit 121 and a learning unit 122.
  • FIG. 17 is a diagram showing the process for advance preparation for generating a situation model 108.
  • the visit situation pattern classification unit 121 refers to the visit history storage unit 106 and acquires the situation information (means of transportation, accompanying person, ...time period, etc.). As described above, this situation information indicates the situation n hours before the user visited the store.
  • the visit situation pattern classification unit 121 classifies the situation information for each pattern. Classification is performed by narrowing down the patterns into which a certain number of visit histories (e.g., five or more visits) can be classified.
  • the learning unit 122 generates a situation pattern when the user visits.
  • the learning unit 122 determines which situation pattern occurred for each store visited, and assigns a value of 1 to stores visited in each pattern and a value of 0 to stores not visited.
  • FIG. 18 is a diagram showing a specific example of the learning process of the situation model 108.
  • the learning unit 122 For each store stored in the visit history storage unit 106, the learning unit 122 reads out store information for each store from the store information storage unit 105 and assigns it to each pattern (FIG. 17(c)). The learning unit 122 then uses machine learning to learn the situation model 108 for each pattern, with the store information as an explanatory variable and the presence or absence of a visit as an objective variable. This situation model 108 is learned for each user's pattern.
  • the learning method of the situation model 108 is not limited to the above.
  • the constraint evaluation fx2_2 may be calculated from the situation immediately before the user visiting the store and whether or not the user visited the store, and the method of calculating the evaluation of the store based on the user's situation is not limited to the above.
  • an estimation model that takes into account both the attribute evaluation fx2_1 and the constraint evaluation fx2_2 may be used.
  • the degree of match between the tastes of the user and the store may not be divided into fx2_1 and fx2_2, but may be calculated as a single evaluation value.
  • This learning device 120 performs learning processing using visit history information of candidate stores to be visited at the time of the target user's visit each time the target user visits, regardless of whether a recommendation is made or not, but the learning processing may also be performed collectively at certain intervals.
  • FIG. 19 is a block diagram showing the functional configuration of a learning device 130 for learning an estimation model 109 for obtaining the irrational evaluation fx3.
  • FIG. 20 is a schematic diagram for explaining the generation of various management tables.
  • FIG. 21 is a diagram showing the learning process using these various management tables.
  • the acquisition unit 131 refers to the visit history storage unit 106 to acquire the visit history of the same user.
  • the acquisition unit 131 also refers to the store information storage unit 105 to acquire store information of stores found in the visit history, and generates the associated store information table 130a.
  • the acquisition unit 131 tabulates the data by area and genre to acquire the previous visit history information table 130b.
  • This "previous visit history information table 130b" includes the previous comparison status (previous price range, etc.), which is the visit status compared to the previous store visited by the user, the store visit status, which is the visit status for the stores visited by the user (frequency of eating out, percentage of genre A, etc.), and statistical information based on external information, which is the area congestion level and area weather, extracted from an external server. At least one of the previous comparison status, store visit status, and external information is sufficient.
  • the acquisition unit 131 also compiles the user's visit status for each store for each store, acquires the previous visit history, and acquires a visit status table 130c.
  • This "visit status table 130c" is statistical information that indicates the visit history status, such as the frequency of visits to each store and the visit interval.
  • the learning unit 132 acquires candidate stores to be visited from the visit history storage unit 106, and uses information associating the visit history status of the candidate store with the previous comparison status, store visit status, and external information as explanatory variables, and whether or not the store was actually visited as an objective variable, to learn an estimation model 109 through machine learning.
  • the objective variable is set to 1 if the store was visited and 0 if the store was not visited. Note that the evaluation value of each store obtained when acquiring the candidate stores to be visited fx1 described above may also be used as an explanatory variable.
  • estimation model 109 for calculating the probability of visiting based on irrational information such as the user's mood at the time, i.e., irrational evaluation.
  • learning of the estimation model 109 is not limited to the above, and a separate model may be constructed by learning that calculates the predicted visit value of each store based on the user's tendency to visit genres and areas, etc.
  • This learning device 130 performs learning processing using visit history information every time the target user visits, regardless of whether a recommendation is made or not, but it may also perform learning processing collectively at certain intervals.
  • the above statistical information is stored as reference information for calculating whether the user is likely to visit a store at that time.
  • these statistical information are reference information for obtaining features related to the user's mood.
  • statistical information such as the user's most recent visit history and past visit frequency is used, but other information may also be included since the purpose is to calculate the possibility of a visit based on the user's mood on that day.
  • FIG. 22 is a diagram showing the process of calculating the unreasonable evaluation fx3 using the estimation model 109.
  • the evaluation derivation unit 103 can calculate the visit possibility evaluation g(x) for each store for the target user by inputting the previous comparison situation, store visit situation, and external information into the estimation model 109 for the target user. As described above, this estimation model 109 may be learned using the evaluation value of each store as an explanatory variable. However, without being limited to this, the final visit possibility g(x) may be obtained by adding or multiplying the evaluation value used when obtaining the candidate store to be visited fx1 to this visit possibility evaluation g(x) for each store.
  • FIG. 23 is a block diagram showing the functional configuration of a learning device 140 that learns the evaluation model 110.
  • FIG. 24 is a schematic diagram showing the operation of the learning device 140.
  • the learning device 140 is equipped with a learning unit 140a.
  • This learning unit 140a retrieves the store evaluation fx2, irrational evaluation fx3, and recommendation history calculated as described above from a database in which they are stored in association with the results of visits to each store at that time, and learns by machine learning using the store evaluation fx2, irrational evaluation fx3, and recommendation history as explanatory variables and the results of visits to each store as objective variables. This generates the evaluation model 110.
  • This learning device 140 performs learning processing using the store evaluation fx2 and the unreasonable evaluation fx3 calculated using the visit history information each time the target user visits, regardless of whether a recommendation is made or not, but the learning processing may be performed collectively at certain intervals.
  • Figure 25 is a diagram showing the detailed processing of the evaluation derivation unit 103 and the recommendation evaluation unit 104.
  • the evaluation derivation unit 103 inputs the store evaluation fx2, restricted evaluation fx3, and information on the presence of a recommendation for a recommended store to the evaluation model 110, and the evaluation model 110 outputs the visit possibility g(x).
  • the evaluation derivation unit 103 inputs the store evaluation fx2, restricted evaluation fx3, and information on the absence of a recommendation for a recommended store to the evaluation model 110, and the evaluation model 110 outputs the visit possibility evaluation g(x) assuming that there is no recommendation.
  • the recommendation evaluation unit 104 calculates the difference between the visit likelihood rating g(x) of the recommended store and the visit likelihood rating g(x) assuming no recommendation. This difference becomes the recommendation rating for the recommended store.
  • the operator who manages the recommendation delivery can determine the recommendation fee based on the recommendation rating.
  • FIG. 26 is a schematic diagram showing the timing of the estimation process and the learning process.
  • the recommendation system 100 calculates a potential store to visit fx1, a store rating fx2, and an irrational rating fx3, and if the store is stored in the recommendation history storage unit 111 (if it is a recommended target), it calculates a visit likelihood rating g(x).
  • each learning model from the previous day is used.
  • the learning process for each learning model is carried out at an appropriate time. It could be at the time of the visit or on the evening of the day of the visit.
  • the recommendation system 100 performs processing assuming recommendation information sent via push notifications, but is not limited to this. It can also be applied to media such as web advertising.
  • a model may be used in which the candidate stores fx1 and store rating fx2 are included in a separate function as the input of the visit possibility rating g(x), just like the input information of the irrational rating fx3.
  • a model may be used in which the candidate stores fx1 and store rating fx2 are derived from the input information before passing through the function of the irrational rating fx3, without calculating the irrational rating fx3.
  • g(x) may be obtained from the input information without passing through a function, without calculating the stores fx1, store rating fx2, and irrational rating fx3.
  • the input information includes at least one of store information, user visit history, user attributes, and recommendation history.
  • the machine learning methods (machine learning models) for the candidate stores to visit fx1, store evaluation fx2, irrational evaluation fx3, and visit likelihood evaluation g(x) may be other than those disclosed above. Furthermore, the calculation methods for each may be determined by other methods rather than using machine learning methods.
  • the objective variable for the visit probability evaluation g(x) may be expanded from “visited on that day” to “visited within one week of the recommendation," for example.
  • a form may be used in which the visitability evaluation g(x) is used to decide whether or not to send a recommendation.
  • the recommendation system 100 may not make a recommendation to that user or that store.
  • the generation of statistical user information and other learning models can be limited to items that match the purpose of store evaluation fx2 and irrational evaluation fx3. For example, for store evaluation fx2, time series such as whether the user has made consecutive visits or whether they have made many recent visits can be eliminated, and items can be selected accordingly.
  • candidate stores fx1 of similar users may be added.
  • the values of candidate stores fx1 of similar users may be used, and stores with the highest values may be added in order.
  • the store evaluation fx2 of the target user may be calculated and averaged from the store evaluation fx2 of similar users.
  • the irrational evaluation fx3 of the target user may be determined by calculating and averaging the evaluation values of the irrational evaluation fx3 of similar users.
  • the target user's data previously store consecutive, etc.
  • modeling is performed using data from similar users. Narrow down to similar users who have data on their second visit to store A. For example, use the cumulative data (including stores other than A) up until the similar user's second visit to store A. Using the data from that time, the result calculated using the user's current fx1/fx2/fx3 is used as learning data for the target user's visit likelihood assessment g(x).
  • the store acquisition unit 101 calculates the degree to which the user remembers a store from the number of visits to the area and the corresponding store visits, and based on that, determines candidate stores to visit.
  • the store acquisition unit 101 acquires the browsing history of store information for each user, and calculates the familiarity of the store information (corresponding to the confirmation degree of the store) based on the browsing time and number of views. Stores with a high familiarity are set as candidate stores to be visited.
  • users can view store information using a smartphone, PC, or tablet device via the web or other applications.
  • FIG. 27 is a block diagram showing the functional configuration of a recommendation system 100a in this modified example.
  • the recommendation system 100a in this modified example includes a browsing history storage unit 105a in addition to the functional configuration of the recommendation system 100 in FIG. 3.
  • the store acquisition unit 101 refers to the browsing history storage unit 105a to acquire the candidate stores fx1 to be visited.
  • FIG. 28 is a diagram showing a specific example of the browsing history storage unit 105a.
  • the browsing date and time, browsing time, and viewed store information are stored in association with each other for each user.
  • This information is acquired from the user terminal that viewed the page, but it may also be acquired by other methods, for example, by the recommendation system 100a collecting the information from the user terminal, or by other well-known internet connection providers providing the information to the recommendation system 100a.
  • the store acquisition unit 101 calculates the degree of familiarity for each store based on the viewing time and the time elapsed since the viewing for each store.
  • the following is an example of a formula for calculating the degree of familiarity.
  • the above "day” is a discount rate (coefficient) for discounting the evaluation value based on the number of days that have passed since the visit.
  • the coefficient is set to 1/3 after 3 days, 1/10 after 10 days, and so on, so that the coefficient decreases according to the number of days that have passed.
  • FIG. 29 is a schematic diagram of when a value (degree of awareness) for each store is calculated from browsing history information.
  • FIG. 29(a) is a diagram showing browsing history information
  • FIG. 29(b) is a diagram showing the degree of awareness for each store.
  • FIG. 29(b) shows the results calculated based on the above formula.
  • the values in the table indicate the degree of awareness.
  • the store acquisition unit 101 acquires candidate stores fx1_1 to be presented to the user. As described above (see FIG. 12), the store acquisition unit 101 may also select nearby stores as candidate stores to be visited based on the browsing information.
  • This formula is created based on the idea that a store with a long viewing time and a large number of visits has a high degree of familiarity.
  • the formula is set to remove the store from the candidates.
  • t is set as an amplification factor according to the number of views. For example, if the number of views is 3 or more, it is multiplied by 1.3. This amplification factor is set for t so that the more the number of views, the longer the viewing time. The more the number of views, the larger the amplification factor, and therefore the degree of familiarity is highly evaluated.
  • FIG. 30 is a diagram showing a specific example of the browsing history storage unit 105a that stores whether or not browsing is due to a recommendation. As shown in the figure, whether or not it is due to a recommendation is further stored. Whether or not it is due to a recommendation is stored by the recommendation system 100 sending a recommendation to the user terminal 200 and determining that the user terminal 200 has browsed the web based on the recommendation. This determination is made by processing such as receiving a notification from the user terminal 200 that the user has browsed the web within a predetermined time after receiving the recommendation. Alternatively, the recommendation system 100 may periodically access the user terminal 200 and collect information that the user terminal has browsed the web related to the recommendation within a predetermined time after sending the recommendation.
  • FIG. 31 is a schematic diagram of the degree of familiarity of each store calculated from the browsing history information.
  • FIG. 31(a) is a diagram showing the browsing history information
  • FIG. 31(b) is a diagram showing the degree of familiarity of each store.
  • FIG. 31(b) shows the results calculated based on the above formula. Note that if the number of visits is large, the browsing time will be short, so this may be amplified. For example, for stores that have been visited a predetermined number of times or more based on the visit history in the visit history information, the value may be multiplied by a coefficient greater than 1.
  • processing may be performed that takes into account both visit history and browsing history.
  • the store evaluation unit 102 may evaluate the candidate store fx1_1 obtained from the browsing history information as the subject of store evaluation, or may evaluate only the candidate store fx1_1 obtained from the visit history information as the subject of store evaluation, or may evaluate both.
  • the value (familiarity) of the candidate store fx_1 may be adjusted by weighting it.
  • FIG. 32 is a schematic diagram showing processing that takes into account both visit history and browsing history.
  • Figure 32(a) shows candidate stores to be visited and their evaluation values determined based on the visit history stored in the visit history storage unit 106.
  • the presence or absence of a visit history is also associated.
  • the presence or absence of a visit history is determined based on the visit history information (see Figure 13(a)).
  • Figure 32(b) shows candidate stores to be visited and their evaluation values based on the browsing history storage unit 105a. Note that only stores with high evaluation values are used, and the others are set to 0. Stores with low evaluation values can be considered as stores that were hardly visited.
  • the store acquisition unit 101 uses this information to find candidate stores fx1 to be visited using both the visit history and the browsing history.
  • the store acquisition unit 101 When the store acquisition unit 101 obtains the online candidate store information and offline candidate store information, it uses the following formula ( Figure 32 (c)) to obtain an evaluation value for each store. According to this formula, evaluations are made separately for visited and unvisited stores. Visited stores are given a higher evaluation.
  • the offline evaluation value indicates an evaluation value (degree of familiarity) based on a visit history
  • the online evaluation value indicates an evaluation value (degree of familiarity) based on a browsing history.
  • Figure 32(d) shows the results.
  • the evaluation value is 0, and for stores with no visit history, an evaluation value is calculated.
  • the store acquisition unit 101 can derive candidate stores fx1 to be visited based on this evaluation value.
  • neighboring stores have been omitted to simplify the explanation, but it goes without saying that neighboring stores may also be taken into consideration when deriving candidate stores fx1 to be visited.
  • the evaluation value of a neighboring store may be adjusted by multiplying it by a predetermined coefficient.
  • the recommendation system 100 disclosed herein includes an evaluation derivation unit 103 that derives a visit likelihood evaluation g(x) for a store recommended to a target user and a visit likelihood evaluation g(x) assuming that there is no recommendation, and a recommendation evaluation unit 104 that derives a recommendation evaluation based on the visit likelihood evaluation g(x) for a store recommended to a target user and the visit likelihood evaluation assuming that there is no recommendation.
  • This disclosure allows recommendation evaluations to be carried out appropriately. Therefore, recommendation operators can reasonably request fees.
  • the evaluation derivation unit 103 derives a visit possibility evaluation g(x) based on at least one of the user's attribute evaluation fx2_1 for the recommended store, the constraint evaluation fx2_2 according to the user's visit situation when visiting the recommended store, and the irrational evaluation fx3 based on the user's most recent visit information for the recommended store and other stores.
  • this information can be used to appropriately determine the possibility of a user visiting.
  • the evaluation derivation unit 103 uses the evaluation model 110 trained by machine learning to input at least one of the attribute evaluation fx2_1, the restriction evaluation fx2_2, and the irrational evaluation fx3 to derive the visit likelihood evaluation g(x).
  • the evaluation model 110 is prepared for learning purposes, and is trained using at least one of the attribute evaluation fx2_1, the constraint evaluation fx2_2, and the irrational evaluation fx3 indicating the most recent visit information for a store (e.g., the above-mentioned candidate store) based on the store visited by the user, as explanatory variables, and the presence or absence of a recommendation, and the presence or absence of a visit as the objective variable.
  • a store e.g., the above-mentioned candidate store
  • the data on which learning is based is based on candidate stores to be visited, but it is not limited thereto, and may also be based on stores that have not been visited, stores that are not in the vicinity, etc.
  • the recommendation system 100 disclosed herein further includes a store evaluation unit 102 that performs a store evaluation fx2 on a candidate store fx1 selected based on the user's behavior (visit).
  • the evaluation derivation unit 103 derives a visit possibility evaluation g(x) based on the store evaluation fx2 of the candidate store.
  • the recommendation system 100 further includes a visit history storage unit 106 that stores visit history (date and time, store, means of transportation, etc.) for each user, and a user attribute storage unit 107 that stores user attribute information (age, gender, etc.) for each user.
  • the store evaluation unit 102 obtains the attribute trends (age, gender, etc.) of the visiting users from the visit history and user attribute information.
  • This attribute trend is, for example, the statistical user information described above, and is information that indicates the attribute trends of users who visited each store.
  • the store evaluation unit 102 derives an attribute evaluation fx2_1 for the target user for each candidate store, based on the user attributes and attribute trends of the target user.
  • This disclosure allows users to evaluate stores based on their preferences.
  • the recommendation system 100 further includes a situation model 108, which is generated for each user's visit situation based on the user's visit history (such as the means of transportation, whether or not the user is accompanied, and the time of day).
  • a plurality of situation models 108 are generated. This situation model 108 inputs the user's visit situation and outputs an evaluation value for the store.
  • the store evaluation unit 102 selects a situation model 108 that corresponds to the user's visiting situation, and derives a constraint evaluation fx2_2 of the store for the user from that situation model 108.
  • the situation model 108 links the store information of the stores visited in the visit situation corresponding to the visit situation pattern classified from the user's visit history, and is learned by machine learning for each visit situation pattern with the store information prepared for each store as an explanatory variable and the visit situation pattern for each store as an objective variable.
  • this situation model 108 is learned by a learning device 120.
  • This learning device 120 is configured to be accessible to a store information storage unit 105 that stores store information for each store.
  • the learning device 120 also includes a visit history storage unit 106 that stores the visit history of all users, a visit situation pattern classification unit 121 that classifies the visit history into a visit situation pattern, and a learning unit 122 that links the visit situation pattern with store information of the store visited in the visit situation corresponding to the visit situation pattern, and learns the situation model 108 for each visit situation pattern by machine learning using store information as an explanatory variable and the presence or absence of visit in the visit situation pattern for each store as an objective variable.
  • the recommendation system 100 further includes an estimation model 109 that inputs the most recent visit information for each store and outputs an irrational evaluation fx3 for the store.
  • the evaluation derivation unit 103 uses the estimation model 109 to derive a visit likelihood evaluation g(x).
  • This estimation model 109 is generated through learning by the learning device 130.
  • This learning device 130 includes an acquisition unit 131 that acquires most recent visit information including the user's visit frequency information (number of times the user has visited the store, number of days since the visit, genre, etc.) and the user's most recent situation information at that time (weather, previous price range, whether or not the store was visited, etc.) from the user's candidate visit information (visit date and time, visited store, and candidate stores at that time), and a learning unit 132 that learns the estimation model 109 using the most recent visit information for each store as an explanatory variable and the presence or absence of visit to each store as a target variable.
  • the user's visit frequency information number of times the user has visited the store, number of days since the visit, genre, etc.
  • the user's most recent situation information at that time weather, previous price range, whether or not the store was visited, etc.
  • a learning unit 132 that learns the estimation model 109 using the most recent visit information for each store as an ex
  • the evaluation derivation unit 103 uses the estimation model 109 to derive the irrational evaluation fx3.
  • the recommendation system 100 disclosed herein includes a visit history storage unit 106 that stores visit history (date and time, store, means of transportation, etc.) for each user, and a store acquisition unit 101 that functions as a store derivation unit that derives visited stores or nearby stores in the vicinity of the visited stores as candidate stores based on the visit history.
  • the evaluation derivation unit 103 derives evaluations for the candidate stores.
  • This configuration allows stores that a user has never visited to be subject to evaluation.
  • the recommendation evaluation device which is the recommendation system 100 of the present invention, has the following configuration.
  • an evaluation deriving unit that derives a visit possibility evaluation for a store recommended to a target user and a visit possibility evaluation in a case where the recommendation was not made; a recommendation evaluation unit that derives a recommendation evaluation based on a visit possibility evaluation for the recommended store and a visit possibility evaluation assuming that the recommendation was not made;
  • a recommendation evaluation device comprising:
  • the evaluation derivation unit is At least an attribute evaluation by a user regarding the store; A constraint evaluation according to the user's visit status when visiting the store; and an irrational evaluation based on the user's most recent visit information to the store. Derive a visitability rating based on one of the The recommendation evaluation device according to [1].
  • the evaluation derivation unit is Using a rating model trained by machine learning, deriving the visitability rating by inputting at least one of the attribute rating, the constraint rating, and the irrational rating;
  • the evaluation model is A learning model is prepared for learning, and is learned using at least one of attribute evaluation, constraint evaluation, and irrational evaluation of a store based on the store visited by the user and the presence or absence of a recommendation as explanatory variables, and the presence or absence of a visit as the objective variable.
  • the recommendation evaluation device according to [2].
  • a store evaluation unit that evaluates candidate stores selected based on user behavior; Further equipped with The evaluation deriving unit derives a visit possibility evaluation based on the evaluation of the candidate store.
  • the recommendation evaluation device according to any one of [1] to [3].
  • a visit history storage unit that stores a visit history for each user; an attribute storage unit that stores user attribute information for each user; Further equipped with The store evaluation unit is acquiring, for each store, attribute trends of users who visited the store from the visit history and the user attribute information; Deriving an evaluation for the user for each candidate store based on the user attributes of the user and the attribute tendencies; The recommendation evaluation device according to [4].
  • a situation model is generated for each visiting situation based on the user's visiting history, and inputs the visiting situation of the user to output an evaluation value for the store,
  • the store evaluation unit is Selecting a situation model corresponding to the user's visit situation, and deriving a visitability evaluation of the store using the situation model;
  • the recommendation evaluation device according to [4] or [5].
  • the situation model is A visiting situation pattern classified from the visit history of the user is associated with store information of a store visited in a visiting situation corresponding to the visiting situation pattern, For each visit pattern, store information prepared for each store is used as an explanatory variable, and the presence or absence of visit in each store's visit pattern is used as the objective variable.
  • the recommendation evaluation device according to [6].
  • the system further includes an estimation model that receives most recent visit information for each store and outputs an irrational evaluation of the store,
  • the evaluation derivation unit derives the visitability evaluation using the estimation model.
  • the recommendation evaluation device according to any one of [1] to [7].
  • the estimation model is From the user's visit history, for each store, information on the frequency of the user's visit to that store and most recent visit information including the user's most recent situation information at that time are used as explanatory variables, and learning is performed using whether or not each store has been visited as a target variable.
  • the recommendation evaluation device according to [8].
  • a visit history storage unit that stores a visit history for each user; a store selection unit that selects a visited store or a neighboring store located near the visited store as a candidate store based on the visit history; Equipped with The evaluation derivation unit derives an evaluation for the candidate store.
  • the recommendation evaluation device according to any one of [1] to [9].
  • each functional block may be realized using one device that is physically or logically coupled, or may be realized using two or more devices that are physically or logically separated and connected directly or indirectly (e.g., using wires, wirelessly, etc.) and these multiple devices.
  • the functional blocks may be realized by combining the one device or the multiple devices with software.
  • Functions include, but are not limited to, judgement, determination, judgment, calculation, computation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, resolution, selection, election, establishment, comparison, assumption, expectation, regard, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, and assignment.
  • a functional block (component) that performs the transmission function is called a transmitting unit or transmitter.
  • the recommendation system 100 in one embodiment of the present disclosure may function as a computer that performs processing of the recommendation evaluation method of the present disclosure.
  • FIG. 33 is a diagram showing an example of a hardware configuration of the recommendation system 100 according to one embodiment of the present disclosure.
  • the above-mentioned recommendation system 100 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, etc.
  • the term "apparatus” can be interpreted as a circuit, device, unit, etc.
  • the hardware configuration of the recommendation system 100 may be configured to include one or more of the apparatuses shown in the figure, or may be configured to exclude some of the apparatuses.
  • Each function in the recommendation system 100 is realized by loading specific software (programs) onto hardware such as the processor 1001 and memory 1002, causing the processor 1001 to perform calculations, control communications via the communication device 1004, and control at least one of the reading and writing of data in the memory 1002 and storage 1003.
  • the processor 1001 operates an operating system to control the entire computer.
  • the processor 1001 may be configured with a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic unit, a register, etc.
  • CPU central processing unit
  • the above-mentioned store acquisition unit 101, store evaluation unit 102, evaluation derivation unit 103, recommendation evaluation unit 104, etc. may be realized by the processor 1001.
  • the processor 1001 also reads out programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these.
  • the programs used are those that cause a computer to execute at least some of the operations described in the above-mentioned embodiments.
  • the store acquisition unit 101 may be implemented by a control program stored in the memory 1002 and running on the processor 1001, and similar implementations may be made for other functional blocks.
  • the above-mentioned various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001.
  • the processor 1001 may be implemented by one or more chips.
  • the programs may be transmitted from a network via a telecommunications line.
  • Memory 1002 is a computer-readable recording medium, and may be composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), etc. Memory 1002 may also be called a register, cache, main memory (primary storage device), etc. Memory 1002 can store executable programs (program codes), software modules, etc. for implementing a recommendation evaluation method according to one embodiment of the present disclosure.
  • ROM Read Only Memory
  • EPROM Erasable Programmable ROM
  • EEPROM Electrical Erasable Programmable ROM
  • RAM Random Access Memory
  • Memory 1002 may also be called a register, cache, main memory (primary storage device), etc.
  • Memory 1002 can store executable programs (program codes), software modules, etc. for implementing a recommendation evaluation method according to one embodiment of the present disclosure.
  • Storage 1003 is a computer-readable recording medium, and may be, for example, at least one of an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (e.g., a compact disk, a digital versatile disk, a Blu-ray (registered trademark) disk), a smart card, a flash memory (e.g., a card, a stick, a key drive), a floppy (registered trademark) disk, a magnetic strip, etc.
  • Storage 1003 may also be referred to as an auxiliary storage device.
  • the above-mentioned storage medium may be, for example, a database, a server, or other suitable medium including at least one of memory 1002 and storage 1003.
  • the communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called, for example, a network device, a network controller, a network card, or a communication module.
  • the communication device 1004 may be configured to include a high-frequency switch, a duplexer, a filter, a frequency synthesizer, etc., to realize at least one of, for example, Frequency Division Duplex (FDD) and Time Division Duplex (TDD).
  • FDD Frequency Division Duplex
  • TDD Time Division Duplex
  • This communication device 1004 may be implemented with a transmitting unit and a receiving unit that are physically or logically separated.
  • the input device 1005 is an input device (e.g., a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts input from the outside.
  • the output device 1006 is an output device (e.g., a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may be integrated into one structure (e.g., a touch panel).
  • each device such as the processor 1001 and memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured using a single bus, or may be configured using different buses between each device.
  • the recommendation system 100 may also be configured to include hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA), and some or all of the functional blocks may be realized by the hardware.
  • the processor 1001 may be implemented using at least one of these pieces of hardware.
  • the notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods.
  • the notification of information may be performed by physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, broadcast information (MIB (Master Information Block), SIB (System Information Block))), other signals, or a combination of these.
  • the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, etc.
  • the input and output information may be stored in a specific location (e.g., memory) or may be managed using a management table.
  • the input and output information may be overwritten, updated, or added to.
  • the output information may be deleted.
  • the input information may be sent to another device.
  • the determination may be based on a value represented by one bit (0 or 1), a Boolean value (true or false), or a numerical comparison (e.g., with a predetermined value).
  • notification of specific information is not limited to being done explicitly, but may be done implicitly (e.g., not notifying the specific information).
  • Software shall be construed broadly to mean instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, threads of execution, procedures, functions, etc., whether referred to as software, firmware, middleware, microcode, hardware description language, or otherwise.
  • Software, instructions, information, etc. may also be transmitted and received via a transmission medium.
  • a transmission medium For example, if the software is transmitted from a website, server, or other remote source using at least one of wired technologies (such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)), and/or wireless technologies (such as infrared, microwave, etc.), then at least one of these wired and wireless technologies is included within the definition of a transmission medium.
  • wired technologies such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)
  • wireless technologies such as infrared, microwave, etc.
  • the information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies.
  • the data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be represented by voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any combination thereof.
  • At least one of the channel and the symbol may be a signal (signaling).
  • the signal may be a message.
  • a component carrier (CC) may be called a carrier frequency, a cell, a frequency carrier, etc.
  • a radio resource may be indicated by an index.
  • the names used for the parameters described above are not intended to be limiting in any way. Furthermore, the formulas etc. using these parameters may differ from those explicitly disclosed in this disclosure.
  • the various channels (e.g., PUCCH, PDCCH, etc.) and information elements may be identified by any suitable names, and the various names assigned to these various channels and information elements are not intended to be limiting in any way.
  • MS Mobile Station
  • UE User Equipment
  • a mobile station may also be referred to by those skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology.
  • determining may encompass a wide variety of actions.
  • Determining and “determining” may include, for example, judging, calculating, computing, processing, deriving, investigating, looking up, search, inquiry (e.g., searching in a table, database, or other data structure), and considering ascertaining as “judging” or “determining.”
  • determining and “determining” may include receiving (e.g., receiving information), transmitting (e.g., sending information), input, output, accessing (e.g., accessing data in memory), and considering ascertaining as “judging” or “determining.”
  • judgment” and “decision” can include considering resolving, selecting, choosing, establishing, comparing, etc., to have been “judged” or “decided.” In other words, “judgment” and “decision” can include considering some action to have been “judged” or “decided.” Additionally, “judgment (decision)” can be interpreted as “assuming,” “ex
  • connection refers to any direct or indirect connection or coupling between two or more elements, and may include the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to one another.
  • the coupling or connection between elements may be physical, logical, or a combination thereof.
  • “connected” may be read as "access.”
  • two elements may be considered to be “connected” or “coupled” to one another using at least one of one or more wires, cables, and printed electrical connections, as well as electromagnetic energy having wavelengths in the radio frequency range, microwave range, and optical (both visible and invisible) range, as some non-limiting and non-exhaustive examples.
  • the phrase “based on” does not mean “based only on,” unless expressly stated otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • any reference to an element using a designation such as "first,” “second,” etc., used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient method of distinguishing between two or more elements. Thus, a reference to a first and a second element does not imply that only two elements may be employed or that the first element must precede the second element in some way.
  • a and B are different may mean “A and B are different from each other.”
  • the term may also mean “A and B are each different from C.”
  • Terms such as “separate” and “combined” may also be interpreted in the same way as “different.”
  • 100... recommendation system 200... user terminal, 300... store, 101... store acquisition unit, 102... store evaluation unit, 103... evaluation derivation unit, 104... recommendation evaluation unit, 105... store information storage unit, 106... visit history storage unit, 106a... DB management unit, 107... user attribute storage unit, 108... situation model, 109... estimation model, 110... evaluation model, 111... recommendation history storage unit.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

レコメンドを評価することができるレコメンド評価装置を提供することを目的とする。 本開示のレコメンドシステム100は、対象ユーザに対してレコメンドがなされた店舗に対する訪問可能性評価g(x)およびレコメンドが無かったと仮定した場合の訪問可能性評価g(x)を導出する評価導出部103と、レコメンドがなされた店舗に対する訪問可能性評価g(x)およびレコメンドが無かったと仮定したときの訪問可能性評価に基づいて、レコメンド評価を導出するレコメンド評価部104と、を備える。

Description

レコメンド評価装置
 本発明は、ユーザに対してなされたレコメンドを評価するレコメンド評価装置に関する。
 特許文献1には、ユーザ操作の態様に基づいてユーザの気分を推定し、ユーザの気分に適合する提案アクティビティをユーザにレコメンド情報として送信することの記載がある。
特開2021-163237号公報
 特許文献1に記載の発明においては、レコメンドに効果があるのか不明であり、効果がなかった場合でもそのレコメンドを何度も送ってしまうという問題がある。
 そこで、上述の課題を解決するために、本発明は、レコメンドを評価することができるレコメンド評価装置を提供することを目的とする。
 本発明のレコメンド評価装置は、対象ユーザに対してレコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定した場合の訪問可能性評価を導出する評価導出部と、前記レコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定したときの訪問可能性評価に基づいて、レコメンド評価を導出するレコメンド評価部と、を備える。
 本発明によると、ユーザに対してなされたレコメンドを評価することができる。
本開示におけるレコメンドシステム100の動作概要を示す図である。 レコメンド効果の考え方を示す模式図である。 本開示におけるレコメンドシステム100の機能構成を示すブロック図である。 店舗情報の具体例を示す図である。 ユーザごとの訪問履歴情報を示す図である。 ユーザ属性情報の具体例を示す図である。 レコメンド履歴情報の具体例を示す図である。 レコメンドシステム100における来訪候補店舗を取得するフローチャートである。 レコメンドシステム100におけるレコメンド評価の詳細処理を示すフローチャートである。 訪問履歴情報の記憶遷移を示す図である。 店舗取得部101により対象となる来訪候補店舗fx1を取得する処理を示す模式図である。 対象となる店舗の近隣店舗を示す図である。 生成した訪問履歴テーブルから来訪候補店舗の値を求めるときを示す模式図である。 属性評価fx2_1の求め方を示す図である。 制限評価fx2_2の算出方法の模式図を示す。 状況モデル108を学習する学習装置120の機能構成を示すブロック図である。 状況モデル108を生成するための事前準備のための処理を示す図である。 状況モデル108の学習処理の具体例を示す図である。 非合理評価fx3を求めるための推定モデル109を学習するための学習装置130の機能構成を示すブロック図である。 各種管理テーブルを生成することを説明する模式図である。 各種管理テーブルを用いた学習処理を示す図である。 推定モデル109を用いて不合理評価fx3を算出する処理を示す図である。 評価モデル110を学習する学習装置140の機能構成を示すブロック図である。 学習装置140の動作を示す模式図である。 店舗導出部103およびレコメンド評価部104の詳細処理を示す図である。 学習処理と推定処理とのタイミングを示す模式図である。 変形例におけるレコメンドシステム100aの機能構成を示すブロック図である。 閲覧履歴記憶部105aの具体例を示す図である。 閲覧履歴情報から店舗ごとの既知度を算出したときの模式図である。 レコメンド由来による閲覧であるか否かを記憶する閲覧履歴記憶部105aの具体例を示す図である。 閲覧履歴情報から店舗ごとの既知度を算出したときの模式図である。 訪問履歴および閲覧履歴の両方を考慮した処理を示した模式図である。 本開示の一実施の形態に係るレコメンドシステム100のハードウェア構成の一例を示す図である。
 添付図面を参照しながら本開示の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
 図1は、本開示におけるレコメンドシステム100の動作概要を示す図である。レコメンドシステム100は、店舗300からの送客依頼により、ユーザ端末200に対してレコメンドメッセージを送信する。このレコメンドメッセージは、例えば、店舗300に関する情報であって、店舗300がレストランであれば、そのメニュー、タイムセールなどを含む情報である。レコメンドメッセージは、店舗300をユーザに推奨するための情報である。
 図1(a)において、レコメンドシステム100は、レコメンドをユーザUが所有するユーザ端末200に送信すると、ユーザ端末200は、適切なタイミングでそのレコメンドメッセージを表示(提示)する。
 図1(b)において、ユーザUがその店舗300を訪問する。レコメンドシステム100は、その訪問を判定する。訪問判定は、店舗300またはユーザ端末200からレコメンドシステム100への通知により行われる。
 図1(c)において、レコメンドシステム100は、レコメンド精度向上のため、自身に対してフィードバックするとともに、店舗300に対してレコメンド効果を提示する。このレコメンド効果に応じて店舗300は、送客手数料をレコメンドシステム100(その運営者)に支払う。
 本開示においては、レコメンドシステム100がレコメンドメッセージをユーザ端末200(ユーザU)に送信し、そのレコメンドメッセージに対するレコメンド効果(評価)を算出することで、レコメンドに対する適正な対価を算出することができる。
 以下、本開示における、レコメンド効果の考え方について説明する。図2は、レコメンド効果の考え方を示す模式図である。図2(a)は、レコメンドがなかった場合においてユーザUが店舗Aに訪問したと仮定したときの模式図である。図2(b)は、レコメンドがあった場合において、ユーザUが店舗Aに訪問した実際の模式図である。
 図2(a)および図2(b)に示されるとおり、レコメンドの有無にかかわらず、ユーザUが店舗Aに訪問した場合、そのレコメンドは効果が無いと判断される。
 図2(c)においては、レコメンドがなかった場合、ユーザUは店舗Bに訪問しないと仮定し、一方で図2(d)においては、レコメンドがあった場合、ユーザUは実際に店舗Bに訪問した場合、レコメンドがないと訪問しないと判断でき、レコメンドに効果があると判断される。
 図2から分かるように、本開示においては、店舗に対するユーザの評価は同一である場合、レコメンドの有無でユーザが訪問するか否かの予測値を比較することで、レコメンドの効果を測定する。図2における店舗評価fx2(fx2_1、fx2_2)、および非合理評価fx3は、ユーザの評価パラメータを示す。店舗評価fx2は、趣味趣向の一致度に基づく属性評価fx2_1、およびユーザの訪問状況に対する制約評価fx2_2を示す。その詳細は後述する。
 図3は、本開示におけるレコメンドシステム100の機能構成を示すブロック図である。本開示のレコメンドシステム100は、店舗取得部101、店舗評価部102、評価導出部103、レコメンド評価部104、店舗情報記憶部105、訪問履歴記憶部106、DB管理部106a、ユーザ属性記憶部107、状況モデル108、推定モデル109、評価モデル110、およびレコメンド履歴記憶部111を含んで構成されている。
 店舗取得部101は、ユーザの来訪候補店舗fx1を取得する部分である。店舗取得部101は、ユーザの選択肢にあがる既知店舗を店舗情報記憶部105および訪問履歴記憶部106から取得し、その既知店舗に基づいて、ユーザが来訪するであろう来訪候補店舗fx1を取得する。来訪候補店舗の取得処理の詳細については後述する。
 店舗評価部102は、訪問履歴記憶部106に記憶されている訪問履歴情報、ユーザ属性記憶部107に記憶されているユーザ属性情報、および店舗情報記憶部105に記憶されている店舗情報に基づいて、ユーザにおける各店舗の店舗評価fx2を算出する部分である。店舗評価部102は、各ユーザの属性に基づいて、各ユーザの店舗との趣味趣向の一致度に基づいた属性評価fx2_1を算出する。また、店舗評価部102は、各ユーザの訪問状況と各店舗の情報とに基づいた各店舗の制約評価fx2_2を算出する。
 評価導出部103は、属性評価fx2_1、制約評価fx2_2、および非合理評価fx3を評価モデル110に入力し、その出力である訪問可能性評価g(x)を取得する部分である。非合理評価fx3は、レコメンドされた店舗および他の店舗に対するユーザの直近訪問情報に基づいて、推定モデル109から取得される。評価導出部103は、属性評価fx2_1、制約評価fx2_2、および非合理評価fx3のうち少なくとも一つを入力すればよく、推定モデル109も少なくとも一つを使って学習されてもよい。
 レコメンド評価部104は、訪問した店舗(例えば店舗A)に対する訪問可能性評価g(x)およびレコメンドがなかったと仮定したときの訪問可能性評価g(x)の差分に基づいて、レコメンド効果を評価する部分である。レコメンド評価部104は、レコメンド履歴記憶部111を参照して、過去にまたは所定期間内にレコメンドしたことがある店舗(例えば、店舗A)に対しては、レコメンド評価はしない。
 店舗情報記憶部105は、店舗情報を記憶する部分である。店舗情報は、その店舗のジャンル、価格帯等の属性情報である。図4は、店舗情報の具体例を示す図である。図に示されるとおり、店舗情報は、店舗ごとに、ジャンル、価格帯、店舗形態、駐車場の有無、開店している時間帯、エリアなどを含む。ジャンルは、飲食店、衣料品店、雑貨屋などの店舗の種別を示す。
 訪問履歴記憶部106は、ユーザごとの訪問履歴情報を記憶する部分である。図5は、その具体例を示す図である。図に示されるとおり、訪問履歴情報は、ユーザID、訪問日時、店舗、移動手段、同伴者、時間帯、および来訪候補店舗を対応付けて構成されている。
 DB管理部106aは、訪問履歴記憶部106に訪問履歴情報を記憶する部分である。DB管理部106aは、ユーザ端末200が来訪する度に、そのユーザ端末200または来訪した店舗から訪問情報(訪問履歴情報と同じ情報)を取得する。
 ユーザ属性記憶部107は、各ユーザのユーザ属性情報を記憶する部分である。図6は、ユーザ属性情報の具体例を示す図である。図に示されるとおり、ユーザ属性情報は、ユーザID、性別、住居、および職業等を含む。これら情報以外に、年代、家族構成等を含んでもよい。
 状況モデル108は、ユーザの訪問状況ごとに用意された推定モデルであって、ユーザの訪問状況を入力し、その店舗に対する評価fx2_2を出力する機械学習モデルである。この状況モデル108は、ユーザごとの全エリアにおける訪問履歴(移動手段、同伴者有無、時間帯など)に基づいて訪問状況ごとに生成されており、ユーザの訪問状況を説明変数とし、各店舗の訪問の有無を目的変数として学習される。よって、状況モデル108の出力は、店舗ごとの訪問可能性を示す。
 推定モデル109は、ユーザの直近訪問情報を入力し、店舗ごとの訪問可能性を示す非合理評価fx3を出力する機械学習モデルである。この推定モデル109は、ユーザの店舗に対する訪問頻度情報(リピート回数、経過日数、ジャンル等)およびそのときのユーザの直近状況情報(天気、前回の価格帯・・・当該店舗の訪問の有無など)を含む直近訪問情報を説明変数とし、その訪問の有無を目的変数として、機械学習により生成される。この学習については後述する。
 評価モデル110は、店舗評価fx2(fx2_1、fx2_2)、および非合理評価fx3を入力して、訪問可能性評価g(x)を出力する機械学習モデルである。この評価モデル110は、店舗評価fx2、および非合理評価fx3を説明変数とし、訪問の有無を目的変数として、機械学習により生成される。この学習について後述する。
 レコメンド履歴記憶部111は、ユーザごとにレコメンド履歴情報を記憶する部分である。図7は、レコメンド履歴情報の具体例を示す図である。図に示されるとおり、レコメンド履歴情報は、レコメンドされたユーザのユーザID、レコメンドした日時、およびレコメンド対象の店舗を含む。
 なお、属性評価fx2_1を算出するにあたって、上記にかえて、以下の構成および処理としてもよい。例えば、属性モデルは店舗ごとに用意された各店舗の属性情報であり、店舗ごとの訪問ユーザの属性に基づいて生成される。そして、この属性モデルを利用して属性評価fx2_1を算出してもよい。また、店舗評価fx2を算出するための状況モデル108および属性モデルの学習処理がこのタイミングで行われてもよい。
 このように構成されたレコメンドシステム100の動作について説明する。図8は、レコメンドシステム100における来訪候補店舗を取得するフローチャートである。
 ユーザが店舗Aに訪問すると、ユーザ端末200からユーザID、訪問日時、および訪問した店舗Aが訪問履歴記憶部106に送信され記憶される(S101)。これら処理は、DB(データベース)管理部106aにより制御される。図10(a)は、その訪問履歴情報を示す。
 DB管理部106aは、これら処理を行うと、訪問n時間前のユーザ状況を取得し、さらに訪問履歴記憶部106に対応付けて記憶する(S102)。図10(b)は、ユーザ状況を反映した訪問履歴情報を示す。このユーザ状況は、ここでは、そのユーザの移動手段、同伴者の有無、および時間帯を含む。DB管理部106aは、ユーザ端末200からユーザ操作によって直接これら情報を取得してもよいし、ユーザ端末200のセンサ等に基づいて取得された情報を取得してもよい。また、DB管理部106aは、ユーザ端末200の位置登録を行うDBの位置情報に基づいて、移動手段、同伴者の有無等を推定してもよい。本開示では、DB管理部106aは、訪問n時間前の情報を取得している。ユーザ端末200または端末管理サーバ(図示せず)は、常時、ユーザ状況を記憶しており、DB管理部106aは、そのユーザ状況のうち、n時間前の情報を取得することができる。
 店舗取得部101は、ユーザの来訪候補店舗fx1を取得し(S103)、訪問履歴記憶部106に来訪候補店舗を記憶する(S104)。図10(c)は、来訪候補店舗を反映した訪問履歴情報を示す。
 ここで、評価導出部103は、店舗Aが来訪候補店舗に含まれていると判断するか、否かを判断する(S105)。ここで、含まれていないと判断され、レコメンド評価部104が、店舗Aがレコメンドされていると判断する場合は、レコメンド評価部104は、そのレコメンドは効果があると判定し、処理終了となる(S106)。一方で、含まれていると判断されると、評価導出部103は、より詳細な評価処理を行う。
 図9は、レコメンドシステム100におけるレコメンド評価の詳細処理を示すフローチャートである。
 店舗評価部102は、対象ユーザにおける各来訪候補店舗の評価fx2を算出する(S201)。より詳細には、店舗評価部102は、属性評価fx2_1および制約評価fx2_2を算出する。なお、店舗評価fx2を算出するための状況モデル108の学習処理がこのタイミングで行われてもよい。
 そして、評価導出部103は、ユーザの直近の行動を含む統計情報に基づいて、各来訪候補店舗に対する非合理評価fx3を算出する(S202)。
 評価導出部103は、対象ユーザにおける属性評価fx2_1、制約評価fx2_2、および非合理評価fx3を、訪問履歴記憶部106に記憶する(S203)。図10(d)は、対象ユーザにおける属性評価fx2_1、制約評価fx2_2、および非合理評価fx3を、訪問履歴情報に反映した図を示す。なお、非合理評価fx3を算出するための推定モデル109の学習処理がこのタイミングで行われてもよい。
 評価導出部103は、訪問した店舗(例えば店舗A)が過去に(または所定期間内に)そのユーザにレコメンドされているか否かを、レコメンド履歴記憶部111を参照して判断する(S204)。
 評価導出部103は、レコメンドされたと判断すると、各評価(fx2、およびfx3)を用いて訪問可能性g(x)を算出し、訪問可能性g(x)を用いて、レコメンド効果を算出する(S205)。具体的には、レコメンドされていなかったと仮定した訪問可能性g(x)をさらに算出し、レコメンドされたときの訪問可能性g(x)と、レコメンドされていなかったと仮定した訪問可能性g(x)との差分を求めることで、そのレコメンド効果を算出する。なお、訪問可能性g(x)を算出するための評価モデル110の学習処理が、このタイミングで行われてもよい。
 評価導出部103は、ここでレコメンドされていないと判断すると、レコメンド評価しない(S206)。
 このようにして、レコメンドシステム100は、レコメンドに対する効果を求めることができる。レコメンド送付の運営者はレコメンドに対する効果に基づいて、レコメンドに対する送付手数料を決定することができ、合理的な運営を可能にする。
 つぎに、上述した来訪候補店舗fx1、店舗評価fx2、非合理評価fx3、および訪問可能性g(x)の求め方について説明する。
 図11~図13は、来訪候補店舗fx1の求め方を示す図である。図11は、店舗取得部101により対象となる来訪候補店舗fx1を取得する処理を示す模式図である。
 図に示されるとおり、店舗取得部101は、訪問履歴記憶部106を参照して、対象ユーザ(図11では、ユーザ101)の全エリアの訪問履歴(図10(a)参照)を取得する(S1)。店舗取得部101は、現在訪問した店舗と同じエリアの店舗を、訪問履歴から取得する(S2)。そして、店舗取得部101は、対象ユーザごとに集計して該当エリアの訪問履歴を取得して、訪問履歴テーブルを生成する(S3)。
 図12は、対象となる店舗の近隣店舗を示す図である。図に示されるとおり、来訪候補店舗として、近隣店舗を含めることがよい場合がある。本開示においては、対象となる店舗を中心として半径10mなど所定半径内にある近隣店舗を来訪候補店舗とする(図12(a))。また、対象店舗と同じテナントに入っている店舗を近隣店舗として来訪候補店舗とする(図12(b))。同じテナントか否かの情報は、店舗情報に含まれているテナント名に基づいて判断されてもよい。図4では、そのテナント名は省略されている。
 なお、上記に限らず、過去に訪問履歴があった店舗と過去の訪問ログからユーザが存在を知っているであろう店舗であれば、いろいろな手法がある。近隣店舗の訪問ログ等から推測された知っている店舗でもよい。
 図13は、生成した訪問履歴テーブルから来訪候補店舗の評価値を求めるときを示す模式図である。図13(a)は、訪問履歴テーブルを示す。この図に示されるとおり、この訪問履歴テーブルには、各店舗の訪問履歴(頻度)が記述されている。図13(a)によると、以下の店舗A~Eは、ユーザにとって以下の印象がもたれている。
店舗A: 最近たくさん来ていて習慣化している
店舗B:最近思い出したように来た→最近来たので覚えてる
店舗C:最近来ていない&前来た時も思い出したようにきている→あまり覚えてない
店舗D:昔何度も行っていた→多分覚えてる
店舗E:昔1回→覚えていない
 店舗取得部101は、この訪問履歴テーブルに従って、該当するエリアの訪問回数と、それに対する店舗訪問とに基づいて、各店舗に対するユーザの覚えている程度(既知度)を算出する。エリアへの訪問回数は訪問履歴情報から求められる。覚えている程度(既知度)は、以下の式に基づく。この式によると、エリアへの訪問回数と、その訪問間隔とに基づいて、ユーザが覚えている程度が求められる。以下の式は、訪問間隔があいているほど、覚えている程度が低くなるように作られている。
Figure JPOXMLDOC01-appb-M000001
 なお、覚えている程度は、当然ながら上記式に限定されるものではなく、訪問頻度および訪問間隔またはそれらいずれか一つに基づいて定めることができる。上記dayは、訪問してからの経過日数に基づいて評価値を割り引くための割引率(係数)とする。例えば、3日経過すると1/3,10日経過すると、係数1/10などのように、経過日数に応じてその係数が低くなるように定められる。
 図13(b)は、店舗取得部101により取得された来訪候補店舗ごとの値を示した図である。図に示されるとおり、この店舗群には、店舗A~Eのそれぞれの近隣店舗FおよびGが加えられている。店舗A~Eは、上記した通りの店舗としての評価値(ユーザが覚えている程度:既知度)が求められている。店舗FおよびGは、訪問されていないため、その評価値がない。そのため、店舗取得部101は、近隣店舗FおよびGを近隣店舗として導き出した店舗AおよびBの評価値に所定係数を乗算することにより、近隣店舗FおよびGの評価値を算出する。この評価値が高い店舗に対して、ユーザは近隣の店舗も知っている可能性があるので候補に追加する。「これ以上数値が高ければ候補に挙がる」であろう閾値を用いて、ユーザの来訪候補店舗を抽出する。
 店舗取得部101は、この評価値が閾値以上の店舗を来訪候補店舗fx1とする。なお、これら評価値は、後述する訪問可能性評価g(x)に利用されてもよい。これにより、候補店舗として算出するだけでなく、来訪候補店舗fx1の店の評価値を後述する評価fx2、およびfx3同等に扱って、より精度のよい評価を算出することができる。
 図14は、店舗評価fx2の求め方を示す図である。事前準備として、以下の処理が行われる。図14(a)に示されるように、訪問履歴記憶部106の訪問履歴情報およびユーザ属性記憶部107のユーザ属性情報に基づいて、店舗ごとの訪問したユーザおよびそのユーザ属性情報が取得される。図14(a)では、例えば店舗Aの訪問ユーザの属性情報(訪問ユーザ属性履歴)が取得されている。
 そして、図14(b)に示されるように、店舗ごとに統計的ユーザ情報が生成される。この統計的ユーザ情報は、訪問ユーザ属性履歴に基づいて生成される情報であり、平均値、中央値、または最頻値に基づく。なお、住居、職業等の平均値、中央値を求めることできない項目については、最頻値に基づいてもよい。
 これら処理は、図示しない店舗属性生成部により行われる。この部分は、レコメンドシステム100に備えられてもよいし、外部の装置に備えられてもよい。
 図14(c)は、ユーザの属性情報を示す図である。図14(b)および図14(c)を用いて店舗に対する属性評価fx2_1の算出過程を示す。店舗評価部102は、対象となるユーザのユーザ属性情報(図14(c))と、店舗ごとの統計的ユーザ情報(訪問ユーザ属性履歴、図14(b))との類似度を求め、この類似度を属性評価fx2_1とする。
 より具体的には、店舗評価部102は、ユーザ属性記憶部107を参照して、レコメンド効果の評価対象となるユーザ属性情報を取得する。店舗評価部102は、来訪候補店舗fx1の各店舗の属性情報と、ユーザの属性情報との類似度を算出することで、各店舗に対する評価fx2_1を算出する。類似度は、コサイン類似度により求められるが、これに限るものではない。
 なお、属性評価fx2_1に関しては店舗への来訪ユーザの属性と来訪の有無とから算出される来訪予測値なども評価値としては利用できる。すなわち、属性評価モデルを用いて、ユーザ属性を入力して、それに対する来訪可能性を推定するモデルを利用してもよい。その属性評価モデルは、ユーザ属性を説明変数、来訪の有無を目的変数として学習される。属性評価fx2_1は、店舗への来訪ユーザの属性と来訪の有無とから算出され、ユーザの属性にもとづく店舗評価を算出する手法は上記に限らない。
 つぎに、制限評価fx2_2の算出方法について説明する。図15は、その模式図を示す。店舗評価部102は、対象ユーザ(ユーザ101)の訪問状況を訪問履歴記憶部106から取得する。この状況情報は、ユーザの店舗への来訪時間からn時間前に基づいたものとする。そして、ユーザごとに作成された状況モデル108を状況に応じて選択する。この状況モデル108は、事前に状況パターンに応じて複数用意されており、店舗評価部102は、ユーザのn時間前の訪問状況に最も近いパターンにあった状況モデル108を選択する。
 そして、店舗評価部102は、店舗情報記憶部105を参照して、来訪候補店舗fx1の店舗情報を取得する。そして、店舗評価部102は、この店舗情報を状況モデル108に入力する。店舗評価部102は、状況モデル108から出力された各店舗に対する制約評価fx2_2を取得する。
 つぎに、状況モデル108の生成方法について説明する。図16は、状況モデル108を学習する学習装置120の機能構成を示すブロック図である。この学習装置120は、レコメンドシステム100に備えられてもよいし、それとは別に存在していてもよい。学習装置120は、訪問状況パターン分類部121および学習部122を備える。
 図17は、状況モデル108を生成するための事前準備のための処理を示す図である。図17(a)に示すとおり、訪問状況パターン分類部121は、訪問履歴記憶部106を参照して、その状況情報(移動手段、同伴者、…時間帯など)を取得する。この状況情報は、上述したとおり、ユーザが店舗を訪問したn時間前の状況を示す。
 そして、図17(b)に示されるとおり、訪問状況パターン分類部121は、パターンごとに状況情報を分類する。分類は、一定の訪問履歴(例えば5件以上など)が分類できるパターンに絞ることで行われる。
 図17(c)に示されるとおり、学習部122は、ユーザの訪問時の状況パターンを生成する。学習部122は、訪問した店舗に対して、どの状況パターンだったかを判定し、各パターンで訪問した店舗を1、訪問しなかった店舗を0とする。
 図18は、状況モデル108の学習処理の具体例を示す図である。学習部122は、訪問履歴記憶部106に記憶されている店舗ごとに、店舗情報記憶部105から各店舗に店舗情報を読み出し、各パターン(図17(c))に付与する。そして、学習部122は、店舗情報を説明変数とし、訪問の有無を目的変数として、機械学習により状況モデル108を各パターンごと学習する。この状況モデル108は、各ユーザのパターンごとに学習されている。
 状況モデル108の学習方法は上記に限るものではない。制約評価fx2_2は、店舗への来訪ユーザの直前の状況と来訪の有無とから算出されればよく、ユーザの状況にもとづく店舗の評価を算出する手法は上記に限らない。
 また、属性評価fx2_1および制約評価fx2_2の両方を考慮した推定モデルを用いてもよい。すなわち、ユーザと店舗との趣向一致度はfx2_1とfx2_2とで分けず、1つの評価値として算出するモデルとしてもよい。
 この学習装置120は、レコメンドの有無によらず、対象ユーザが訪問する度に、訪問時における来訪候補店舗の訪問履歴情報を用いて学習処理をするが、ある程度の間隔を空けて纏めて学習処理をしてもよい。
 つぎに、非合理評価fx3について説明する。図19は、非合理評価fx3を求めるための推定モデル109を学習するための学習装置130の機能構成を示すブロック図である。図20は、各種管理テーブルを生成することを説明する模式図である。図21は、これら各種管理テーブルを用いた学習処理を示す図である。
 図20に示されるとおり、取得部131は、訪問履歴記憶部106を参照して、同じユーザの訪問履歴を取得する。また、取得部131は、店舗情報記憶部105を参照して、訪問履歴にあった店舗の店舗情報を取得し、対応付けた店舗情報テーブル130aを生成する。
 さらに、取得部131は、エリアごと、ジャンルごとに集計して、前回の訪問履歴情報テーブル130bを取得する。この「前回の訪問履歴情報テーブル130bは、ユーザが訪問した前回の店舗と比較した訪問状況である前回比較状況(前回の価格帯など)、ユーザが訪問した店舗に対する訪問状況(外食頻度、ジャンルAの割合など)である店舗訪問状況、並びに外部サーバから取り出したエリア混雑度・エリア天気である外部情報に基づく統計情報を含む。これら前回比較状況、店舗訪問状況、外部情報については、少なくとも一つがあればよい。
 また、取得部131は、ユーザの各店舗に対する訪問状況を店舗ごとに集計し、また前回の訪問履歴を取得して、訪問状況テーブル130cを取得する。この「訪問状況テーブル130c」は、各店舗の訪問頻度および訪問間隔などの訪問履歴状況を示す統計情報である。
 図21に示されるとおり、学習部132は、訪問履歴記憶部106から来訪候補店舗を取得し、その来訪候補店舗の訪問履歴状況に、前回比較状況、店舗訪問状況、および外部情報を対応付けた情報を説明変数とし、実際に訪問したか否かを目的変数として、機械学習により学習して、推定モデル109を学習する。訪問したか否かについて、訪問した場合を1、訪問しなかった場合を0とした目的変数とする。なお、上記した来訪候補店舗fx1を取得する際に求めた各店舗の評価値を説明変数として用いてもよい。
 これにより、ユーザのそのときの気分等に基づいた非合理な情報に基づく訪問可能性、すなわち非合理評価を算出するための推定モデル109を生成することができる。また、推定モデル109の学習については上記に限るものではなく、ユーザのジャンルおよびエリア等の訪問傾向から、各店舗の訪問予測値を算出する別のモデルを学習して構築してもよい。
 この学習装置130は、レコメンドの有無によらず、対象ユーザが訪問する度に、訪問履歴情報を用いて学習処理をするが、ある程度の間隔を空けて纏めて学習処理をしてもよい。
 本開示においては、ユーザのそのときに、その店舗に行く可能性があるかを算出するための基準となる情報として、上記統計情報を記憶している。また、これら統計情報は、ユーザの気分にかかわる特徴量をもとめるための基準となる情報である。本開示においては、ユーザの直近の訪問履歴、過去の訪問頻度等の統計情報を利用しているが、ユーザのその日の気分による訪問可能性を算出することを目的しているため、これ以外の情報を含んでもよい。
 図22は、推定モデル109を用いて不合理評価fx3を算出する処理を示す図である。評価導出部103は、前回比較状況、店舗訪問状況、外部情報を、対象ユーザのための推定モデル109に入力することで、当該対称ユーザにとって店舗ごとの訪問可能性評価g(x)を算出することができる。上記したとおりこの推定モデル109において、各店舗の評価値を説明変数として用いて学習されたものとしてもよい。なお、それに限らず、この店舗ごと訪問可能性評価g(x)に対して、来訪候補店舗fx1を取得する際に利用した評価値を加算または乗算することによって、最終的な訪問可能性g(x)を求めてもよい。
 つぎに、評価モデル110の学習について説明する。図23は、その評価モデル110を学習する学習装置140の機能構成を示すブロック図である。図24は、その学習装置140の動作を示す模式図である。学習装置140は、学習部140aを備えている。この学習部140aは、上記したとおり算出された店舗評価fx2、非合理評価fx3、およびレコメンド履歴を、そのときの各店舗の訪問の結果と対応付けて記憶しているデータベースから取り出し、店舗評価fx2、非合理評価fx3、レコメンド履歴を説明変数、各店舗の訪問の結果を目的変数として、機械学習により学習する。これにより評価モデル110が生成される。
 この学習装置140は、レコメンドの有無によらず、対象ユーザが訪問する度に訪問履歴情報を用いて算出された店舗評価fx2および不合理評価fx3を用いて学習処理をするが、ある程度の間隔を空けて纏めて学習処理をしてもよい。
 つぎに評価処理の詳細について説明する。図25は、評価導出部103およびレコメンド評価部104の詳細処理を示す図である。上述したとおり、評価導出部103は、レコメンドをした店舗について、その店舗評価fx2、制限評価fx3、およびレコメンド有りの情報を、評価モデル110に入力し、評価モデル110は、訪問可能性g(x)を出力する。また、評価導出部103は、レコメンドをした店舗について、その店舗評価fx2、制限評価fx3、およびレコメンド無しの情報を、評価モデル110に入力し、評価モデル110は、レコメンド無しと仮定したときの訪問可能性評価g(x)を出力する。
 レコメンド評価部104は、レコメンドした店舗の訪問可能性評価g(x)と、レコメンド無しと仮定したときの訪問可能性評価g(x)との差分を算出する。この差分が、レコメンドした店舗に対するレコメンド評価となる。レコメンド送付を運営する運営者は、レコメンド評価に基づいて、レコメンド手数料を決定することができる。
 つぎに、推定処理と学習処理とのタイミングについて説明する。図26は、推定処理と学習処理とのタイミングを示す模式図である。図に示されるとおり、ユーザがある店舗を訪問すると、レコメンドシステム100は、来訪候補店舗fx1、店舗評価fx2、および非合理評価fx3を算出し、その店舗がレコメンド履歴記憶部111に記憶されていた場合(レコメンド対象であった場合)、訪問可能性評価g(x)を算出する。推定処理時においては、前日の各学習モデルを用いる。
 各学習モデルの学習処理は、適宜適切なタイミングで行われる。訪問時でもよいし、訪問があった日の夜でもよい。
 本開示において、レコメンドシステム100は、Push通知によるレコメンドネッセージを想定した処理をするが、これに限るものではない。web広告などの媒体についても適用することができる。
 来訪候補店舗fx1、店舗評価fx2、非合理評価fx3、および訪問可能性評価g(x)についてそれぞれ関数を作成せず、訪問可能性評価g(x)のInputとして、来訪候補店舗fx1、店舗評価fx2を、非合理評価fx3のInput情報のように別の関数に含めた形のモデルとしてもよい。すなわち、非合理評価fx3を算出すること無く、来訪候補店舗fx1および店舗評価fx2と、非合理評価fx3の関数を通す前のインプット情報とから導出するような形のモデルとしてもよい。また、同様に来訪店舗fx1、店舗評価fx2、非合理評価fx3を算出すること無く、関数を通さずに、インプット情報からg(x)を求めてもよい。インプット情報とは、本開示においては、店舗情報、ユーザの来訪履歴、ユーザ属性、レコメンド履歴を少なくとも一つを含んだものである。
 来訪候補店舗fx1、店舗評価fx2、非合理評価fx3、および訪問可能性評価g(x)の機械学習手法(機械学習モデル)に関しては、上記開示したもの以外を用いても良い。また、それぞれ算出方法についても機械学習手法を用いずに、他の方法で求めてもよい。
 訪問可能性評価g(x)の目的変数で「その日に行った」は、「レコメンド後1週間以内に行った」など、目的変数の対象の幅を広げてもよい。
 不要なレコメンドを削減したい(レコメンドに対するユーザからの信頼度を上げて、レコメンド効果を高めたい)といった場合に、訪問可能性評価g(x)を活用してレコメンド送信するしないを決める形態があってもよい。すなわち、訪問可能性評価g(x)を用いた上記レコメンド評価の値が所定値以下の場合には、レコメンドシステム100は、そのユーザ、その店舗に対するレコメンドをしないようにしてもよい。
 統計的ユーザ情報、その他の学習モデル等の生成について、店舗評価fx2、非合理評価fx3の目的に合う項目に絞って良い。例えば、店舗評価fx2について、ユーザが連続で行ったかどうか、直近でたくさんいっているか、といった時系列系は不要にするなど、各項目を取捨選別してもよい。
 ユーザ毎のモデル作成などで、データが不足したとき、次の処理を適用してもよい。例えば、来訪候補店舗fx1の算出関数として、ユーザの操作ログ、そのほか上記開示から判定した来訪候補店舗fx1に加えて、類似ユーザの来訪候補店舗fx1を加えてもよい。また、その際に、類似ユーザの来訪候補店舗fx1の値(ユーザが覚えている程度)を用いて、その値の多い店を順に加えてもよい。
 店舗評価fx2について、類似ユーザの店舗評価fx2から評価値を算出・平均をとったものを、対象ユーザの店舗評価fx2の結果としてもよい。
 非合理評価fx3について、類似ユーザの非合理評価fx3から評価値を算出・平均をとったものを対象ユーザの非合理評価fx3としてもよい。各類似ユーザの非合理評価fx3に対して、対象ユーザのデータ(前回店を連続、…etc)をインプットしてもよい。
 対象ユーザにとって、今回が店舗Aに2回目の訪問状況だとする。この場合、類似ユーザのデータを用いてモデリングする。店舗Aに2回目来店のデータがある類似ユーザに絞る。例えば、類似ユーザが店舗Aに2回目来店するまでの通算データ(店舗A以外を含む)を使う。その時のデータを用いて、ユーザの現在のfx1/fx2/fx3を用いて算出した結果を、対象ユーザの訪問可能性評価g(x)の学習データに利用する。
 つぎに、店舗取得部101について、変形例を説明する。上記開示において、店舗取得部101は、エリアにおける訪問回数と、それに対する店舗訪問からユーザの覚えている程度を算出し、それに基づいて、来訪候補店舗を求めていた。
 この変形例においては、さらに加えて、また上記に代えて、店舗取得部101は、ユーザごとに店舗情報の閲覧履歴を取得し、その閲覧時間および閲覧回数に基づいて、店舗情報の既知度(店舗の確認度に相当)を算出する。この既知度の高い店舗を来訪候補店舗とする。
 この変形例においては、ユーザは、スマートフォン、パソコン、タブレット端末を用いてwebまたはそのほかアプリケーション用いて店舗情報を閲覧することができる。
 図27は、その変形例におけるレコメンドシステム100aの機能構成を示すブロック図である。図に示されるとおり、この変形例におけるレコメンドシステム100aは、図3のレコメンドシステム100の機能構成に加えて、閲覧履歴記憶部105aを備える。
 店舗取得部101は、閲覧履歴記憶部105aを参照して、来訪候補店舗fx1を取得する。
 図28は、閲覧履歴記憶部105aの具体例を示す図である。図に示されるとおり、ユーザごとに閲覧日時、閲覧時間、および閲覧した店舗情報を対応付けて記憶している。これら情報は、閲覧したユーザ端末から取得されるが、それ以外の手法、例えば、レコメンドシステム100aがユーザ端末から収集したり、そのほか公知のインターネット接続プロバイダがレコメンドシステム100aに提供してもよい。
 より詳細には、店舗取得部101は、店舗ごとに閲覧時間および閲覧からの経過時間に基づいて、店舗ごとの既知度を算出する。以下は、既知度を求めるための数式の一例である。
Figure JPOXMLDOC01-appb-M000002
上記dayは、訪問してからの経過日数に基づいて評価値を割り引くための割引率(係数)とする。例えば、3日経過すると1/3、10日経過すると、係数1/10などのように、経過日数に応じてその係数が低くなるように定められる。
 図29は、閲覧履歴情報から店舗ごとの値(既知度)を算出したときの模式図である。図29(a)は、閲覧履歴情報を示す図であり、図29(b)は、店舗ごとの既知度を示す図である。図29(b)は、上記式に基づいて算出された結果を示す。以降において、表における値は、既知度を示す。
 店舗取得部101は、この既知度に基づいて、ユーザに提示する来訪候補店舗fx1_1を取得する。この店舗取得部101は、さらに上述したとおり(図12参照)、閲覧情報に基づいて近隣の店舗を来訪候補店舗としてもよい。
 また、他の変形例も考えられる。例えば、上記式は以下の通りとしてもよい。
Figure JPOXMLDOC01-appb-M000003
 この式は、閲覧時間が長い、訪問回数が多いものは既知度が高いとの思想のもので作られている。また、上記開示によるレコメンドを受けたことにより、その店舗のweb等を閲覧した場合には、その店舗を候補からはずすような式となっている。上記式では、レコメンド契機による閲覧であった場合、recom=1とし、そうではない場合はrecom=0とする。tは、閲覧回数に応じて、増幅率が設定されている。例えば、閲覧回数が3回以上であれば、1.3倍するなどである。このtは、閲覧回数が多いと、閲覧時間が長くなるように増幅率が設定されている。閲覧回数が多くなるほど増幅率が大きくなるため、既知度は高く評価される。
 図30は、レコメンド由来による閲覧であるか否かを記憶する閲覧履歴記憶部105aの具体例を示す図である。図に示されるとおり、レコメンド由来であるか否かをさらに記憶する。レコメンド由来であるか否かは、上記レコメンドシステム100がユーザ端末200に対してレコメンドを送り、そのユーザ端末200がそのレコメンドに基づいたweb閲覧等をしたことを、レコメンドシステム100が判断することで、記憶する。その判断は、ユーザ端末200からレコメンド受信後、所定時間内にweb閲覧等をしたことの通知を受けるなど処理によりなされる。または、レコメンドシステム100が定期的にユーザ端末200にアクセスして、レコメンド送信後、所定時間内にユーザ端末がレコメンドに関するweb閲覧をしたことを収集してもよい。
 図31は、閲覧履歴情報から店舗ごとの既知度を算出したときの模式図である。図31(a)は、閲覧履歴情報を示す図であり、図31(b)は、店舗ごとの既知度を示す図である。図31(b)は、上記式に基づいて算出された結果を示す。なお、訪問回数が多いと、閲覧時間が短くなるのでその分を増幅させるようにしてもよい。例えば、訪問履歴情報における訪問履歴から訪問回数が所定回数以上の店舗については、1より大きい係数を値に乗算してもよい。
 さらに、訪問履歴および閲覧履歴の両方を考慮した処理をしてもよい。上述店舗評価部102は、閲覧履歴情報から得た来訪候補店舗fx1_1を店舗評価の対象としてもよいし、訪問履歴情報から得た来訪候補店舗fx1_1のみを店舗評価の対象としてもよいし、その両方を対象としてもよい。また、来訪候補店舗fx_1の値(既知度)に重み付けをして調整してもよい。図32は、訪問履歴および閲覧履歴の両方を考慮した処理を示した模式図である。
 図32(a)は、訪問履歴記憶部106に記憶された訪問履歴に基づいて求められた来訪候補店舗とその評価値を示す。ここでは、さらに訪問履歴の有無を対応付けている。訪問履歴の有無は、訪問履歴情報に基づいて求められる(図13(a)参照)。図32(b)は、閲覧履歴記憶部105aに基づいた来訪候補店舗とその評価値を示す。なお、評価値が高い店舗のみを利用し、ほかは0とする。評価値が低い店舗は、ほぼ見ていない店舗とみなしてよい。
 店舗取得部101は、これら情報を用いて、訪問履歴と閲覧履歴との両方を用いた来訪候補店舗fx1を求める。
 店舗取得部101は、オンライン候補店舗情報、オフライン候補店舗情報を求めると、それぞれにおいて、以下の数式(図32(c))を用いて店舗ごとに評価値を求める。この式によると、訪問した店舗と訪問していない店舗とに分けて評価をしている。訪問した店舗は高い評価となる。
Figure JPOXMLDOC01-appb-M000004
 なお、オフライン評価値は、訪問履歴に基づく評価値(既知度)であり、オンライン評価値は閲覧履歴に基づく評価値(既知度)を示す。
 図32(d)は、その結果を示す。訪問履歴がある店舗については、その評価値は0となり、訪問履歴がない店舗について評価値が求められる。店舗取得部101は、この評価値に基づいて、来訪候補店舗fx1を導出することができる。なお、上記では、近隣店舗については、説明を簡易にするために省略したが、当然に近隣店舗も考慮して来訪候補店舗fx1を導出してもよい。例えば近隣店舗について、所定係数をかけることにより、その評価値を調整してもよい。
 つぎに、本開示のレコメンドシステム100の作用効果について説明する。
 本開示のレコメンドシステム100は、対象ユーザに対してレコメンドがなされた店舗に対する訪問可能性評価g(x)およびレコメンドが無かったと仮定した場合の訪問可能性評価g(x)を導出する評価導出部103と、レコメンドがなされた店舗に対する訪問可能性評価g(x)およびレコメンドが無かったと仮定したときの訪問可能性評価に基づいて、レコメンド評価を導出するレコメンド評価部104と、を備える。
 この開示によれば、レコメンド評価を適切に行うことができる。したがって、レコメンドの運営者はその手数料を合理的に求めることができる。
 また、本開示のレコメンドシステム100において、評価導出部103は、少なくとも、レコメンドされた店舗に対するユーザにおける属性評価fx2_1、レコメンドされた店舗に訪問したときのユーザの訪問状況に応じた制約評価fx2_2、およびレコメンドされた店舗および他の店舗に対するユーザの直近訪問情報に基づいた非合理評価fx3、の一つに基づいて、訪問可能性評価g(x)を導出する。
 本開示によれば、これら情報を用いることでユーザの訪問可能性を適切に判断することができる。
 また、本開示のレコメンドシステム100において、評価導出部103は、機械学習により学習された評価モデル110を用いて、属性評価fx2_1、制限評価fx2_2および非合理評価fx3の少なくとも一つを入力して訪問可能性評価g(x)を導出する。
 そして、評価モデル110は、学習用に用意され、ユーザが訪問した店舗に基づいた店舗(例えば、上記来訪候補店舗)に対する属性評価fx2_1、制約評価fx2_2、および直近訪問情報を示す非合理評価fx3の少なくとも一つおよびレコメンドの有無を説明変数とし、訪問の有無を目的変数として、学習される。
 この開示によれば、機械学習により学習された評価モデルを利用して訪問可能性評価g(x)を適切に算出することができる。本開示においては、学習のもととなるデータは、来訪候補店舗に基づいているが、それに限らず、来訪していない店舗、近隣にない店舗等を対象としてもよい。
 また、本開示のレコメンドシステム100において、ユーザの行動(訪問)に基づいて選択された来訪候補店舗fx1の店舗評価fx2を行う店舗評価部102をさらに備える。評価導出部103は、来訪候補店舗の店舗評価fx2に基づいて訪問可能性評価g(x)を導出する。
 より具体的には、レコメンドシステム100において、ユーザごとに、訪問履歴(日時、店舗、移動手段等)を記憶する訪問履歴記憶部106と、ユーザごとに、ユーザ属性情報(年齢、性別等)を記憶するユーザ属性記憶部107と、をさらに備える。
 そして、店舗評価部102は、店舗ごとに、訪問履歴とユーザ属性情報とから、訪問したユーザの属性傾向(年齢、性別等)を取得する。この属性傾向とは、例えば上記した統計的ユーザ情報を示し、各店舗を訪問したユーザの属性の傾向を示す情報である。そして、店舗評価部102は、対象ユーザのユーザ属性と、属性傾向とに基づいて、候補店舗ごとに、対象ユーザにとっての属性評価fx2_1を導出する。
 この開示によれば、ユーザの趣味趣向に応じた店舗を評価することができる。
 また、レコメンドシステム100は、状況モデル108をさらに備えており、この状況モデル108は、ユーザの訪問履歴(移動手段、同伴者有無、時間帯など)に基づいてユーザの訪問状況ごとに生成されている。この状況モデル108は、複数生成されている。この状況モデル108は、ユーザの訪問状況を入力して店舗に対する評価値を出力する。
 そして、店舗評価部102は、ユーザの訪問状況に対応する状況モデル108を選択し、当該状況モデル108から、ユーザにおける店舗の制約評価fx2_2を導出する。
 また、レコメンドシステム100において、状況モデル108は、ユーザの訪問履歴から分類された訪問状況パターンに対応する訪問状況で訪問した店舗の前記店舗情報とを紐付け、店舗ごとに用意された店舗情報を説明変数、店舗ごとの訪問状況パターンを目的変数として、訪問状況パターンごとに、機械学習により学習されたものである。
 例えば、この状況モデル108は、学習装置120により学習されている。この学習装置120は、店舗ごとに、店舗情報を記憶する店舗情報記憶部105と、アクセス可能に構成されている。また、学習装置120は、全ユーザの訪問履歴を記憶する訪問履歴記憶部106と、訪問履歴から、訪問状況パターンに分類する訪問状況パターン分類部121と、訪問状況パターンと、当該訪問状況パターンに対応する訪問状況で訪問した店舗の店舗情報とを紐付け、店舗情報を説明変数、店舗ごとの訪問状況パターンにおける訪問の有無を目的変数として、機械学習により訪問状況パターンごとに、状況モデル108を学習する学習部122と、を備える。
 これにより、訪問状況パターンごとに、状況モデル108を生成することができる。
 また、レコメンドシステム100において、店舗ごとの直近訪問情報を入力して、店舗に対する非合理評価fx3を出力する推定モデル109をさらに備える。評価導出部103は、推定モデル109を用いて、訪問可能性評価g(x)を導出する。
 この推定モデル109は、学習装置130により学習されて生成される。この学習装置130は、ユーザの来訪候補情報(訪問日時、訪問店舗およびそのときの候補店舗)から、店舗ごとに、ユーザの当該店舗に対する訪問頻度情報(リピート回数、経過日数、ジャンル等)およびそのときのユーザの直近状況情報(天気、前回の価格帯・・・当該店舗の訪問の有無など)を含む直近訪問情報を取得する取得部131と、店舗ごとの直近訪問情報を説明変数とし、店舗ごとの訪問の有無を目的変数として推定モデル109を学習する学習部132と、を備える。
 評価導出部103は、推定モデル109を使って非合理評価fx3を導出する。
 これにより、推定モデル109を学習することができる。
 本開示のレコメンドシステム100は、ユーザごとに、訪問履歴(日時、店舗、移動手段等)を記憶する訪問履歴記憶部106と、訪問履歴に基づいて、訪問した店舗または当該店舗の近隣にある近隣店舗を、候補店舗として導出する店舗導出部として機能する店舗取得部101と、を備える。評価導出部103は、候補店舗に対する評価を導出する。
 この構成により、ユーザが訪問したことがない店舗に対しても、評価対象とすることができる。
 本発明のレコメンドシステム100であるレコメンド評価装置は、以下の構成を有する。
[1]
 対象ユーザに対してレコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定した場合の訪問可能性評価を導出する評価導出部と、
 前記レコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定したときの訪問可能性評価に基づいて、レコメンド評価を導出するレコメンド評価部と、
を備えるレコメンド評価装置。
[2]
 前記評価導出部は、
 少なくとも
 前記店舗に対するユーザにおける属性評価、
 前記店舗に訪問したときのユーザの訪問状況に応じた制約評価、および
 前記店舗に対するユーザの直近訪問情報に基づいた非合理評価、
の一つに基づいて、訪問可能性評価を導出する、
[1]に記載のレコメンド評価装置。
[3]
 前記評価導出部は、
 機械学習により学習された評価モデルを用いて、前記属性評価、前記制約評価および前記非合理評価の少なくとも一つを入力して前記訪問可能性評価を導出し、
 前記評価モデルは、
 学習用に用意され、ユーザが訪問した店舗に基づいた店舗に対する属性評価、制約評価、および非合理評価の少なくとも一つおよびレコメンドの有無を説明変数とし、訪問の有無を目的変数として、学習される、
[2]に記載のレコメンド評価装置。
[4]
 ユーザの行動に基づいて選択された候補店舗の評価を行う店舗評価部、
をさらに備え、
 前記評価導出部は、候補店舗の評価に基づいて訪問可能性評価を導出する、
[1]から[3]のいずれか一つに記載のレコメンド評価装置。
[5]
 ユーザごとに、訪問履歴を記憶する訪問履歴記憶部と、
 ユーザごとに、ユーザ属性情報を記憶する属性記憶部と、
をさらに備え、
 前記店舗評価部は、
 店舗ごとに、前記訪問履歴と前記ユーザ属性情報とから、訪問したユーザの属性傾向を取得し、
 ユーザのユーザ属性と、前記属性傾向とに基づいて、候補店舗ごとに、前記ユーザにとっての評価を導出する、
[4]に記載のレコメンド評価装置。
[6]
 ユーザの訪問履歴に基づいて訪問状況ごとに生成されており、ユーザの訪問状況を入力して前記店舗に対する評価値を出力する状況モデルと、をさらに備え、
 前記店舗評価部は、
 ユーザの訪問状況に対応する状況モデルを選択し、当該状況モデルを用いて前記店舗の訪問可能性評価を導出する、
[4]または[5]に記載のレコメンド評価装置。
[7]
 前記状況モデルは、
 前記ユーザの訪問履歴から分類された訪問状況パターンと、当該訪問状況パターンに対応する訪問状況で訪問した店舗の店舗情報とが紐付けられており、
 訪問状況パターンごとに、店舗ごとに用意された店舗情報を説明変数、店舗ごとの訪問状況パターンにおける訪問の有無を目的変数として、機械学習により学習された、
 [6]に記載のレコメンド評価装置。
[8]
 店舗ごとの直近訪問情報を入力して、前記店舗に対する非合理評価を出力する推定モデルをさらに備え、
 前記評価導出部は、前記推定モデルを用いて、前記訪問可能性評価を導出する、
[1]から[7]のいずれか一項に記載のレコメンド評価装置。
[9]
 前記推定モデルは、
 ユーザの訪問履歴から、店舗ごとに、ユーザの当該店舗に対する訪問頻度情報およびそのときのユーザの直近状況情報を含む直近訪問情報を説明変数とし、前記店舗ごとの訪問の有無を目的変数として学習される、
[8]に記載のレコメンド評価装置。
[10]
 ユーザごとに、訪問履歴を記憶する訪問履歴記憶部と、
 前記訪問履歴に基づいて、訪問した店舗または当該店舗の近隣にある近隣店舗を、候補店舗として導出する店舗導出部と、
を備え、
 前記評価導出部は、前記候補店舗に対する評価を導出する、
[1]から[9]のいずれか一つに記載のレコメンド評価装置。
 上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェアおよびソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的または論理的に結合した1つの装置を用いて実現されてもよいし、物理的または論理的に分離した2つ以上の装置を直接的または間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置または上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 例えば、本開示の一実施の形態におけるレコメンドシステム100は、本開示のレコメンド評価方法の処理を行うコンピュータとして機能してもよい。図33は、本開示の一実施の形態に係るレコメンドシステム100のハードウェア構成の一例を示す図である。上述のレコメンドシステム100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
 なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。レコメンドシステム100のハードウェア構成は、図に示した各装置を1つまたは複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 レコメンドシステム100における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002およびストレージ1003におけるデータの読み出しおよび書き込みの少なくとも一方を制御したりすることによって実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の店舗取得部101、店舗評価部102、評価導出部103,レコメンド評価部104などは、プロセッサ1001によって実現されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003および通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、店舗取得部101は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時または逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係るレコメンド評価方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002およびストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
 通信装置1004は、有線ネットワークおよび無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)および時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の店舗取得部101の一機能は、通信装置1004によって実現されてもよい。この通信装置1004は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005および出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 また、レコメンドシステム100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
 情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号またはこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
 本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)および無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。
 なお、本開示において説明した用語および本開示の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。例えば、チャネルおよびシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。
 上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)および情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネルおよび情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
 本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。
 移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
 本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
 「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよびプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」または「結合」されると考えることができる。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみが採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 本開示において、「含む(include)」、「含んでいる(including)」およびそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa, anおよびtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
100…レコメンドシステム、200…ユーザ端末、300…店舗、101…店舗取得部、102…店舗評価部、103…評価導出部、104…レコメンド評価部、105…店舗情報記憶部、106…訪問履歴記憶部、106a…DB管理部、107…ユーザ属性記憶部、108…状況モデル、109…推定モデル、110…評価モデル、111…レコメンド履歴記憶部。

Claims (10)

  1.  対象ユーザに対してレコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定した場合の訪問可能性評価を導出する評価導出部と、
     前記レコメンドがなされた店舗に対する訪問可能性評価およびレコメンドが無かったと仮定したときの訪問可能性評価に基づいて、レコメンド評価を導出するレコメンド評価部と、
    を備えるレコメンド評価装置。
  2.  前記評価導出部は、
     少なくとも
     前記店舗に対するユーザにおける属性評価、
     前記店舗に訪問したときのユーザの訪問状況に応じた制約評価、および
     前記店舗に対するユーザの直近訪問情報に基づいた非合理評価、
    の一つに基づいて、訪問可能性評価を導出する、
    請求項1に記載のレコメンド評価装置。
  3.  前記評価導出部は、
     機械学習により学習された評価モデルを用いて、前記属性評価、前記制約評価および前記非合理評価の少なくとも一つを入力して前記訪問可能性評価を導出し、
     前記評価モデルは、
     学習用に用意され、ユーザが訪問した店舗に基づいた店舗に対する属性評価、制約評価、および非合理評価の少なくとも一つおよびレコメンドの有無を説明変数とし、訪問の有無を目的変数として、学習される、
    請求項2に記載のレコメンド評価装置。
  4.  ユーザの行動に基づいて選択された候補店舗の評価を行う店舗評価部、
    をさらに備え、
     前記評価導出部は、候補店舗の評価に基づいて訪問可能性評価を導出する、
    請求項1に記載のレコメンド評価装置。
  5.  ユーザごとに、訪問履歴を記憶する訪問履歴記憶部と、
     ユーザごとに、ユーザ属性情報を記憶する属性記憶部と、
    をさらに備え、
     前記店舗評価部は、
     店舗ごとに、前記訪問履歴と前記ユーザ属性情報とから、訪問したユーザの属性傾向を取得し、
     ユーザのユーザ属性と、前記属性傾向とに基づいて、候補店舗ごとに、前記ユーザにとっての評価を導出する、
    請求項4に記載のレコメンド評価装置。
  6.  ユーザの訪問履歴に基づいて訪問状況ごとに生成されており、ユーザの訪問状況を入力して前記店舗に対する評価値を出力する状況モデルと、をさらに備え、
     前記店舗評価部は、
     ユーザの訪問状況に対応する状況モデルを選択し、当該状況モデルを用いて前記店舗の訪問可能性評価を導出する、
    請求項4に記載のレコメンド評価装置。
  7.  前記状況モデルは、
     前記ユーザの訪問履歴から分類された訪問状況パターンと、当該訪問状況パターンに対応する訪問状況で訪問した店舗の店舗情報とが紐付けられており、
     訪問状況パターンごとに、店舗ごとに用意された店舗情報を説明変数、店舗ごとの訪問状況パターンにおける訪問の有無を目的変数として、機械学習により学習された、
     請求項6に記載のレコメンド評価装置。
  8.  店舗ごとの直近訪問情報を入力して、前記店舗に対する非合理評価を出力する推定モデルをさらに備え、
     前記評価導出部は、前記推定モデルを用いて、前記訪問可能性評価を導出する、
    請求項1に記載のレコメンド評価装置。
  9.  前記推定モデルは、
     ユーザの訪問履歴から、店舗ごとに、ユーザの当該店舗に対する訪問頻度情報およびそのときのユーザの直近状況情報を含む直近訪問情報を説明変数とし、前記店舗ごとの訪問の有無を目的変数として学習される、
    請求項8に記載のレコメンド評価装置。
  10.  ユーザごとに、訪問履歴を記憶する訪問履歴記憶部と、
     前記訪問履歴に基づいて、訪問した店舗または当該店舗の近隣にある近隣店舗を、候補店舗として導出する店舗導出部と、
    を備え、
     前記評価導出部は、前記候補店舗に対する評価を導出する、
    請求項1に記載のレコメンド評価装置。
PCT/JP2023/032702 2022-11-15 2023-09-07 レコメンド評価装置 WO2024105981A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-182417 2022-11-15
JP2022182417 2022-11-15

Publications (1)

Publication Number Publication Date
WO2024105981A1 true WO2024105981A1 (ja) 2024-05-23

Family

ID=91084279

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032702 WO2024105981A1 (ja) 2022-11-15 2023-09-07 レコメンド評価装置

Country Status (1)

Country Link
WO (1) WO2024105981A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155757A (ja) * 1998-11-18 2000-06-06 Fujitsu Ltd 移動体の特性抽出装置,特性抽出方法およびそのプログラム記録媒体
JP2016161998A (ja) * 2015-02-26 2016-09-05 Kddi株式会社 目的地推薦装置、サーバ、目的地推薦システムおよび目的地推薦プログラム
JP2020047156A (ja) * 2018-09-21 2020-03-26 富士ゼロックス株式会社 商品推薦装置及びプログラム
JP2020046991A (ja) * 2018-09-19 2020-03-26 Zホールディングス株式会社 評価装置、評価方法及び評価プログラム
JP2022011154A (ja) * 2020-06-29 2022-01-17 ヤフー株式会社 評価装置、評価方法及び評価プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155757A (ja) * 1998-11-18 2000-06-06 Fujitsu Ltd 移動体の特性抽出装置,特性抽出方法およびそのプログラム記録媒体
JP2016161998A (ja) * 2015-02-26 2016-09-05 Kddi株式会社 目的地推薦装置、サーバ、目的地推薦システムおよび目的地推薦プログラム
JP2020046991A (ja) * 2018-09-19 2020-03-26 Zホールディングス株式会社 評価装置、評価方法及び評価プログラム
JP2020047156A (ja) * 2018-09-21 2020-03-26 富士ゼロックス株式会社 商品推薦装置及びプログラム
JP2022011154A (ja) * 2020-06-29 2022-01-17 ヤフー株式会社 評価装置、評価方法及び評価プログラム

Similar Documents

Publication Publication Date Title
US8510658B2 (en) Population segmentation
CN102792299B (zh) 特定于用户的馈送推荐
US20090216639A1 (en) Advertising selection and display based on electronic profile information
US20120041969A1 (en) Deriving user characteristics
US20120042262A1 (en) Population segmentation based on behavioral patterns
US20120041817A1 (en) Prioritizing population segment assignments to optimize campaign goals
CN110771126B (zh) 用于用户设备事件的匹配与归因的系统
WO2014193399A1 (en) Influence score of a brand
WO2019187358A1 (ja) 評価装置
WO2021039840A1 (ja) 需要予測装置
US20170124465A1 (en) Analysis and prediction from venue data
US20150058136A1 (en) Attribute based coupon provisioning
KR20130010199A (ko) 메타데이터 및 사용 패턴 분석을 통한 컴퓨터 어플리케이션 프로그램의 개인화 추천 시스템 및 그 방법
JP5813052B2 (ja) 情報処理装置、方法及びプログラム
Kuanr et al. Assessment methods for evaluation of recommender systems: a survey
JP6472915B1 (ja) 情報処理装置
WO2024105981A1 (ja) レコメンド評価装置
WO2024105982A1 (ja) 店舗導出装置
JPWO2020059428A1 (ja) 情報処理装置及びヒント提供方法
JP7495842B2 (ja) レコメンド装置
JP7500583B2 (ja) 価格予測装置
JP7454970B2 (ja) 株式銘柄推薦装置
JP7463224B2 (ja) ポイント決定装置
JP2022027092A (ja) 行動特性決定装置
WO2023188808A1 (ja) レコメンドシステム