WO2005091214A1 - 車両用情報処理システム、車両用情報処理方法およびプログラム - Google Patents

車両用情報処理システム、車両用情報処理方法およびプログラム Download PDF

Info

Publication number
WO2005091214A1
WO2005091214A1 PCT/JP2005/003916 JP2005003916W WO2005091214A1 WO 2005091214 A1 WO2005091214 A1 WO 2005091214A1 JP 2005003916 W JP2005003916 W JP 2005003916W WO 2005091214 A1 WO2005091214 A1 WO 2005091214A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
inference
learning
presentation
presented
Prior art date
Application number
PCT/JP2005/003916
Other languages
English (en)
French (fr)
Inventor
Nobuhiro Mizuno
Hirotoshi Iwasaki
Yoichi Motomura
Original Assignee
Denso It Laboratory, Inc.
National Institute Of Advanced Industrial Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso It Laboratory, Inc., National Institute Of Advanced Industrial Science And Technology filed Critical Denso It Laboratory, Inc.
Priority to US10/593,065 priority Critical patent/US7797266B2/en
Priority to DE112005000613T priority patent/DE112005000613T5/de
Priority to JP2006511153A priority patent/JP4639296B2/ja
Publication of WO2005091214A1 publication Critical patent/WO2005091214A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to a vehicle information processing system that presents an appropriate presentation target to a presentee using a Bayesian network model.
  • a stochastic framework is effective. It is possible to assign certainty to multiple candidates, such as the possibility of interest in soccer-related products being 60% and the possibility of being interested in travel, and handle them with uncertainty. it can. Then, if the page you were looking at just before was, for example, about Korea, calculate the probability of being interested in World Cup Soccer-related information, travel-related information, and cooking-related information. Are likely to provide the objects that are most likely to be of interest. The probability is calculated by taking into account a number of factors (for example, hobbies answered in a questionnaire) and the interdependencies between them (if sports are a hobby, you may want to promote soccer). The use of (likely to have a taste) makes it possible to make more accurate predictions.
  • Bayesian nets have recently attracted attention in various fields as an information processing model for performing probability calculations based on the dependence of a plurality of factors.
  • a Bayesian network is a network-like probabilistic model defined by three factors: (1) a random variable and (2) a conditional dependency between random variables, and (3) a conditional probability.
  • (1) is a node
  • (2) is a directed link between nodes. The node at the end of the link is called a child node, and the node at the origin of the link is called a parent node.
  • (3) is a conditional probability that a child node takes a certain value when a parent node takes a certain value.
  • the above-described recommendation system can be realized using a Bayesian network. Specifically, based on survey results obtained from a huge number of customers with a wide variety of age, gender, lifestyle, etc., and statistical data such as purchase history, customer attributes and customer interest We express the relationship with the object with a high degree of accuracy using a Bayesian net model. Then, using the Bayesian Net model, the system infers the objects of high interest to the customer from the attributes of the customer and the situation at that time, and recommends the objects of high interest to the customer based on the inference results.
  • a Bayesian net model is created based on statistical data obtained from various types of customer power. Therefore, conditions such as customer attributes and conditions for obtaining a recommendation target are required. It is considered that the effect of the on recommendation is small. For example, if the condition for finding a recommendation target is “customer's attribute is father”, the data on which the customer power with the attribute of father is also obtained is the total statistical data from which the Bayesian Net model was created. The effect of the father condition on the model is smaller than that of a model created based on statistical data acquired based on statistical data acquired.
  • Currently seeking recommendations Research is being conducted to fully reflect the conditions for the recommendation results and to make more accurate recommendations.
  • an object of the present invention is to provide a vehicle information processing system that can more appropriately determine a presentation target to be presented to a presentee.
  • An information processing system for a vehicle is an information processing system for a vehicle that presents a stochastically suitable presentation target to a presenter who is an occupant using a Bayesian network model.
  • a model storage unit that stores a plurality of Bayesian net models that differ according to the presented condition, which is a condition related to the presented side, and a plurality of model forces that are stored in the model storage unit.
  • a model determining means for determining a model as an inference application model, and a presentation object inference for reading the inference application model determined by the model determination means from the model storage means and obtaining a presentation target by stochastic inference using the read inference application model.
  • a presentation means for presenting the presentation target obtained by the presentation target inference means to the presentee.
  • the model storage means stores a plurality of Bayesian net models different according to the attributes of the presentee, and the model determination means stores the model of the presente.
  • a model corresponding to the attribute may be determined as the inference application model.
  • the model storage means stores a plurality of Bayesian Net models that differ depending on the situation in which the presentation target is presented, and the model determination means stores the model corresponding to the situation in which the presentation target is presented in the inference application model. You may decide.
  • the vehicle information processing system of the present invention uses a model for model selection that is applied to probabilistic inference for obtaining an inference application model from a plurality of model cards based on the attributes of the presentee and the situation in which the presentation target is presented.
  • Model storing means for storing model selection wherein the model deciding means is adapted to perform the inference using the model for model selection read out from the model storing means for model selection, and to provide the attribute of the presentee and the presentation target to be presented. Based on this, an inference application model may be determined.
  • the vehicle information processing system of the present invention is a vehicle information processing system that accepts a response of a presentee when a presentation target presents a presentation target obtained from an inference application model.
  • the information presentation system of the present invention relates to the inference application model applied to the stochastic inference by the presentation object inference means, and associates the same model with the inference application model among the plurality of models stored in the model storage means.
  • a learning target information storage unit that stores, as a learning model, another model that is to be affected by the inference result using the inference application model.
  • the model learning unit uses the response received by the response reception unit to perform learning.
  • the target information storage unit may learn a model associated with the inference application model as a learning model.
  • the learning target information storage means stores a reflection parameter indicating a degree to which a response is reflected in learning of the learning model, and the reflection parameter is set for each of a plurality of learning models corresponding to one inference application model.
  • the model learning means reads a reflection parameter associated with the learning model to be learned from the learning target information storage means, and reflects the response to the learning model at a degree corresponding to the read reflection parameter. You can go.
  • the vehicular information processing system of the present invention generally acquires general learning data used for learning to bring a model specialized for each presented condition through learning by a model learning means closer to a general model.
  • a learning data acquisition unit may be provided, and the model learning unit may use the general learning data acquired by the general learning data acquisition unit to perform learning of the model stored in the model storage unit.
  • general learning reflection parameter storage means for storing general learning reflection parameters indicating a degree of reflecting the general learning data to model learning is provided.
  • the model learning means is a general learning reflection parameter read from the general learning reflection parameter storage means.
  • a learning process may be performed to reflect the general learning data to the model learning at a degree according to the reflection parameter.
  • An information processing system for a vehicle includes an information presenting device provided with presenting means, and a center device connected to the information presenting device through communication. When the presentation target is presented, a response received from the presented person may be collected.
  • a vehicle information processing system is a vehicle information processing system that infers a presentation target suitable for a subject using an inference algorithm and presents the presentation target obtained by the inference.
  • a calculation resource storage unit that stores a plurality of calculation resources that differ according to a presentation condition that is a condition related to a presentation side that receives a presentation target; and a plurality of calculation resources that are stored in the calculation resource storage unit.
  • Calculation resource power Calculation resource determination means for determining calculation resources according to the presented condition, and calculation resource storage means power for calculation resources determined by calculation resource determination means, and read out calculation resources
  • a presentation target inference means for obtaining a presentation target by inference using a method and a presentation means for presenting the presentation target obtained by the presentation target inference means to a presentee. Obtain.
  • the vehicle information presentation device of the present invention is a vehicle information presentation device that presents a stochastically suitable presentation target to an occupant to be presented using a Bayesian network model.
  • a model storage means storing a plurality of Bayesian net models that differ according to the presented condition, which is a condition relating to the presented side to be presented, and a plurality of model force stored in the model storage means.
  • a model deciding unit that decides a model corresponding to the model as an inference application model, and a presentation target that reads the inference application model determined by the model decision unit from the model storage unit and obtains a presentation target by stochastic inference using the read inference application model.
  • Inference means and presentation means for presenting the presentation target obtained by the presentation target inference means to the presentee are provided.
  • the vehicle information presentation device of the present invention may be provided in an automobile.
  • An information processing method for a vehicle is a method for presenting a stochastically suitable presentation target to a presenter who is an occupant using a Bayesian network model.
  • a model determination step of determining a model corresponding to the presented condition as an inference application model from a plurality of Bayesian Net models that differ according to the presented condition, which is a condition relating to the presenter, and a model determining step.
  • the method includes a presentation object inference step of obtaining a presentation object by stochastic inference using an inference application model, and a presentation step of presenting the presentation object obtained in the presentation object inference step to the presentee.
  • the program of the present invention is a program for presenting a stochastically suitable presentation target to a presenter who is an occupant using a Bayesian network model.
  • the present invention has other aspects. Accordingly, the disclosure of the present invention is intended to provide some aspects of the present invention, and is not intended to limit the scope of the claimed invention.
  • FIG. 1 is a diagram illustrating a configuration of an information processing system according to a first embodiment.
  • FIG. 2 is a diagram showing a configuration of a content providing device according to the first embodiment.
  • FIG. 3 is a diagram showing an example of data stored in a content information storage unit in the first embodiment.
  • FIG. 4 is a diagram showing an example of a model stored in a model storage unit according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of data stored in a learning target table storage unit according to the first embodiment.
  • FIG. 6 is a diagram showing a configuration of a center device according to the first embodiment.
  • FIG. 7 is a diagram illustrating an operation of the information processing system according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of data stored in a learning target table storage unit according to the second embodiment.
  • FIG. 9 is a diagram illustrating an operation of the information processing system according to the second embodiment.
  • FIG. 10 is a diagram showing a configuration of a center device according to a third embodiment.
  • FIG. 11 is a diagram showing a configuration of a content providing device according to a third embodiment.
  • FIG. 12 is a diagram illustrating an operation of the information processing system according to the third embodiment.
  • FIG. 13 is a diagram showing a configuration of a center device according to a modification. BEST MODE FOR CARRYING OUT THE INVENTION
  • the vehicle information processing system is a vehicle information processing system that presents a presentation target that is appropriately suited to an occupant, using a Bayesian net model.
  • a model storage unit that stores a plurality of Bayesian net models that differ according to the presented condition, which is a condition related to the presented side that receives the presentation of the target, and a plurality of models stored in the model storage unit.
  • a presentation means for presenting the presentation target obtained by the presentation target inference means to the presentee.
  • a plurality of different models are stored according to the presented condition such as the attribute of the presented person, and a model corresponding to the presented condition is read from the models, and the read model is used for probability inference. By applying, an appropriate presentation target can be obtained with high accuracy under the present presented condition.
  • the model storage means stores a plurality of Bayesian net models different according to the attributes of the presentee
  • the model determination means stores the models of the presentee in the attributes of the presentee.
  • the corresponding model may be determined as the inference application model.
  • the model storage means stores a plurality of Bayesian net models that differ depending on a situation in which the presentation target is received, and the model determination means stores the presentation target.
  • a model corresponding to the situation in which the inference occurs may be determined as the inference application model.
  • the vehicle information processing system stores a model for model selection to be applied to stochastic inference for obtaining a plurality of model force inference application models based on the attributes of the presentee and the situation in which the presentation target is presented.
  • Model selection means is provided, and the model decision means is based on the model storage means and the probability of inference using the read model selection model based on the attributes of the presentee and the situation in which the presentation target is presented. Then, the inference application model may be determined.
  • the response receiving means for receiving the response of the presentee when the presenting means presents the presentation target obtained from the inference applying model by the presentation target inferring means, and the response receiving means receiving the response.
  • Model learning means for learning the model stored in the model storage means using the response and updating the model to a dedicated model for each presented condition may be provided.
  • the model stored in the model storage means is learned according to the response of the presentee, and the model of the model storage means is converted into a specialized model suitable for probabilistic inference under the presented conditions. Be updated. Therefore, the presentation target can be appropriately obtained using the model stored in the model storage means.
  • the information presenting system is the same as the inference application model and the inference application model among the plurality of models stored in the model storage means, in association with the inference application model applied to the probability inference by the presentation object inference means.
  • a learning target information storage unit that stores, as a learning model, another model that should be affected by the inference result using the learning target information storage unit.
  • the model learning unit uses the response received by the response receiving unit to store the learning target information storage unit.
  • the model associated with the inference application model may be learned as a learning model in.
  • the response of the presentee to the presentation target obtained from the inference application model model is It is possible to appropriately learn other models using only the inference applied model using the model, and to efficiently learn a plurality of models stored in the model storage means.
  • the learning target information storage means stores a reflection parameter indicating a degree of reflecting a response to learning of the learning model, and the reflection parameter corresponds to one inference application model.
  • the model learning means reads, from the learning target information storage means, reflection parameters associated with the learning model to be trained, and a degree corresponding to the read reflection parameters, You can also perform a learning process to reflect the response on the learning model with.
  • the response is reflected in the learning model at a degree corresponding to the reflection parameter, so that, for example, the degree of reflection of the model applied to inference on the model itself can be larger than that of other models. Also, for example, when two models are associated with the same learning model, the degree of reflection can be different between the two models. In this way, the magnitude of the effect of the response on the model can be set variably, and the model can be appropriately learned.
  • This vehicle information processing system provides general learning data for acquiring general learning data used for learning to bring a model specialized for each presented condition through learning by a model learning means close to a general model.
  • An acquisition unit may be provided, and the model learning unit may use the general learning data acquired by the general learning data acquisition unit to learn the model stored in the model storage unit! ,.
  • the vehicle information processing system includes a general learning reflection parameter storage unit that stores a general learning reflection parameter indicating a degree at which the general learning data is reflected in the model learning.
  • the model learning unit includes a general learning reflection parameter.
  • Memory means A learning process may be performed in which general learning data is reflected in model learning at a degree corresponding to the read general learning reflection parameters.
  • the vehicle information processing system includes an information presenting device including a presenting unit, and a center device connected to the information presenting device by communication. When the is presented, a response received from the presentee may be collected.
  • the center device collects the responses received by the plurality of information presenting devices, so that it is possible to grasp general responses of a large number of presentees to the presentation target.
  • a vehicle information processing system is a vehicle information processing system that infers a presentation target suitable for a presentee using an inference algorithm and presents the presentation target obtained by the inference.
  • a calculation resource storage unit that stores a plurality of calculation resources that differ according to a presented condition that is a condition regarding a presented side that receives a presentation of a presentation target; and a plurality of storage resources that are stored in the calculation resource storage unit.
  • the calculation resource determining means for determining the calculation resource according to the presented condition from the calculation resources of the present invention, and the calculation resource determined by the calculation resource determination means are read out from the calculation resource storage means.
  • Object inference means for obtaining an object to be presented by inference using calculated computing resources, and presentation for presenting the object to be presented to the presentee obtained by the object inference means Ru and a stage.
  • calculation resource is a resource used in the calculation of the inference algorithm.
  • a knowledge base is used, and in a neural network, a neuronal model in which a large number of neuron models are connected to each other.
  • the vehicle information presenting apparatus of the present embodiment is a vehicle information presenting apparatus that presents a stochastically suitable presenting target to a presenter who is an occupant using a Bayesian network model. Differs depending on the presented condition, which is the condition on the presented Model storage means for storing a plurality of Bayesian network models, model determination means for determining, as an inference application model, a model corresponding to a plurality of model forces stored in the model storage means and presented conditions, and model determination means.
  • the inference applying model determined by the above is read from the model storage means, and the presentation object inference means for obtaining the presentation object by stochastic inference using the read inference application model, and the presentation object obtained by the presentation object inference means are provided by the presentee. And a presentation means for presenting to the user.
  • the vehicle information presentation device of the present embodiment may be provided in an automobile.
  • the vehicle information processing method is a method of presenting a stochastically suitable presentation target to a presenter who is an occupant using a Bayesian net model, and receives the presentation target.
  • a model determination step is performed in which a model corresponding to the presented condition is determined as an inference application model from a plurality of Bayesian Net models that differ according to the presented condition, which is a condition relating to the presented side, and a model determining step.
  • the present invention comprises a presentation target inference step of obtaining a presentation target by using a probabilistic inference, and a presentation step of presenting the presentation target obtained in the presentation target inference step to the presentee.
  • the program of the present embodiment is a program for presenting a stochastically suitable presentation target to an occupant presenter using a Bayesian network model.
  • Inferred inference A presentation target inference step of obtaining a presentation target by stochastic inference using an application model, and a presentation step of presenting the presentation target obtained in the presentation target inference step to the presentee are executed.
  • a vehicle information processing system according to an embodiment of the present invention will be described with reference to the drawings.
  • a system for providing music suitable for a user in a content providing device mounted on an automobile will be described, but the presenting target of the vehicle information processing system of the present invention is not limited to music.
  • the vehicle information processing system of the present invention can be applied to, for example, a recommendation system that recommends restaurants and events suitable for the user.
  • the information processing system for a vehicle according to the present invention is not limited to a system mounted on an automobile.
  • a presentation target suitable for a user is presented on a portable terminal carried by a home computer user. Applicable to systems.
  • FIG. 1 is a diagram showing a configuration of an information processing system 10 according to the embodiment.
  • the vehicle information processing system (hereinafter referred to as “information processing system”) 10 includes a plurality of content providing devices 20, and each content providing device 20 is communicably connected to a center device 50.
  • the content providing device 20 is a device that selects music suitable for a user who is an occupant of an automobile and automatically performs the selected music.
  • the center device 50 is a device that tallies the data of the user response acquired by each content providing device 20.
  • FIG. 2 is a diagram showing a configuration of the content providing device 20.
  • the content providing device 20 includes a presentation unit 22 for presenting content to the user, an operation unit 24 for receiving an operation from the user, a data transmitting / receiving unit 26 for communicating with the center device 50, and a content providing device. And a control unit 28 for controlling the entirety of the control unit 20. Further, the content providing device 20 stores the content information storage unit 38 storing the content information, the model storage unit 40 storing the Bayesian network model, and the information of the model to be learned in association with the inference application model. And a learning target table storage unit 42.
  • the presentation unit 22 has a function of presenting content to a user.
  • Hardware of presentation part 22 Air is composed of speakers that output music performances, displays that display music names, artist names, and the like.
  • the operation unit 24 has a function of receiving a user's operation.
  • the operation unit 24 receives an operation for selecting an inference application model to be used for probability inference of the content, and a response to the presented content.
  • the hardware of the operation unit 24 includes buttons for instructing playback, stop, fast-forward, etc. of the performance, and a volume adjustment knob.
  • selecting an inference application model the candidate model is displayed on the presentation unit 22, and the inference application model is selected using the fast forward and rewind buttons.
  • accepting a response information on the operation of the button or the volume adjustment knob is obtained, and the response is determined.
  • the data transmitting / receiving unit 26 has a function of performing wireless communication with the center device 50.
  • the content providing device 20 and the center device 50 can communicate via, for example, a mobile phone network.
  • the content information storage section 38 stores a plurality of pieces of content information that are candidates for content to be presented to the user.
  • the content providing device 20 selects content suitable for the user based on the content stored in the content information storage unit 38 and provides the user with the content.
  • FIG. 3 is a diagram showing an example of content information stored in the content information storage unit 38.
  • the content information storage unit 38 stores music titles, genres, rankings, and music data.
  • the configuration in which the content information storage unit 38 stores the music data is described as an example, but the content providing device 20 may not have the music data.
  • a configuration in which the selected music data is acquired via a network, or a configuration in which an external disc player is also acquired is also possible.
  • the model storage unit 40 has a function of storing a model used to obtain content suitable for the user.
  • the model storage unit 40 stores three models, Model A, Model B, and Model C, according to the presented condition.
  • the presented condition is a condition relating to the presented side to be presented with the presented object.
  • Each model stored in the model storage unit 40 is suitable for performing probability inference under the corresponding presented condition!
  • the presented condition is the attribute of the user who gets in the car
  • model A is for the father
  • model B is for the mother
  • model C is for the family. Therefore, for example, Model A is a model suitable for obtaining the content to be presented to the father by stochastic inference.
  • Model A to C are general models before learning in the content presentation device 20.
  • Model A—Model C is specialized for each presented condition.
  • three models are stored in the model storage unit 40. The number of models stored is not limited to three.
  • FIG. 4 is a diagram showing an example of a model stored in the model storage unit 40.
  • the Bayesian network model includes nodes Nl for users, nodes N2 for contents, nodes N3 for situations, and nodes N4 for responses.Links indicating the dependencies of conditional probabilities via other nodes. It is connected.
  • the node N4 regarding the response is a node for predicting the response of the user.
  • the Bayesian inference unit 30 has a function of using a model stored in the model storage unit 40 to obtain content suitable for a user by probability inference.
  • the model inference unit 30 reads the model determined by the model determination processing unit 34 from the model storage unit 40, and performs inference using the read model.
  • the inference method by the Bayesian inference unit 30 will be described using a model shown in FIG.
  • the Bayesian inference unit 30 sets values for the nodes N1 to N3. In the node N1 relating to the user, for example, information such as the user's age, gender, and music preference is set.
  • One content information is read from the content information storage unit 38 and set in the node N2 relating to the content.
  • the node N3 relating to the situation, for example, time information and traveling location information are set.
  • the Bayesian inference unit 30 obtains the score of the node N4 regarding the response by the probability propagation from the node N1 to the node N3.
  • the Bayesian inference unit 30 sequentially reads out the content information from the content information storage unit 38, and obtains a score for each content by repeating the above operation. Then, the Bayesian inference unit 30 selects content suitable for the user based on the obtained score.
  • the Bayesian learning unit 32 has a function of learning a model using the response of the user.
  • the user response is information on whether or not to accept content input by the user, and is observed information.
  • the Bayesian learning unit 32 corrects the dependency of the conditional probability of the model based on the response, and updates the model to a model that can more accurately obtain the content that matches the user's preference under the presented conditions corresponding to the model. I do. That is, the model stored in the model storage unit 40 is updated to a dedicated model suitable for performing the probability inference under the corresponding presented condition.
  • the model determination processing unit 34 has a function of determining a model used for inference based on the model selection information input from the operation unit 24, and a learning target table storage unit 42. Has a function to determine the model to learn with reference to
  • FIG. 5 is a diagram showing an example of data stored in the learning target table storage unit 42.
  • the learning target table storage unit 42 stores the inference application model and the learning target model in association with each other.
  • the inference application model is a model applied to stochastic inference to find content suitable for the user.
  • the learning target model is a model that performs learning using a response to the presented content. For example, in the example shown in FIG. 5, when Model A is used as an inference application model, Model A and Model C are learning target models. Therefore, the response to the content obtained using the model A for the father is used for learning the model A for the father and the model C for the family.
  • the model A By reflecting the father's response to the content obtained by the model A for the father on the model A, the model A becomes a model that can more appropriately obtain the content that matches the preference of the father.
  • the father because the father is a member of the family, the father's response also affects the family model C. Therefore, the model C for the family is also set as the model for learning.
  • the response transmission processing unit 36 has a function of transmitting the response received from the operation unit 24 to the center device 50.
  • the response transmission processing unit 36 transmits all the received responses.
  • the response of the father, the response of the mother, and the response of the family are all transmitted.
  • FIG. 6 is a diagram showing a configuration of the center device 50.
  • the center device 50 includes a data transmission / reception unit 52 for communicating with the content providing device 20 and a control unit 54 for controlling the whole. Further, the center device 50 stores a response information storage unit 60 that stores a response transmitted from the content providing device 20 and a general model that stores a general model created based on the response stored in the response information storage unit 60.
  • a model storage unit 62 is a model storage unit 62.
  • the response information storage unit 60 has a function of storing the information of the response transmitted from the content providing device 20. Response information transmitted from the plurality of content providing devices 20 is collected in the response information storage unit 60.
  • the model creation unit 56 reads the response information stored in the response information storage unit 60, and creates a Bayesian network model based on the read response information. Has functions.
  • the model created here is a general model in which the presentation conditions of the content are not defined.
  • the model creation unit 56 has a function of storing the created model in the general model storage unit 62.
  • the model distribution unit 58 has a function of reading out the general model stored in the general model storage unit 62 and distributing the read model to the content providing device 20.
  • the model distribution unit 58 may distribute the general model in response to a request from the content providing device 20, or may distribute the general model periodically.
  • FIG. 7 is a diagram illustrating an operation of the information processing system 10 according to the first embodiment.
  • the content providing device 20 determines a model for obtaining content suitable for the user (S10).
  • the content providing device 20 determines one model from the three models stored in the model storage unit 40.
  • the content providing device 20 displays the information on the model stored in the model storage unit 40 on the presentation unit 22 and accepts the selection of the model by the operation unit 24.
  • the selection of model A for the father has been received from the operation unit 24.
  • the information received by the operation unit 24 is notified to the model determination processing unit 34, and the model determination processing unit 34 determines a model for obtaining content.
  • the Bayesian inference unit 30 of the content providing device 20 uses the determined model A Then, probability inference is performed to obtain content suitable for the user (S12).
  • the content information sequentially read from the content information storage unit 38 is set to the node N2 of the model A, and the score of the response node N4 is calculated for each content by the probability propagation from the nodes N1 to N3. Then, the content having a high response score is selected as the content to be presented.
  • the Bayesian inference unit 30 may obtain a song with the highest score as the content to be presented, or may obtain a plurality of songs having a score equal to or higher than a certain value. If the time for automatic performance is long, it is desirable to find several songs in time with the automatic performance time.
  • the content providing device 20 presents the content to the user by playing the requested music (S14).
  • the Bayesian learning unit 32 of the content providing device 20 receives a response from the user (S16).
  • the Bayesian learning unit 32 accepts the user's response from the operation unit 24 and determines the response based on the content of the operation. For example, if the music being played is stopped, the response is that the presented content will not be accepted. If the music being played has been heard to the end or the volume has been increased, the presented content will be accepted. Response.
  • the model determination processing unit 34 of the content providing device 20 selects a model to be learned (S18).
  • the model A for the father is applied to the inference, the model A and the model C are selected as the learning target models from the information of the learning target table storage unit 42 shown in FIG.
  • the Bayesian learning unit 32 of the content providing device 20 learns the models A and C using the response of the user received from the operation unit 24 (S20).
  • the content providing device 20 determines whether or not it has the power to end the content presentation processing (S22). The determination as to whether or not to end the content presentation processing can be made based on, for example, whether or not the vehicle has reached the destination. If it is determined that the content presentation processing is not to be ended, the operation of the content providing apparatus 20 proceeds to step S12 of the inference processing, and the content providing apparatus 20 obtains the music to be played next by probability inference. .
  • the response transmission processing unit 36 transmits the user response received by the operation unit 24 to the center device 50 (S24).
  • the response sent at this time includes information on the user's attributes, status, and content attributes in addition to the information on the user's response itself.
  • the center device 50 receives the response transmitted from the content providing device 20 (S 26), and stores the received response in the response information storage unit 60.
  • the center device 50 accumulates responses transmitted from the plurality of content providing devices 20.
  • the model creation unit 56 of the center device 50 After a predetermined amount of response information is stored in the response information storage unit 60, the model creation unit 56 of the center device 50 reads the response information from the response information storage unit 60, and uses the read response information. To create a Bayesian network model (S30). The model created at this time is a general model in which the presented condition is not defined. The model creation unit 56 stores the created model in the general model storage unit 62. The model distribution unit 58 of the center device 50 distributes the general model stored in the general model storage unit 62 to the content providing device 20 in response to a request from the content providing device 20 or periodically.
  • the content providing device 20 stores a plurality of different models in the model storage unit 40 according to the attributes of the user. These models are suitable for obtaining the content to be presented to the user with the corresponding attribute by stochastic inference. Then, the content providing device 20 reads out a model that also matches the attributes of the user with the model power stored in the model storage unit 40, and obtains the content to be presented to the user by using the read out model by probability inference. Content with a high degree of satisfaction can be sought. That is, the information processing system 10 can accurately obtain appropriate content. Furthermore, this can reduce the number of times the user has to re-present the content, thereby reducing the driver's burden and contributing to safe driving.
  • the learning target table storage unit 42 associates an inference application model with a model to be learned using a response to the content inferred by the inference application model. I remember. Then, the Bayesian learning unit 32 of the content providing device 20 determines the learning model by referring to the learning target table storage unit 42, so that the learning of the model affected by the response can be performed. In addition, since the learning target table storage unit 42 stores a plurality of learning target models for one inference application model, it is possible to efficiently learn a plurality of models with one response. .
  • the center device 50 aggregates the response information obtained by the content providing device 20 in the response information storage unit 60 and creates a general model using the aggregated response information, so that the latest trend is reflected. The obtained general model is obtained. Then, since the center device 50 distributes the general model to the content providing device 20, it becomes possible for the content providing device 20 to perform probability inference using the general model.
  • the information processing system 10 according to the second embodiment has the same basic configuration as the information processing system 10 according to the first embodiment. This is different from the information processing system 10 of the first embodiment.
  • FIG. 8 is a diagram illustrating an example of data stored in the learning target table storage unit 42 according to the second embodiment.
  • the learning target table storage unit 42 stores information on reflection parameters in addition to the inference application model and the learning target model.
  • the reflection parameter is a parameter indicating the degree to which the response of the user is reflected on the model to be learned. With this reflection parameter, the degree of reflection of the response to each model can be adjusted. For example, if the inference model is model A for the father, the reflection ratio of learning to model C for the family using the response is the reflection ratio of the response obtained using model C of ⁇ 1 ''. This indicates that the ratio is “0.2”.
  • FIG. 9 is a diagram illustrating an operation of the information processing system 10 according to the second embodiment.
  • the operation of the information processing system 10 according to the second embodiment is basically the same as that of the first information processing system 10. However, unlike the operation of the first embodiment, the operation of the second embodiment also reads out the reflection parameters when selecting the learning target model from the learning target table storage unit 42 (S18). Then, the Bayesian learning unit 32 of the content providing device 20 learns the model using the read reflection parameters (S20). [0087] In the information processing system 10 of the second embodiment, appropriate learning can be performed by learning the model using a parameter indicating the degree of reflection of the response to the model.
  • model C learning can be performed appropriately.
  • the information processing system 10 according to the third embodiment has the same basic configuration as the information processing system according to the first embodiment, except that the center device 50 collects responses from a plurality of content providing devices 20. The difference is that general learning data for making a model closer to a general model is created based on the information, and the generated general learning data is distributed to the content providing apparatus 20. Further, the content providing device 20 learns the model stored in the model storage unit 40 based on the general learning data transmitted from the center device 50.
  • FIG. 10 is a diagram showing a configuration of the center device 50 in the information processing system 10 according to the third embodiment.
  • the center device 50 according to the third embodiment includes a general learning data creation unit 64, a general learning data distribution unit 66, and a general learning data storage unit 68 in addition to the configuration of the center device 50 according to the first embodiment.
  • the general learning data creation unit 64 has a function of creating general learning data based on the response information stored in the response information storage unit 60 to bring the model to be learned closer to the general model.
  • the general learning data storage unit 68 has a function of storing the general learning data created by the general learning data creating unit 64.
  • the general learning data distribution unit 66 has a function of reading the general learning data stored in the general learning data storage unit 68 and distributing the general learning data to the content providing device 20.
  • FIG. 11 is a diagram illustrating a configuration of the content providing device 20 in the information processing system 10 according to the third embodiment.
  • the content providing device 20 according to the third embodiment includes, in addition to the configuration of the content providing device 20 according to the first embodiment, a reflection parameter indicating a degree of reflecting the general learning data transmitted from the center device 50 in the model.
  • the reflection parameters are stored in the model storage unit 40. Defines the degree to which the model is brought closer to the general model.
  • the Bayesian learning unit 32 of the control unit 28 uses the reflection parameters read from the reflection parameter storage unit 44 to determine the degree to which the general learning data is reflected in the model, and learns the model according to the determined degree. .
  • the Bayesian learning unit 32 performs learning using the general learning data, for example, the number of times set by the reflection parameter. When the value of the reflection parameter is large, the number of times of learning increases, so that the degree of reflection of the general learning data to the model increases.
  • FIG. 12 is a diagram illustrating an operation of the information processing system 10 according to the third embodiment.
  • the content information providing device 20 presents the content to the user and receives a response from the user as in the first embodiment or the second embodiment (S40). Then, the content providing device 20 transmits the received response to the center device 50 (S42). When receiving the response via the data transmission / reception unit 52 (S44), the center device 50 stores the received response in the response information storage unit 60 (S46).
  • the general learning data creation unit 64 of the center device 50 reads out the response stored in the response information storage unit 60, creates general learning data using the read response, and converts the created general learning data into general learning data. It is stored in the storage unit 68 (S48).
  • the general learning data distribution unit 66 of the center device 50 distributes the general learning data stored in the general learning data storage unit 68 to the content providing device 20 (S50).
  • the content providing device 20 acquires the general learning data by receiving the general learning data transmitted from the center device 50 (S52). Then, the Bayesian learning unit 32 of the content providing device 20 learns the model stored in the model storage unit 40 using the received general learning data (S54). At this time, the Bayesian learning unit 32 reads the reflection parameters from the reflection parameter storage unit 44 and reflects the general learning data based on the degree set by the read reflection parameters.
  • general learning data for learning a model is created based on response information aggregated from the content providing device 20, and the created general learning data is provided to the content. Deliver to device 20.
  • the content providing device 20 learns the model using the distributed general learning data, thereby reducing the specificity of the model due to the presented conditions, and creating a dedicated model suitable for probability inference under the presented conditions. To the model You can get closer.
  • the information processing system of the present invention is not limited to the force S described in detail in the embodiments, and the present invention is limited to the above embodiments.
  • the content providing device 20 includes the Bayesian inference unit 30 and the Bayesian learning unit 32, and performs content inference and model learning suitable for the user in the content providing device 20.
  • the force center device 50 may include a Bayesian inference unit 30 and a Bayesian learning unit 32.
  • FIG. 13 is a diagram showing a configuration of a center device 50 including a Bayesian inference unit 30 and a Bayesian learning unit 32.
  • the center device 50 includes a model storage unit 78 that stores a model used for selecting content to be presented, and a content information storage unit 80 that stores content information.
  • the model storage unit 78 stores a plurality of models used in each of the content providing devices 20 and a learning target table indicating a learning target model.
  • the control unit 54 of the center device 50 includes a model determination processing unit 74 for selecting a model to be applied to probability inference, a Bayesian inference unit 70 for selecting content to be presented, and distributes the selected content.
  • the content providing device 20 transmits the model selection information received by the operation unit 24 to the center device 50, and the center device 50 uses the model information indicated by the selection information.
  • the content suitable for the user is requested, and the requested content is distributed to the content providing device 20.
  • the response received by the content providing device 20 is transmitted to the center device 50, and the center device 50 learns the model.
  • the force information processing system 10 described in the example in which the information processing system 10 includes the center device 50 need not necessarily include the center device 50, and the content providing device illustrated in FIG. Only 20 constitutes the information processing system of the present invention.
  • one of the attributes of the user has been described as an example of the presented condition corresponding to the plurality of models stored in the model storage unit 40. Any other user attribute may be used as the presented condition.
  • the presented condition is not limited to the attribute of the user, and for example, a situation at the time of presentation can be used as the presented condition.
  • the situation at the time of presentation is the day of the week when the presentation is received, the time of day when the presentation is received, the mood when receiving the presentation, and the like.
  • the method of determining a force model described in the method of selecting a model by a user is the same as the method of user selection.
  • the information providing power of the key used when the user moves the car can be determined by the content providing apparatus 20 and the model can be automatically determined.
  • each model is created based on explicit criteria as described in the example in which a model is selectively used for each attribute such as for the father and for the mother, and each model is dedicated. It does not have to be done.
  • the model to be applied to the inference can be determined by the probability inference using the model selection model. That is, a model for model selection for obtaining a model to be applied to inference is stored in the storage unit and prepared. Then, a plurality of observed variables such as user attributes and the current situation are input to the model selection model read from the storage unit, and a model to be applied to inference is obtained by probability inference.
  • the model storage unit 40 stores three types of model A—model C.
  • the example in which the model is stored and the model that uses force among the three models is determined has been described.
  • the content providing device 50 receives the general model from the center device 50, and stores the received general model in the model storage unit 40 as a model D.
  • the content to be presented is obtained by stochastic inference using model D, and learning of model D is performed using the child's response to the content.
  • a model is created that can infer the content that matches the child's preference.
  • the information processing system of the present invention can be realized by executing, by a computer, a program including a module for realizing each component of the information processing system of the above-described embodiment. Included in the range.
  • the present invention is useful as a recommendation system or the like that presents a stochastically suitable presentation target using a Bayesian network model.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

 情報処理システムは、ユーザに適したコンテンツを提供するコンテンツ提供装置(20)を有する。コンテンツ提供装置(20)は、ユーザの属性に応じて異なる複数のモデルを記憶したモデル記憶部(40)と、モデル記憶部(40)に記憶された複数のモデルからユーザの属性に応じたモデルを選択するモデル決定処理部(34)と、モデル決定処理部(34)によって決定されたモデルをモデル記憶部(40)から読み出し、読み出したモデルを用いてユーザに適したコンテンツを確率推論により求めるベイジアン推論部(30)と、ベイジアン推論部(30)により求めたコンテンツをユーザに提示する提示部22とを備える。また、コンテンツ提供装置(20)は、操作部(24)から受け付けたコンテンツに対するユーザのレスポンスを用いてモデルの学習を行うベイジアン学習部(32)を有する。これにより、適切な提示対象を精度良く求めて提示できる。  

Description

明 細 書
車両用情報処理システム、車両用情報処理方法およびプログラム 技術分野
[0001] 本発明は、ベイジアンネットのモデルを用いて適切な提示対象を被提示者に提示 する車両用情報処理システムに関する。
背景技術
[0002] 情報技術の適用範囲が飛躍的に拡大している現在、これまでコンピュータにとって は扱いにくかった不確実で非明示的な情報を取り扱うことが必要になってきている。 例えば、インターネットショッピングにおいて、顧客のニーズを以前の取引履歴や顧 客管理情報から読み取り、目の前の顧客に最適な情報を推奨するリコメンデーション システムの場合を考えてみる。顧客リストの中から目の前の顧客に最も近 、購買バタ ーンを見つけるとしても年齢や性別が同じだからといって同じ嗜好性を持っていると は限らない。また顧客が、登録時に申請したアンケートと同じ嗜好性をいつまでも持 ち続けているとも限らない。そこで、顧客のアクション (WWWブラウジング履歴など) や属性、アンケート情報力 総合的に判断して嗜好性を予測することが必要となるわ けだが、必ずしも一つの答えとして決定できるとは限らない。対象となる候補は同時 に複数存在することもあり得る。そして、それぞれの候補についても「これまで見てい た wwwページから、ユーザはおそらくサッカー関連の情報に興味がある可能性が 高 、」 t 、つた漠然とした不確実性を伴ったものとして扱うことが自然である。
[0003] こうした問題においては、確率的な枠組みが有効である。サッカー関連の商品に興 味のある可能性が 60%、旅行に興味のある可能性が 30%などというように複数の候 補に確信度をつけ、不確実性を含んだ状態で取り扱うことができる。そして、直前に 見ていたページが例えば韓国に関するものであった場合に、ワールドカップサッカー 関連の情報、旅行関連情報、料理関連情報のそれぞれに興味のある確率を計算し て、目の前の顧客が最も高い確率で関心を持つと思われる対象を提供することが考 えられる。またこの確率を計算するには様々な多くの要因(例えばアンケートで答え た趣味など)を考慮に入れて、その間の依存関係 (スポーツが趣味ならサッカーに興 味がある可能性が高いなど)を利用することでより精度の高い予測が可能になる。
[0004] このような複数の要因の依存関係に基づ!/、て確率計算を行う情報処理モデルとし てベイジアンネットが最近、様々な分野で注目を集めている。ベイジアンネットとは(1 )確率変数と (2)確率変数間の条件付依存関係、 (3)その条件付確率の 3つによつ て定義されるネットワーク状の確率モデルである。 (1)はノード、(2)はノード間に張つ た有向リンクで表され、リンクの先に来るノードを子ノード、リンクの元にあるノードを親 ノードと呼ぶ。(3)は親ノードがある値をとつた時に、子ノードがある値をとる条件付確 率で、離散変数の場合には P (子ノード =y I親ノード =xl, x2, . . . ) =pのような、 子ノードと親ノードがとる全ての状態のそれぞれにおける確率値を列挙した表 (条件 付き確率表)の形で表現する (本村陽一「ベイジアンネットソフトウェア」、人工知能学 会論文誌、第 17卷 5号 a (2002年))。
[0005] 前述のリコメンデーションシステムは、ベイジアンネットを用いて実現することができ る。具体的には、年齢、性別、またはライフスタイルなどが多種多様の膨大な数の顧 客から取得したアンケートの調査結果や購買履歴などの統計データに基づいて、顧 客の属性等と顧客の関心の高い対象との関係をベイジアンネットのモデルで表現す る。そして、ベイジアンネットのモデルを用いて、顧客の属性やそのときの状況などか ら顧客の関心の高い対象を推論し、その推論結果に基づいて顧客に関心の高い対 象を推奨する。
発明の開示
発明が解決しょうとする課題
[0006] 上記したリコメンデーションシステムでは、多種多様の顧客力 得られた統計データ に基づ 、てベイジアンネットのモデルが作成されるため、リコメンデーションの対象を 求めるための顧客属性や状況などの条件がリコメンデーションに及ぼす影響が小さ いと考えられる。例えば、リコメンデーションの対象を求めるための条件を「顧客の属 性が父親」とした場合、父親という属性を有する顧客力も得られたデータは、ベイジァ ンネットのモデル作成の元となった統計データ全体の一部であり、父親と 、う属性を 有する顧客のみ力 取得した統計データに基づ 、て作成されたモデルに比べ、父親 という条件がモデルに及ぼす影響が小さい。現在、リコメンデーションの対象を求める ための条件をリコメンデーション結果に十分に反映させ、さらに精度の良いリコメンデ ーシヨンを行う研究が進められて 、る。
[0007] 本発明は上記背景に鑑み、被提示者に提示する提示対象をより適切に求めること ができる車両用情報処理システムを提供することを目的とする。
課題を解決するための手段
[0008] 本発明の車両用情報処理システムは、ベイジアンネットのモデルを用いて確率的に 適した提示対象を乗員である被提示者に提示する車両用情報処理システムであつ て、提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて異 なる複数のベイジアンネットのモデルを記憶したモデル記憶手段と、モデル記憶手段 に記憶された複数のモデル力ゝら被提示条件に応じたモデルを推論適用モデルとして 決定するモデル決定手段と、モデル決定手段により決定された推論適用モデルをモ デル記憶手段から読み出し、読み出した推論適用モデルを用いた確率推論により提 示対象を求める提示対象推論手段と、提示対象推論手段により求めた提示対象を 被提示者に提示する提示手段とを備える。
[0009] 本発明の車両用情報処理システムにお 、て、モデル記憶手段は、被提示者の属 性に応じて異なる複数のベイジアンネットのモデルを記憶し、モデル決定手段は、被 提示者の属性に対応するモデルを推論適用モデルとして決定してもよい。また、モデ ル記憶手段は、提示対象の提示を受ける状況に応じて異なる複数のベイジアンネッ トのモデルを記憶し、モデル決定手段は、提示対象の提示を受ける状況に対応する モデルを推論適用モデルとして決定してもよ 、。
[0010] 本発明の車両情報処理システムは、被提示者の属性および提示対象の提示を受 ける状況に基づいて、複数のモデルカゝら推論適用モデルを求める確率推論に適用 するモデル選択用モデルを記憶したモデル選択用モデル記憶手段を備え、モデル 決定手段は、モデル選択用モデル記憶手段から読み出したモデル選択用モデルを 用いた確率推論により、被提示者の属性および提示対象の提示を受ける状況に基 づいて、推論適用モデルを決定してもよい。
[0011] 本発明の車両用情報処理システムは、提示対象推論手段が推論適用モデルから 求めた提示対象を提示手段が提示したときの被提示者のレスポンスを受け付けるレ スポンス受付手段と、レスポンス受付手段が受け付けたレスポンスを用いてモデル記 憶手段に記憶されたモデルの学習を行!、、被提示条件ごとに専用化されたモデル に更新するモデル学習手段とを備えてもょ 、。
[0012] 本発明の情報提示システムは、提示対象推論手段での確率推論に適用される推 論適用モデルに関連付けて、モデル記憶手段が記憶する複数のモデルのうちで推 論適用モデルと同一モデルおよび推論適用モデルを使った推論結果の影響を受け るべき他のモデルを学習モデルとして記憶した学習対象情報記憶手段を備え、モデ ル学習手段は、レスポンス受付手段が受け付けたレスポンスを用いて、学習対象情 報記憶手段にて学習モデルとして推論適用モデルに関連付けられたモデルの学習 を行ってもよい。学習対象情報記憶手段は、学習モデルの学習にレスポンスを反映 させる度合いを示す反映パラメータを記憶しており、反映パラメータは、一の推論適 用モデルに対応する複数の学習モデルのそれぞれに対して設定されており、モデル 学習手段は、学習を行うべき学習モデルに関連付けられた反映パラメータを学習対 象情報記憶手段から読み出し、読み出した反映パラメータに応じた度合いでレスポ ンスを学習モデルに反映させる学習処理を行ってもょ 、。
[0013] 本発明の車両用情報処理システムは、モデル学習手段による学習を経て被提示条 件ごとに専用化されたモデルを、一般のモデルに近づけるための学習に用いる一般 学習データを取得する一般学習データ取得手段を備え、モデル学習手段は、一般 学習データ取得手段により取得された一般学習データを用 、て、モデル記憶手段に 記憶されたモデルの学習を行ってもよい。また、一般学習データをモデルの学習に 反映させる度合いを示す一般学習反映パラメータを記憶した一般学習反映パラメ一 タ記憶手段を備え、モデル学習手段は、一般学習反映パラメータ記憶手段から読み 出した一般学習反映パラメータに応じた度合 、で一般学習データをモデルの学習に 反映させる学習処理を行ってもょ ヽ。
[0014] 本発明の車両用情報処理システムは、提示手段を備える情報提示装置と、情報提 示装置と通信で接続されるセンター装置とを備え、センター装置は、複数の情報提 示装置から、提示対象が提示されたときに被提示者カゝら受け付けられたレスポンスを 収集する構成としてもよい。 [0015] 本発明の別の態様の車両用情報処理システムは、推論アルゴリズムを用いて被提 示者に適した提示対象を推論し、推論により求めた提示対象を提示する車両用情報 処理システムであって、提示対象の提示を受ける被提示側に関する条件である被提 示条件に応じて異なる複数の計算用リソースを記憶した計算用リソース記憶手段と、 計算用リソース記憶手段に記憶された複数の計算用リソース力 被提示条件に応じ た計算用リソースを決定する計算用リソース決定手段と、計算用リソース決定手段に より決定された計算用リソースを計算用リソース記憶手段力 読み出し、読み出した 計算用リソースを用いた推論により提示対象を求める提示対象推論手段と、提示対 象推論手段により求めた提示対象を被提示者に提示する提示手段とを備える。
[0016] 本発明の車両用情報提示装置は、ベイジアンネットのモデルを用いて確率的に適 した提示対象を乗員である被提示者に提示する車両用情報提示装置であって、提 示対象の提示を受ける被提示側に関する条件である被提示条件に応じて異なる複 数のベイジアンネットのモデルを記憶したモデル記憶手段と、モデル記憶手段に記 憶された複数のモデル力ゝら被提示条件に応じたモデルを推論適用モデルとして決定 するモデル決定手段と、モデル決定手段により決定された推論適用モデルをモデル 記憶手段から読み出し、読み出した推論適用モデルを用いた確率推論により提示対 象を求める提示対象推論手段と、提示対象推論手段により求めた提示対象を被提 示者に提示する提示手段とを備える。本発明の車両用情報提示装置は、自動車に 備えられてもよい。
[0017] 本発明の車両用情報処理方法は、ベイジアンネットのモデルを用いて確率的に適 した提示対象を乗員である被提示者に提示する方法であって、提示対象の提示を受 ける被提示側に関する条件である被提示条件に応じて異なる複数のベイジアンネッ トのモデルから、被提示条件に応じたモデルを推論適用モデルとして決定するモデ ル決定ステップと、モデル決定ステップにて決定された推論適用モデルを用いた確 率推論により提示対象を求める提示対象推論ステップと、提示対象推論ステップに て求めた提示対象を被提示者に提示する提示ステップとを備える。
[0018] 本発明のプログラムは、ベイジアンネットのモデルを用いて確率的に適した提示対 象を乗員である被提示者に提示するためのプログラムであって、コンピュータに、提 示対象の提示を受ける被提示側に関する条件である被提示条件に応じて異なる複 数のベイジアンネットのモデルから、被提示条件に応じたモデルを推論適用モデルと して決定するモデル決定ステップと、モデル決定ステップにて決定された推論適用モ デルを用いた確率推論により提示対象を求める提示対象推論ステップと、提示対象 推論ステップにて求めた提示対象を被提示者に提示する提示ステップとを実行させ る。
[0019] 以下に説明するように、本発明には他の態様が存在する。したがって、この発明の 開示は、本発明の一部の態様の提供を意図しており、請求される発明の範囲を制限 することは意図していない。
図面の簡単な説明
[0020] [図 1]図 1は、第 1の実施の形態の情報処理システムの構成を示す図である。
[図 2]図 2は、第 1の実施の形態におけるコンテンツ提供装置の構成を示す図である。
[図 3]図 3は、第 1の実施の形態においてコンテンツ情報記憶部に記憶されたデータ の例を示す図である。
[図 4]図 4は、第 1の実施の形態にお!、てモデル記憶部に記憶されたモデルの例を 示す図である。
[図 5]図 5は、第 1の実施の形態において学習対象テーブル記憶部に記憶されたデ 一タの例を示す図である。
[図 6]図 6は、第 1の実施の形態におけるセンター装置の構成を示す図である。
[図 7]図 7は、第 1の実施の形態の情報処理システムの動作を示す図である。
[図 8]図 8は、第 2の実施の形態において学習対象テーブル記憶部に記憶されたデ 一タの例を示す図である。
[図 9]図 9は、第 2の実施の形態の情報処理システムの動作を示す図である。
[図 10]図 10は、第 3の実施の形態におけるセンター装置の構成を示す図である。
[図 11]図 11は、第 3の実施の形態におけるコンテンツ提供装置の構成を示す図であ る。
[図 12]図 12は、第 3の実施の形態の情報処理システムの動作を示す図である。
[図 13]図 13は、変形例に係るセンター装置の構成を示す図である。 発明を実施するための最良の形態
[0021] 以下に、本発明の詳細な説明を述べる。ただし、以下の詳細な説明と添付の図面 は発明を限定するものではない。発明の範囲は、添付の請求の範囲により規定され る。
[0022] 本実施の形態の車両用情報処理システムは、ベイジアンネットのモデルを用いて確 率的に適した提示対象を乗員である被提示者に提示する車両用情報処理システム であって、提示対象の提示を受ける被提示側に関する条件である被提示条件に応じ て異なる複数のベイジアンネットのモデルを記憶したモデル記憶手段と、モデル記憶 手段に記憶された複数のモデルから被提示条件に応じたモデルを推論適用モデル として決定するモデル決定手段と、モデル決定手段により決定された推論適用モデ ルをモデル記憶手段から読み出し、読み出した推論適用モデルを用いた確率推論 により提示対象を求める提示対象推論手段と、提示対象推論手段により求めた提示 対象を被提示者に提示する提示手段とを備える。
[0023] 被提示者の属性等の被提示条件に応じて異なる複数のモデルを記憶しておき、そ れらのモデルから被提示条件に対応するモデルを読み出し、読み出したモデルを確 率推論に適用することで、そのときどきの被提示条件の下で適切な提示対象を精度 良く求めることができる。
[0024] この車両用情報処理システムにお 、て、モデル記憶手段は、被提示者の属性に応 じて異なる複数のベイジアンネットのモデルを記憶し、モデル決定手段は、被提示者 の属性に対応するモデルを推論適用モデルとして決定してもよい。
[0025] これにより、被提示者の属性に応じて異なったモデルを確率推論に適用でき、被提 示者の属性に応じた適切な提示対象を求めることができる。
[0026] この車両用情報処理システムにお 、て、モデル記憶手段は、提示対象の提示を受 ける状況に応じて異なる複数のベイジアンネットのモデルを記憶し、モデル決定手段 は、提示対象の提示を受ける状況に対応するモデルを推論適用モデルとして決定し てもよい。
[0027] これにより、提示対象の提示を受ける状況に応じて異なったモデルを確率推論に 適用でき、提示を受ける状況に応じた適切な提示対象を求めることができる。 [0028] この車両情報処理システムは、被提示者の属性および提示対象の提示を受ける状 況に基づいて、複数のモデル力 推論適用モデルを求める確率推論に適用するモ デル選択用モデルを記憶したモデル選択用モデル記憶手段を備え、モデル決定手 段は、モデル選択用モデル記憶手段力 読み出したモデル選択用モデルを用いた 確率推論により、被提示者の属性および提示対象の提示を受ける状況に基づいて、 推論適用モデルを決定してもよ 、。
[0029] このようにモデル選択用モデルを用いた確率推論によって複数のモデルカゝら推論 適用モデルを確率推論によって求める構成により、被提示者の属性や提示対象の提 示を受ける状況などの明示的な変数ごとに複数のモデルが生成されていない場合に も、被提示者の属性や提示を受ける状況などに応じて適切な提示対象を求めること ができる推論適用モデルを選択できる。
[0030] この車両用情報処理システムは、提示対象推論手段が推論適用モデルから求めた 提示対象を提示手段が提示したときの被提示者のレスポンスを受け付けるレスポンス 受付手段と、レスポンス受付手段が受け付けたレスポンスを用いてモデル記憶手段 に記憶されたモデルの学習を行 ヽ、被提示条件ごとに専用化されたモデルに更新 するモデル学習手段とを備えてもよい。
[0031] これにより、被提示者のレスポンスによってモデル記憶手段に記憶されたモデルの 学習を行うので、モデル記憶手段のモデルは被提示条件での確率推論に適した専 用化されたモデルへと更新される。従って、モデル記憶手段に記憶されたモデルを 用いて、適切に提示対象を求めることができる。
[0032] この情報提示システムは、提示対象推論手段での確率推論に適用される推論適用 モデルに関連付けて、モデル記憶手段が記憶する複数のモデルのうちで推論適用 モデルと同一モデルおよび推論適用モデルを使った推論結果の影響を受けるべき 他のモデルを学習モデルとして記憶した学習対象情報記憶手段を備え、モデル学 習手段は、レスポンス受付手段が受け付けたレスポンスを用いて、学習対象情報記 憶手段にて学習モデルとして推論適用モデルに関連付けられたモデルの学習を行 つてもよい。
[0033] これにより、推論適用モデルカゝら求めた提示対象に対する被提示者のレスポンスを 使って、その推論適用モデルだけでなぐ他のモデルの学習を適切に行うことができ 、モデル記憶手段に記憶されて 、る複数のモデルを効率良く学習させることができる
[0034] この車両用情報処理システムにおいて、学習対象情報記憶手段は、学習モデルの 学習にレスポンスを反映させる度合いを示す反映パラメータを記憶しており、反映パ ラメータは、一の推論適用モデルに対応する複数の学習モデルのそれぞれに対して 設定されており、モデル学習手段は、学習を行うべき学習モデルに関連付けられた 反映パラメータを学習対象情報記憶手段から読み出し、読み出した反映パラメータ に応じた度合 、でレスポンスを学習モデルに反映させる学習処理を行ってもょ 、。
[0035] これにより、反映パラメータに応じた度合いでレスポンスが学習モデルに反映される ので、例えば、推論に適用したモデル自身のモデルへの反映度合いを他のモデルよ り大きくできる。また、例えば、 2つのモデルが同じ学習モデルを関係付けられている とき、それら 2つで反映度合いを異ならせることもできる。このようにして、レスポンスの モデルへの影響の大きさを可変に設定することができ、モデルの学習を適切に行え る。
[0036] この車両用情報処理システムは、モデル学習手段による学習を経て被提示条件ご とに専用化されたモデルを、一般のモデルに近づけるための学習に用いる一般学習 データを取得する一般学習データ取得手段を備え、モデル学習手段は、一般学習 データ取得手段により取得された一般学習データを用いて、モデル記憶手段に記憶 されたモデルの学習を行ってもよ!、。
[0037] これにより、被提示条件での確率推論に適した専用のモデルに一般モデルの要素 を加えることができ、一般の嗜好を取り入れた推論を行えるモデルを作成できる。また 、学習によるモデルの専用化の進行を適当に制限できる。
[0038] この車両用情報処理システムは、一般学習データをモデルの学習に反映させる度 合いを示す一般学習反映パラメータを記憶した一般学習反映パラメータ記憶手段を 備え、モデル学習手段は、一般学習反映パラメータ記憶手段力 読み出した一般学 習反映パラメータに応じた度合いで一般学習データをモデルの学習に反映させる学 習処理を行ってもよい。 [0039] これにより、モデル記憶手段に記憶された専用化されたモデルを一般のモデルに 近づける度合 、を設定できる。
[0040] この車両用情報処理システムは、提示手段を備える情報提示装置と、情報提示装 置と通信で接続されるセンター装置とを備え、センター装置は、複数の情報提示装 置から、提示対象が提示されたときに被提示者カゝら受け付けられたレスポンスを収集 する構成としてちよい。
[0041] これにより、センター装置が複数の情報提示装置にて受け付けたレスポンスを収集 するので、提示対象に対する多数の被提示者の一般的なレスポンスを把握できる。
[0042] 本実施の形態の別の態様の車両用情報処理システムは、推論アルゴリズムを用い て被提示者に適した提示対象を推論し、推論により求めた提示対象を提示する車両 用情報処理システムであって、提示対象の提示を受ける被提示側に関する条件であ る被提示条件に応じて異なる複数の計算用リソースを記憶した計算用リソース記憶 手段と、計算用リソース記憶手段に記憶された複数の計算用リソースから被提示条 件に応じた計算用リソースを決定する計算用リソース決定手段と、計算用リソース決 定手段により決定された計算用リソースを計算用リソース記憶手段から読み出し、読 み出した計算用リソースを用いた推論により提示対象を求める提示対象推論手段と、 提示対象推論手段により求めた提示対象を被提示者に提示する提示手段とを備え る。
[0043] 被提示者の属性等の被提示条件に応じて異なる複数の計算用リソースを記憶して おき、それらの計算用リソース力も被提示条件に対応する計算用リソースを読み出し 、読み出したモデルを確率推論に適用することで、そのときどきの被提示条件の下で 適切な提示対象を精度良く求めることができる。ここで、「計算用リソース」とは、推論 アルゴリズムの計算で用いるリソースであり、例えば、エキスパートシステムでは知識 ベース、ニューラルネットでは、ニューロンのモデルが互いに多数結合された-ユーラ ルネットワークである。
[0044] 本実施の形態の車両用情報提示装置は、ベイジアンネットのモデルを用いて確率 的に適した提示対象を乗員である被提示者に提示する車両用情報提示装置であつ て、提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて異 なる複数のベイジアンネットのモデルを記憶したモデル記憶手段と、モデル記憶手段 に記憶された複数のモデル力ゝら被提示条件に応じたモデルを推論適用モデルとして 決定するモデル決定手段と、モデル決定手段により決定された推論適用モデルをモ デル記憶手段から読み出し、読み出した推論適用モデルを用いた確率推論により提 示対象を求める提示対象推論手段と、提示対象推論手段により求めた提示対象を 被提示者に提示する提示手段と、を備える。
[0045] これにより、上記の車両用情報処理システムと同様に、適切な提示対象を精度良く 求めることができる。また、本実施の形態の車両用情報提示装置に上記した車両用 情報処理システムの各種の構成を適用することも可能である。
[0046] 本実施の形態の車両用情報提示装置は、自動車に備えられてもよい。
[0047] これにより、運転手が受け入れる可能性が高い適切な情報が提示されるので、何度 も情報の提示を受けなくてもよぐ情報の提示を受ける運転手の負担を軽減できる。 従って、安全な走行に資することができる。
[0048] 本実施の形態の車両用情報処理方法は、ベイジアンネットのモデルを用いて確率 的に適した提示対象を乗員である被提示者に提示する方法であって、提示対象の 提示を受ける被提示側に関する条件である被提示条件に応じて異なる複数のベイジ アンネットのモデルから、被提示条件に応じたモデルを推論適用モデルとして決定す るモデル決定ステップと、モデル決定ステップにて決定された推論適用モデルを用 V、た確率推論により提示対象を求める提示対象推論ステップと、提示対象推論ステ ップにて求めた提示対象を被提示者に提示する提示ステップとを備える。
[0049] これにより、上記の車両用情報処理システムと同様に、適切な提示対象を精度良く 求めることができる。また、本実施の形態の車両用情報処理方法に上記した車両用 情報処理システムの各種の構成を適用することも可能である。
[0050] 本実施の形態のプログラムは、ベイジアンネットのモデルを用いて確率的に適した 提示対象を乗員である被提示者に提示するためのプログラムであって、コンピュータ に、提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて異 なる複数のベイジアンネットのモデルから、被提示条件に応じたモデルを推論適用モ デルとして決定するモデル決定ステップと、モデル決定ステップにて決定された推論 適用モデルを用いた確率推論により提示対象を求める提示対象推論ステップと、提 示対象推論ステップにて求めた提示対象を被提示者に提示する提示ステップと、を 実行させる。
[0051] これにより、上記の車両用情報処理システムと同様に、適切な提示対象を精度良く 求めることができる。また、本実施の形態のプログラムに上記した車両用情報処理シ ステムの各種の構成を適用することも可能である。
[0052] 以下、本発明の実施の形態の車両用情報処理システムについて、図面を用いて説 明する。以下の説明では、自動車に搭載されたコンテンツ提供装置にて、ユーザに 適した楽曲を提供するシステムを取り上げるが、本発明の車両用情報処理システム の提示対象は楽曲に限定されるものではない。本発明の車両用情報処理システムは 、例えば、ユーザに適したレストランやイベント等を推薦するリコメンデーションシステ ムにも適用できる。また、本発明の車両用情報処理システムは、自動車に搭載される ものに限定されず、例えば、家庭のノ ソコンゃユーザが携帯する携帯端末にて、ュ 一ザに適した提示対象を提示するシステムにも適用できる。
[0053] 図 1は、実施の形態の情報処理システム 10の構成を示す図である。車両用情報処 理システム(以下、「情報処理システム」という) 10は、複数のコンテンツ提供装置 20 を備えており、各コンテンツ提供装置 20はセンター装置 50と通信可能に接続されて いる。コンテンツ提供装置 20は、自動車の乗員であるユーザに適した楽曲を選択し、 選択された楽曲を自動演奏する装置である。センター装置 50は、各コンテンツ提供 装置 20で取得されたユーザのレスポンスのデータを集計する装置である。
[0054] 図 2は、コンテンツ提供装置 20の構成を示す図である。コンテンツ提供装置 20は、 ユーザにコンテンツを提示するための提示部 22と、ユーザ力ゝらの操作を受け付ける 操作部 24と、センター装置 50と通信するためのデータ送受信部 26と、コンテンツ提 供装置 20の全体を制御する制御部 28とを備える。また、コンテンツ提供装置 20は、 コンテンツ情報を記憶したコンテンツ情報記憶部 38と、ベイジアンネットのモデルを 記憶したモデル記憶部 40と、学習対象のモデルの情報を推論適用モデルに関連付 けて記憶した学習対象テーブル記憶部 42とを備えている。
[0055] 提示部 22は、ユーザにコンテンツを提示する機能を有する。提示部 22のハードウ エアは、楽曲の演奏を出力するスピーカー、楽曲名やアーティスト名などを表示する ディスプレイ等によって構成される。
[0056] 操作部 24は、ユーザ力もの操作を受け付ける機能を有する。操作部 24は、コンテ ンッの確率推論に用いる推論適用モデルを選択する操作、および提示されたコンテ ンッに対するレスポンスを受け付ける。操作部 24のハードウェアは、演奏の再生、停 止、早送りなどを指示するボタンやボリューム調整つまみによって構成される。推論適 用モデルを選択する場合には、候補のモデルを提示部 22に表示し、早送り、巻き戻 しボタンにより推論適用モデルを選択する。レスポンスを受け付ける場合には、ボタン やボリューム調整つまみの操作の情報を取得し、レスポンスを判断する。
[0057] データ送受信部 26は、センター装置 50と無線通信する機能を有する。コンテンツ 提供装置 20とセンター装置 50とは、例えば携帯電話網を介して通信することができ る。
[0058] コンテンツ情報記憶部 38は、ユーザに提示するコンテンツの候補となる複数のコン テンッ情報が記憶されている。コンテンツ提供装置 20は、コンテンツ情報記憶部 38 に記憶されたコンテンツ力もユーザに適したコンテンツを選択し、ユーザに提供する
[0059] 図 3は、コンテンツ情報記憶部 38に記憶されたコンテンツ情報の例を示す図である 。図 3に示すように、コンテンツ情報記憶部 38には、楽曲名、ジャンル、ランキングお よび楽曲データが記憶されている。本実施の形態では、コンテンツ情報記憶部 38〖こ 楽曲データを記憶する構成を例として説明しているが、コンテンツ提供装置 20は楽 曲データを有しなくてもよい。例えば、ユーザに提示する楽曲が選択された時点で、 選択された楽曲データをネットワーク経由で取得する構成、あるいは外付けのデイス タカも取得する構成とすることも可能である。
[0060] 図 2に戻って、モデル記憶部 40は、ユーザに適したコンテンツを求めるために用い るモデルを記憶する機能を有する。モデル記憶部 40には、被提示条件に応じてモ デル A、モデル B、モデル Cの 3つのモデルが記憶されている。被提示条件とは、提 示対象の提示を受ける被提示側に関する条件である。モデル記憶部 40に記憶され た各モデルは対応する被提示条件の下での確率推論を行うのに適して!/、る。本実施 の形態では、被提示条件は自動車に乗るユーザの属性であり、モデル Aは父親用、 モデル Bは母親用、モデル Cは家族用のモデルであるとする。従って、例えば、モデ ル Aは父親に提示するコンテンツを確率推論により求めるのに適したモデルである。 なお、モデル A—モデル Cは、コンテンツ提示装置 20での学習を行う前は、いずれも 一般モデルである。モデル A—モデル Cを対応する被提示条件の下で適用し、その レスポンスを用いた学習を行うことにより、モデル A—モデル Cは、被提示条件ごとに 専用化される。また、ここでは、モデル記憶部 40には、 3つのモデルが記憶されてい る力 記憶されるモデルの数は 3つに限定されない。
[0061] 図 4は、モデル記憶部 40に記憶されたモデルの例を示す図である。図 4に示すよう に、ベイジアンネットのモデルは、ユーザに関するノード Nl、コンテンツに関するノー ド N2、状況に関するノード N3、レスポンスに関するノード N4力 他のノードを介して 条件付確率の依存関係を示すリンクで接続されている。なお、レスポンスに関するノ ード N4は、ユーザのレスポンスを予測するためのノードである。
[0062] 次に、コンテンツ提供装置 20の制御部 28について説明する。図 2に示す制御部 2 8にお 、て、ベイジアン推論部 30はモデル記憶部 40に記憶されたモデルを用いて ユーザに適したコンテンツを確率推論により求める機能を有する。モデル推論部 30 は、モデル決定処理部 34によって決定されたモデルをモデル記憶部 40から読み出 し、読み出したモデルを用いて推論を行う。ここで、ベイジアン推論部 30による推論 方法を、図 4に示すモデルを用いて説明する。まず、ベイジアン推論部 30は、ノード N1— N3に値を設定する。ユーザに関するノード N1には、例えば、ユーザの年齢、 性別、音楽の好みなどの情報を設定する。コンテンツに関するノード N2には、コンテ ンッ情報記憶部 38からコンテンツ情報を一つ読み出して設定する。状況に関するノ ード N3には、例えば、時刻の情報や走行場所の情報を設定する。そして、ベイジァ ン推論部 30は、ノード N1—ノード N3からの確率伝搬によってレスポンスに関するノ ード N4のスコアを求める。ベイジアン推論部 30は、コンテンツ情報記憶部 38から順 次コンテンツ情報を読み出し、上記した動作を繰り返して各コンテンツのスコアを求め る。そして、ベイジアン推論部 30は、求めたスコアに基づいてユーザに適するコンテ ンッを選択する。 [0063] 制御部 28において、ベイジアン学習部 32はユーザのレスポンスを用いてモデルの 学習を行う機能を有する。ユーザのレスポンスとは、ユーザによって入力されるコンテ ンッを受け入れるか否かについての情報であり、観測された情報である。ベイジアン 学習部 32は、レスポンスによってモデルの条件付確率の依存関係を修正し、モデル に対応する被提示条件の下でユーザの嗜好に合ったコンテンツをより精度良く求め ることができるモデルへと更新する。すなわち、モデル記憶部 40に記憶されたモデル は、対応する被提示条件の下で確率推論を行うのに適した専用のモデルへと更新さ れていく。
[0064] 制御部 28においてモデル決定処理部 34は、操作部 24から入力されたモデル選 択情報力 推論に用いるモデルを決定する機能と、学習対象テーブル記憶部 42〖こ 記憶された学習対象テーブルを参照して学習を行うモデルを決定する機能を有する
[0065] 図 5は、学習対象テーブル記憶部 42に記憶されたデータの例を示す図である。学 習対象テーブル記憶部 42は、推論適用モデルと学習対象モデルとを関連付けて記 憶している。推論適用モデルは、ユーザに適したコンテンツを求めるための確率推論 に適用したモデルである。学習対象モデルは、提示されたコンテンツに対するレスポ ンスを用いて学習を行うモデルである。例えば、図 5に示す例では、モデル Aを推論 適用モデルとしたときに、モデル Aおよびモデル Cが学習対象モデルである。従って 、父親用のモデル Aを用いて求めたコンテンツに対するレスポンスは、父親用のモデ ル Aと家族用のモデル Cの学習に用いられる。父親用のモデル Aで求めたコンテンツ に対する父親のレスポンスがモデル Aに反映されることにより、モデル Aは父親の嗜 好に合ったコンテンツをより適切に求めることができるモデルになる。また、父親は家 族の構成員であるので、父親のレスポンスは家族用のモデル Cにも影響を与える。従 つて、家族用のモデル Cも学習対象のモデルとして設定されている。
[0066] 制御部 28にお 、て、レスポンス送信処理部 36は、操作部 24から受け付けたレスポ ンスをセンター装置 50に送信する機能を有する。レスポンス送信処理部 36は、受け 付けたすべてのレスポンスを送信する。本実施の形態の例では、父親のレスポンス、 母親のレスポンス、家族のレスポンスがすべて送信される。 [0067] 図 6は、センター装置 50の構成を示す図である。センター装置 50は、コンテンツ提 供装置 20と通信するためのデータ送受信部 52と全体を制御する制御部 54とを備え る。また、センター装置 50は、コンテンツ提供装置 20から送信されるレスポンスを蓄 積するレスポンス情報記憶部 60と、レスポンス情報記憶部 60に蓄積されたレスボン スに基づいて作成された一般モデルを記憶する一般モデル記憶部 62とを備える。
[0068] レスポンス情報記憶部 60は、コンテンツ提供装置 20から送信されたレスポンスの情 報を蓄積する機能を有する。レスポンス情報記憶部 60には、複数のコンテンツ提供 装置 20から送信されるレスポンス情報が集約される。
[0069] 制御部 54にお 、てモデル作成部 56は、レスポンス情報記憶部 60に蓄積されたレ スポンスの情報を読み出し、読み出したレスポンスの情報に基づ 、てべイジアンネッ トのモデルを作成する機能を有する。ここで作成されるモデルは、コンテンツの被提 示条件が定められていない一般モデルである。また、モデル作成部 56は、作成した モデルを一般モデル記憶部 62に記憶する機能を有する。
[0070] 制御部 54にお 、てモデル配信部 58は、一般モデル記憶部 62に記憶された一般 モデルを読み出し、読み出したモデルをコンテンッ提供装置 20に配信する機能を有 する。モデル配信部 58は、コンテンツ提供装置 20からの要求に応じて一般モデルを 配信してもよいし、定期的に配信してもよい。
[0071] 続いて、第 1の実施の形態の情報処理システム 10の動作について説明する。
[0072] 図 7は、第 1の実施の形態の情報処理システム 10の動作を示す図である。まず、コ ンテンッ提供装置 20が楽曲の自動演奏を行うために、コンテンツ提供装置 20はュ 一ザに適したコンテンツを求めるためのモデルを決定する(S10)。コンテンツ提供装 置 20は、モデル記憶部 40に記憶された 3つのモデルから 1つのモデルを決定する。 本実施の形態では、コンテンツ提供装置 20がモデル記憶部 40に記憶されたモデル の情報を提示部 22に表示し、操作部 24によってモデルの選択を受け付ける。ここで は、操作部 24から父親用のモデル Aの選択が受け付けられたとする。操作部 24にて 受け付けた情報はモデル決定処理部 34に通知され、モデル決定処理部 34はコンテ ンッを求めるためのモデルを決定する。
[0073] 次に、コンテンツ提供装置 20のベイジアン推論部 30は、決定されたモデル Aを用 いて確率推論を行い、ユーザに適するコンテンツを求める(S12)。コンテンツ情報記 憶部 38から順次読み出したコンテンツ情報をモデル Aのノード N2に設定し、それぞ れのコンテンツについて、ノード N1— N3からの確率伝搬によりレスポンスのノード N 4のスコアを計算する。そして、レスポンスのスコアの高いコンテンツを提示すべきコン テンッとして選択する。なお、ベイジアン推論部 30は、提示すべきコンテンツとして、 最もスコアの高 、楽曲を求めてもょ 、し、一定以上のスコアの楽曲を複数求めてもよ い。 自動演奏すべき時間が長い場合には、自動演奏の時間に合わせて数曲を求め ることが望ましい。コンテンツ提供装置 20は、求めた楽曲を演奏することにより、コン テンッをユーザに提示する(S14)。
[0074] 次に、コンテンツ提供装置 20のベイジアン学習部 32は、ユーザからのレスポンスを 受け付ける(S16)。ベイジアン学習部 32は、操作部 24力 ユーザのレスポンスを受 け付け、操作の内容カゝらレスポンスを判断する。例えば、演奏中の楽曲を停止した場 合には、提示したコンテンツを受け入れないというレスポンスであり、演奏中の楽曲を 最後まで聴いた場合、あるいはボリュームを大きくした場合には、提示したコンテンツ を受け入れたレスポンスである。
[0075] 次に、コンテンツ提供装置 20のモデル決定処理部 34は、学習対象のモデルを選 択する(S18)。ここでは、父親用のモデル Aが推論に適用されたので、図 5に示す学 習対象テーブル記憶部 42の情報から、学習対象のモデルとしてモデル Aおよびモ デル Cが選択される。そして、コンテンツ提供装置 20のベイジアン学習部 32は、操作 部 24より受け付けたユーザのレスポンスを用いて、モデル Aおよびモデル Cの学習を 行う(S20)。
[0076] 次に、コンテンツ提供装置 20は、コンテンツの提示処理を終了する力否かを判定 する(S22)。コンテンツの提示処理を終了する力否かの判定は、例えば、自動車が 目的地に到着した力否かに基づいて行うことができる。コンテンツの提示処理を終了 しないと判定された場合には、コンテンツ提供装置 20の動作は、推論処理のステツ プ S12に移行し、コンテンツ提供装置 20は、次に演奏すべき楽曲を確率推論により 求める。
[0077] コンテンツの提示処理を終了すると判定された場合には、コンテンツ提供装置 20の レスポンス送信処理部 36は、操作部 24によって受け付けたユーザのレスポンスをセ ンター装置 50に送信する(S24)。このとき送信されるレスポンスには、ユーザのレス ポンス自体の情報に加えて、ユーザの属性、状況、およびコンテンツの属性の情報 が含まれる。
[0078] センター装置 50は、コンテンツ提供装置 20から送信されたレスポンスを受信し(S 2 6)、受信したレスポンスをレスポンス情報記憶部 60に蓄積する。なお、センター装置 50は、複数のコンテンツ提供装置 20から送信されるレスポンスを蓄積する。
[0079] レスポンス情報記憶部 60に所定量のレスポンス情報が蓄積された後、センター装 置 50のモデル作成部 56は、レスポンス情報記憶部 60からレスポンス情報を読み出 し、読み出したレスポンス情報を用いてベイジアンネットのモデルを作成する(S30)。 このとき作成されるモデルは、被提示条件を定めていない一般モデルである。モデル 作成部 56は、作成したモデルを一般モデル記憶部 62に記憶する。センター装置 50 のモデル配信部 58は、コンテンツ提供装置 20からの要求に応じて、あるいは定期的 に一般モデル記憶部 62に記憶された一般モデルをコンテンツ提供装置 20に配信す る。
[0080] 以上、第 1の実施の形態の情報処理システム 10について説明した。
[0081] 第 1の実施の形態の情報処理システム 10においてコンテンツ提供装置 20は、モデ ル記憶部 40にユーザの属性に応じて異なる複数のモデルを記憶して 、る。この複数 のモデルは、対応する属性のユーザに提示するコンテンツを確率推論により求める のに適している。そして、コンテンツ提供装置 20は、モデル記憶部 40に記憶された モデル力もユーザの属性に合ったモデルを読み出し、読み出したモデルを用いてュ 一ザに提示するコンテンツを確率推論により求めるので、ユーザにとって満足度の高 いコンテンツを求めることができる。すなわち、情報処理システム 10は、適切なコンテ ンッを精度良く求めることができる。さらにこれにより、ユーザがコンテンツの提示をや り直す回数を低減できるので、運転手の負担を軽減し、安全な運転に資することがで きる。
[0082] また、学習対象テーブル記憶部 42は、推論適用モデルとその推論適用モデルで 推論されたコンテンツに対するレスポンスを使って学習を行うべきモデルとを関連付 けて記憶している。そして、コンテンツ提供装置 20のベイジアン学習部 32は、学習対 象テーブル記憶部 42を参照して学習モデルを決定するので、レスポンスの影響を受 けるモデルの学習を行うことができる。また、学習対象テーブル記憶部 42には、一の 推論適用モデルに対し複数の学習対象モデルが記憶されて ヽるので、一のレスボン スにより複数のモデルの学習を効率良く行うことが可能である。
[0083] また、センター装置 50は、コンテンツ提供装置 20で得られたレスポンス情報をレス ポンス情報記憶部 60に集約し、集約したレスポンス情報を用いて一般モデルを作成 するので、最新の動向を反映した一般モデルが得られる。そして、センター装置 50は 、コンテンツ提供装置 20に一般モデルを配信するので、コンテンツ提供装置 20で一 般モデルを用いた確率推論を行うことが可能となる。
[0084] 次に、本発明の第 2の実施の形態の情報処理システム 10について説明する。第 2 の実施の形態の情報処理システム 10は、基本的な構成は第 1の実施の形態の情報 処理システム 10と同じである力 学習対象テーブル記憶部 42に記憶される情報が第 1の実施の形態の情報処理システム 10とは異なる。
[0085] 図 8は、第 2の実施の形態において学習対象テーブル記憶部 42に記憶されるデー タの例を示す図である。図 8に示すように、学習対象テーブル記憶部 42には、推論 適用モデル、学習対象モデルに加えて反映パラメータの情報が記憶されている。反 映パラメータは、学習対象のモデルにユーザのレスポンスを反映させる度合を示す ノ ラメータである。この反映パラメータにより、各モデルへのレスポンスの反映度合を 調整することができる。例えば、推論適用モデルが父親用のモデル Aである場合、そ のレスポンスを用いた家族用のモデル Cへの学習の反映割合は、モデル Cを使用し て得られたレスポンスの反映割合「1」に対して「0. 2」の割合であることを示している。
[0086] 図 9は、第 2の実施の形態の情報処理システム 10の動作を示す図である。第 2の実 施の形態の情報処理システム 10の動作は、第 1の情報処理システム 10と基本的な 動作は同じである。ただし、第 2の実施の形態の動作は、第 1の実施の形態の動作と 異なり、学習対象テーブル記憶部 42から学習対象のモデルを選択する際に反映パ ラメータも読み出す (S18)。そして、コンテンツ提供装置 20のベイジアン学習部 32は 、読み出した反映パラメータを用いてモデルの学習を行う(S20)。 [0087] 第 2の実施の形態の情報処理システム 10では、モデルへのレスポンスの反映度合 を示すパラメータを用いて、モデルの学習を行うことにより、適切な学習を行える。例 えば、家族用のモデル Cに対する父親と母親の寄与が異なる場合には、図 8に示す ように、それぞれの寄与の大きさに応じてモデル Aで得られたレスポンス、モデル Bで 得られたレスポンスの反映の度合を設定することにより、適切にモデル Cの学習を行 うことができる。
[0088] 次に、本発明の第 3の実施の形態の情報処理システム 10について説明する。第 3 の実施の形態の情報処理システム 10は、第 1の実施の形態の情報処理システムと基 本的な構成は同じであるが、センター装置 50が複数のコンテンツ提供装置 20から集 約したレスポンス情報に基づいてモデルを一般モデルに近づけるための一般学習デ ータを作成して、コンテンツ提供装置 20に配信する点が異なる。また、コンテンツ提 供装置 20は、センター装置 50から送信された一般学習データに基づいて、モデル 記憶部 40に記憶されたモデルの学習を行う。
[0089] 図 10は、第 3の実施の形態の情報処理システム 10におけるセンター装置 50の構 成を示す図である。第 3の実施の形態におけるセンター装置 50は、第 1の実施の形 態におけるセンター装置 50の構成に加えて、一般学習データ作成部 64、一般学習 データ配信部 66および一般学習データ記憶部 68を有する。一般学習データ作成部 64は、レスポンス情報記憶部 60に記憶されたレスポンスの情報に基づいて、学習対 象のモデルを一般モデルに近づけるため一般学習データを作成する機能を有する。 一般学習データ記憶部 68は、一般学習データ作成部 64にて作成された一般学習 データを記憶する機能を有する。一般学習データ配信部 66は、一般学習データ記 憶部 68に記憶された一般学習データを読み出して、コンテンツ提供装置 20に配信 する機能を有する。
[0090] 図 11は、第 3の実施の形態の情報処理システム 10におけるコンテンツ提供装置 20 の構成を示す図である。第 3の実施の形態におけるコンテンツ提供装置 20は、第 1 の実施の形態におけるコンテンツ提供装置 20の構成に加えて、センター装置 50から 送信される一般学習データをモデルに反映する度合を示す反映パラメータを記憶し た反映パラメータ記憶部 44を有する。反映パラメータは、モデル記憶部 40に記憶さ れたモデルを一般モデルに近づける度合を規定する。制御部 28のベイジアン学習 部 32は、反映パラメータ記憶部 44から読み出した反映パラメータを用いて、一般学 習データをモデルに反映させる度合 、を決定し、決定した度合いに応じてモデルの 学習を行う。ベイジアン学習部 32は、例えば、反映パラメータで設定された回数だけ 、一般学習データを用いた学習を行う。反映パラメータの値が大きい場合には、学習 の回数が増えるので一般学習データのモデルへの反映度合いが大きくなる。
[0091] 図 12は、第 3の実施の形態の情報処理システム 10の動作を示す図である。コンテ ンッ情報提供装置 20は、第 1の実施の形態あるいは第 2の実施の形態と同様に、ュ 一ザにコンテンツを提示し、ユーザからのレスポンスを受け付ける(S40)。そして、コ ンテンッ提供装置 20は、受け付けたレスポンスをセンター装置 50に送信する(S42) 。センター装置 50は、データ送受信部 52を介してレスポンスを受信すると(S44)、受 信したレスポンスをレスポンス情報記憶部 60に蓄積する(S46)。
[0092] センター装置 50の一般学習データ作成部 64は、レスポンス情報記憶部 60に蓄積 されたレスポンスを読み出し、読み出したレスポンスを用いて一般学習データを作成 し、作成した一般学習データを一般学習データ記憶部 68に記憶する(S48)。センタ 一装置 50の一般学習データ配信部 66は、一般学習データ記憶部 68に記憶された 一般学習データをコンテンツ提供装置 20に配信する(S50)。
[0093] コンテンツ提供装置 20は、センター装置 50から送信された一般学習データを受信 することにより一般学習データを取得する(S52)。そして、コンテンツ提供装置 20の ベイジアン学習部 32は、受信した一般学習データを用いて、モデル記憶部 40に記 憶されたモデルの学習を行う(S54)。このとき、ベイジアン学習部 32は、反映パラメ ータ記憶部 44から反映パラメータを読み出し、読み出した反映パラメータにて設定さ れた度合に基づ 、て一般学習データを反映させる。
[0094] 第 3の実施の形態では、コンテンツ提供装置 20から集約されたレスポンス情報に基 づいて、モデルの学習を行うための一般学習データを作成し、作成した一般学習デ ータをコンテンツ提供装置 20に配信する。コンテンツ提供装置 20では、配信された 一般学習データを用いてモデルの学習を行うことにより、被提示条件によるモデルの 特殊性を低減し、被提示条件での確率推論に適した専用のモデルを一般モデルに 近づけることができる。
[0095] 以上、本発明の情報処理システムにつ 、て、実施の形態を挙げて詳細に説明した 力 S、本発明は上記した実施の形態に限定されるものではない。
[0096] 上記した実施の形態では、コンテンツ提供装置 20がベイジアン推論部 30、ベイジ アン学習部 32を備え、コンテンツ提供装置 20にてユーザに適したコンテンツの推論 およびモデルの学習を行うこととした力 センター装置 50がベイジアン推論部 30およ びベイジアン学習部 32を備えてもょ 、。
[0097] 図 13は、ベイジアン推論部 30およびベイジアン学習部 32を備えたセンター装置 5 0の構成を示す図である。図 13に示すように、センター装置 50は、提示対象のコンテ ンッの選択に用いるモデルを記憶したモデル記憶部 78と、コンテンツ情報を記憶す るコンテンツ情報記憶部 80とを備える。モデル記憶部 78は、それぞれのコンテンツ 提供装置 20で用いられる複数のモデルおよび学習対象のモデルを示す学習対象テ 一ブルが記憶されている。また、センター装置 50の制御部 54は、確率推論に適用す るモデルを選択するためのモデル決定処理部 74、提示対象のコンテンツを選択する ためのベイジアン推論部 70、選択されたコンテンツを配信するコンテンツ配信処理 部 76、およびモデルの学習を行うベイジアン学習部 72を有する。このセンター装置 5 0を有する情報処理システムでは、コンテンツ提供装置 20が操作部 24にて受け付け たモデルの選択情報をセンター装置 50に送信し、センター装置 50が選択情報で示 されるモデノレを用いてユーザに適するコンテンツを求め、求めたコンテンツをコンテン ッ提供装置 20に配信する。また、コンテンツ提供装置 20が受け付けたレスポンスを センター装置 50に送信し、センター装置 50がモデルの学習を行う。以上の構成によ り、コンテンツ提供装置 20を簡易な構成とした情報処理システムを実現できる。
[0098] また、上記した実施の形態では、情報処理システム 10がセンター装置 50を備える 例について説明した力 情報処理システム 10は必ずしもセンター装置 50を備えなく てもよく、図 2に示すコンテンツ提供装置 20のみで本発明の情報処理システムを構 成してちょい。
[0099] 上記した実施の形態では、モデル記憶部 40に記憶された複数のモデルに対応す る被提示条件としてユーザの属性の一つを例として説明したが、年齢、性別、職業な どの他のユーザ属性を被提示条件としてもよい。また、被提示条件はユーザの属性 に限定されず、例えば、提示の際の状況を被提示条件とすることも可能である。提示 の際の状況とは、提示を受ける日の曜日、提示を受ける時間帯や、提示を受けるとき の気分等である。
[0100] 上記した実施の形態では、提示対象として楽曲を例として説明したが、提示対象は 楽曲に限られず、例えば、ジャンルやアーティスト名などでもよい。コンテンツ情報記 憶部 38に記憶されたコンテンツの量が多い場合には、提示対象として例えばジヤン ルを求めることにより、求めたジャンルによってコンテンツ情報の絞込みを行うことが できる。
[0101] また、上記した実施の形態では、提示対象のコンテンツを求めるためのモデルを決 定する方法として、ユーザがモデルを選択する方法について説明した力 モデルの 決定方法はユーザが選択する方法に限定されない。例えば、ユーザが自動車を動 かすときに用いた鍵の情報力もコンテンツ提供装置 20がユーザを検知して自動的に モデルを決定することも可能である。
[0102] また、本実施の形態では、父親用、母親用等の属性ごとにモデルを使い分け、各モ デルを専用化する例にっ 、て説明した力 明示的な基準でそれぞれのモデルが作 成されなくてもよい。この場合、モデル選択用モデルを用いた確率推論によって、推 論に適用するモデルを決定することができる。すなわち、推論に適用するモデルを求 めるためのモデル選択用モデルを記憶部に記憶し、準備しておく。そして、記憶部か ら読み出したモデル選択用モデルに、ユーザの属性や現在の状況などの複数の観 測された変数を入力し、推論に適用するモデルを確率推論によって求める。この構 成により、属性や状況といった明示的な変数によるモデル選択ではなぐさまざまな 属性や状況の組合せによってモデルを選択することが可能となり、精度の良いリコメ ンデーシヨンが可能となる。また、このように選択されたモデルが学習によって専用化 されたモデルに更新されるので、さらに精度の良いリコメンデーションが可能なモデ ルを生成できる。また、モデル選択用モデルも学習によって更新されるので、より適 切なモデルを選択でき、推論の精度を高めることができる。
[0103] また、上記した実施の形態では、モデル記憶部 40にモデル A—モデル Cの 3つの モデルが記憶され、 3つのモデルのうち力 使用するモデルを決定する例について 説明したが、新たなモデルを作成することも可能である。例えば、子供用のモデルを 作成するときには、コンテンツ提供装置 50は、一般モデルをセンター装置 50から受 信し、受信した一般モデルをモデル Dとしてモデル記憶部 40に記憶する。そして、モ デル Dを用いた確率推論により提示対象のコンテンツを求め、それに対する子供の レスポンスを用いてモデル Dの学習を行う。モデル Dの学習を複数回繰り返すことに より、子供の嗜好に合ったコンテンツを推論できるモデルが作成される。
[0104] また、本発明の情報処理システムは、上記した実施形態の情報処理システムの各 構成要素を実現するモジュールを備えたプログラムをコンピュータによって実行する ことで実現でき、このようなプログラムも本発明の範囲に含まれる。
[0105] 以上に現時点で考えられる本発明の好適な実施の形態を説明した力 本実施の形 態に対して多様な変形が可能なことが理解される。本発明の真実の精神と範囲内に あるそのようなすべての変形を添付の請求の範囲が含むことが意図されている。 産業上の利用可能性
[0106] 本発明は、ベイジアンネットのモデルを用いて確率的に適した提示対象を提示する リコメンデーションシステム等として有用である。

Claims

請求の範囲
[1] ベイジアンネットのモデルを用いて確率的に適した提示対象を乗員である被提示 者に提示する車両用情報処理システムであって、
前記提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて 異なる複数のベイジアンネットのモデルを記憶したモデル記憶手段と、
前記モデル記憶手段に記憶された複数のモデル力 前記被提示条件に応じたモ デルを推論適用モデルとして決定するモデル決定手段と、
前記モデル決定手段により決定された推論適用モデルを前記モデル記憶手段か ら読み出し、読み出した推論適用モデルを用 ヽた確率推論により提示対象を求める 提示対象推論手段と、
前記提示対象推論手段により求めた提示対象を被提示者に提示する提示手段と、 を備えることを特徴とする車両用情報処理システム。
[2] 前記モデル記憶手段は、前記被提示者の属性に応じて異なる複数のベイジアンネ ットのモデルを記憶し、
前記モデル決定手段は、前記被提示者の属性に対応するモデルを前記推論適用 モデルとして決定することを特徴とする請求項 1に記載の車両用情報処理システム。
[3] 前記モデル記憶手段は、前記提示対象の提示を受ける状況に応じて異なる複数 のベイジアンネットのモデルを記憶し、
前記モデル決定手段は、前記提示対象の提示を受ける状況に対応するモデルを 前記推論適用モデルとして決定することを特徴とする請求項 1に記載の車両用情報 処理システム。
[4] 前記被提示者の属性および前記提示対象の提示を受ける状況に基づいて、前記 複数のモデルから前記推論適用モデルを求める確率推論に適用するモデル選択用 モデルを記憶したモデル選択用モデル記憶手段を備え、
前記モデル決定手段は、前記モデル選択用モデル記憶手段から読み出したモデ ル選択用モデルを用いた確率推論により、前記被提示者の属性および前記提示対 象の提示を受ける状況に基づ 、て、前記推論適用モデルを決定することを特徴とす る請求項 1に記載の車両用情報処理システム。
[5] 前記提示対象推論手段が前記推論適用モデルから求めた提示対象を前記提示手 段が提示したときの被提示者のレスポンスを受け付けるレスポンス受付手段と、 前記レスポンス受付手段が受け付けたレスポンスを用いて前記モデル記憶手段に 記憶されたモデルの学習を行!ヽ、前記被提示条件ごとに専用化されたモデルに更 新するモデル学習手段と、
を備えることを特徴とする請求項 1に記載の車両用情報処理システム。
[6] 前記提示対象推論手段での確率推論に適用される推論適用モデルに関連付けて 、前記モデル記憶手段が記憶する複数のモデルのうちで前記推論適用モデルと同 一モデルおよび前記推論適用モデルを使った推論結果の影響を受けるべき他のモ デルを学習モデルとして記憶した学習対象情報記憶手段を備え、
前記モデル学習手段は、前記レスポンス受付手段が受け付けたレスポンスを用い て、前記学習対象情報記憶手段にて学習モデルとして前記推論適用モデルに関連 付けられたモデルの学習を行う、ことを特徴とする請求項 5に記載の車両用情報処理 システム。
[7] 前記学習対象情報記憶手段は、前記学習モデルの学習に前記レスポンスを反映 させる度合いを示す反映パラメータを記憶しており、前記反映パラメータは、一の推 論適用モデルに対応する複数の学習モデルのそれぞれに対して設定されており、 前記モデル学習手段は、学習を行うべき前記学習モデルに関連付けられた反映パ ラメータを前記学習対象情報記憶手段から読み出し、読み出した前記反映パラメ一 タに応じた度合いで前記レスポンスを前記学習モデルに反映させる学習処理を行う ことを特徴とする請求項 6に記載の車両用情報処理システム。
[8] 前記モデル学習手段による学習を経て前記被提示条件ごとに専用化されたモデル を、一般のモデルに近づけるための学習に用いる一般学習データを取得する一般 学習データ取得手段を備え、
前記モデル学習手段は、前記一般学習データ取得手段により取得された一般学 習データを用いて、前記モデル記憶手段に記憶されたモデルの学習を行うことを特 徴とする請求項 5に記載の車両用情報処理システム。
[9] 前記一般学習データを前記モデルの学習に反映させる度合!、を示す一般学習反 映パラメータを記憶した一般学習反映パラメータ記憶手段を備え、
前記モデル学習手段は、前記一般学習反映パラメータ記憶手段力 読み出した一 般学習反映パラメータに応じた度合いで前記一般学習データを前記モデルの学習 に反映させる学習処理を行うことを特徴とする請求項 8に記載の車両用情報処理シ ステム。
[10] 前記提示手段を備える情報提示装置と、前記情報提示装置と通信で接続されるセ ンター装置とを備え、前記センター装置は、複数の前記情報提示装置から、前記提 示対象が提示されたときに被提示者カゝら受け付けられたレスポンスを収集することを 特徴とする請求項 1に記載の車両用情報処理システム。
[11] 推論アルゴリズムを用いて乗員である被提示者に適した提示対象を推論し、推論 により求めた提示対象を提示する車両用情報処理システムであって、
前記提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて 異なる複数の計算用リソースを記憶した計算用リソース記憶手段と、
前記計算用リソース記憶手段に記憶された複数の計算用リソースから前記被提示 条件に応じた計算用リソースを決定する計算用リソース決定手段と、
前記計算用リソース決定手段により決定された計算用リソースを前記計算用リソー ス記憶手段から読み出し、読み出した計算用リソースを用いた推論により提示対象を 求める提示対象推論手段と、
前記提示対象推論手段により求めた提示対象を被提示者に提示する提示手段と、 を備えることを特徴とする車両用情報処理システム。
[12] ベイジアンネットのモデルを用いて確率的に適した提示対象を乗員である被提示 者に提示する情報処理装置であって、
前記提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて 異なる複数のベイジアンネットのモデルを記憶したモデル記憶手段と、
前記モデル記憶手段に記憶された複数のモデル力 前記被提示条件に応じたモ デルを推論適用モデルとして決定するモデル決定手段と、
前記モデル決定手段により決定された推論適用モデルを前記モデル記憶手段か ら読み出し、読み出した推論適用モデルを用 ヽた確率推論により提示対象を求める 提示対象推論手段と、
前記提示対象推論手段により求めた提示対象を被提示者に提示する提示手段と、 を備えることを特徴とする車両用情報提示装置。
[13] 自動車に備えられることを特徴とする請求項 12に記載の車両用情報提示装置。
[14] ベイジアンネットのモデルを用いて確率的に適した提示対象を乗員である被提示 者に提示する方法であって、
前記提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて 異なる複数のベイジアンネットのモデルから、前記被提示条件に応じたモデルを推 論適用モデルとして決定するモデル決定ステップと、
前記モデル決定ステップにて決定された推論適用モデルを用いた確率推論により 提示対象を求める提示対象推論ステップと、
前記提示対象推論ステップにて求めた提示対象を被提示者に提示する提示ステツ プと、
を備えることを特徴とする車両用情報処理方法。
[15] ベイジアンネットのモデルを用いて確率的に適した提示対象を乗員である被提示 者に提示するためのプログラムであって、
コンピュータに、
前記提示対象の提示を受ける被提示側に関する条件である被提示条件に応じて 異なる複数のベイジアンネットのモデルから、前記被提示条件に応じたモデルを推 論適用モデルとして決定するモデル決定ステップと、
前記モデル決定ステップにて決定された推論適用モデルを用いた確率推論により 提示対象を求める提示対象推論ステップと、
前記提示対象推論ステップにて求めた提示対象を被提示者に提示する提示ステツ プと、
を実行させることを特徴とするプログラム。
PCT/JP2005/003916 2004-03-18 2005-03-07 車両用情報処理システム、車両用情報処理方法およびプログラム WO2005091214A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/593,065 US7797266B2 (en) 2004-03-18 2005-03-07 Vehicle information processing system for content recommendation using Bayesian network models
DE112005000613T DE112005000613T5 (de) 2004-03-18 2005-03-07 Fahrzeuginformationsverarbeitungssystem, Fahrzeuginformationsverarbeitungsverfahren und Programm
JP2006511153A JP4639296B2 (ja) 2004-03-18 2005-03-07 車両用情報処理システム、車両用情報処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004079026 2004-03-18
JP2004-079026 2004-03-18

Publications (1)

Publication Number Publication Date
WO2005091214A1 true WO2005091214A1 (ja) 2005-09-29

Family

ID=34993917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/003916 WO2005091214A1 (ja) 2004-03-18 2005-03-07 車両用情報処理システム、車両用情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US7797266B2 (ja)
JP (1) JP4639296B2 (ja)
DE (1) DE112005000613T5 (ja)
WO (1) WO2005091214A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109110A (ja) * 2005-10-14 2007-04-26 Uchida Yoko Co Ltd 個人の行動特性を用いた意図推測システム及び方法並びにプログラム
JP2007179185A (ja) * 2005-12-27 2007-07-12 Ntt Docomo Inc サービス推薦システム、及び、サービス推薦方法
JP2007230422A (ja) * 2006-03-02 2007-09-13 Denso It Laboratory Inc 車載機器制御装置
JP2008100665A (ja) * 2006-09-22 2008-05-01 Denso Corp 車両用空調装置およびその制御方法
JP2008195221A (ja) * 2007-02-13 2008-08-28 Denso Corp 車両用空調装置、車両用空調装置の制御方法および制御装置
JP2008273497A (ja) * 2007-03-30 2008-11-13 Denso It Laboratory Inc 情報提供支援方法及び情報提供支援装置
JP2008285111A (ja) * 2007-05-21 2008-11-27 Denso Corp 車両用空調装置およびその制御方法
JP2008290494A (ja) * 2007-05-22 2008-12-04 Denso Corp 車両用空調装置およびその制御方法
JP2009139231A (ja) * 2007-12-06 2009-06-25 Denso Corp 位置範囲設定装置、移動物体搭載装置の制御方法および制御装置、ならびに車両用空調装置の制御方法および制御装置
US7962441B2 (en) 2006-09-22 2011-06-14 Denso Corporation Air conditioner for vehicle and controlling method thereof
WO2013118225A1 (ja) * 2012-02-08 2013-08-15 日本電気株式会社 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法
WO2016189905A1 (ja) * 2015-05-27 2016-12-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018526732A (ja) * 2015-07-31 2018-09-13 ブルヴェクター, インコーポレーテッドBluvector, Inc. マルウェアの識別とモデルの不均一性のために現場の分類器を再訓練するためのシステム及び方法
JP2019124596A (ja) * 2018-01-17 2019-07-25 横河電機株式会社 測定値予測モジュール、測定値予測プログラム及び測定値予測方法
JP2020140673A (ja) * 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム
JP2021039487A (ja) * 2019-09-02 2021-03-11 東芝テック株式会社 マッチング情報出力装置及びマッチング情報出力システム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065804A1 (en) * 2003-09-18 2005-03-24 The Cobalt Group, Inc. Method and system for furnishing of customized information to venues targeted to selected audiences
US8055544B2 (en) 2006-06-02 2011-11-08 Cobalt Group, Inc. Source- and venue-specific inventory data processing and identification system
DE102008033439A1 (de) * 2007-07-20 2009-01-29 Denso Corporation, Kariya Fahrzeugklimaanlage und Verfahren zur Steuerung der Fahrzeugklimaanlage
JP2009075010A (ja) * 2007-09-21 2009-04-09 Denso It Laboratory Inc 経路長算出装置、経路長算出方法、経路長算出プログラム及び車両用空調装置ならびに移動物体搭載機器の制御装置
JP5142736B2 (ja) * 2008-01-25 2013-02-13 株式会社デンソーアイティーラボラトリ 車両搭載機器の制御装置及び制御方法
US20090259621A1 (en) * 2008-04-11 2009-10-15 Concert Technology Corporation Providing expected desirability information prior to sending a recommendation
US8438310B2 (en) 2008-10-01 2013-05-07 Adp Dealer Services, Inc. Systems and methods for configuring a website having a plurality of operational modes
US8051159B2 (en) * 2008-10-01 2011-11-01 The Cobalt Group, Inc. Systems and methods for configuring a network of affiliated websites
US8781915B2 (en) * 2008-10-17 2014-07-15 Microsoft Corporation Recommending items to users utilizing a bi-linear collaborative filtering model
US8433660B2 (en) 2009-12-01 2013-04-30 Microsoft Corporation Managing a portfolio of experts
JP5584914B2 (ja) * 2010-07-15 2014-09-10 株式会社日立製作所 分散計算システム
US8473437B2 (en) 2010-12-17 2013-06-25 Microsoft Corporation Information propagation probability for a social network
US10482475B2 (en) 2011-02-10 2019-11-19 Adp Dealer Services, Inc. Systems and methods for providing targeted advertising
US11080734B2 (en) 2013-03-15 2021-08-03 Cdk Global, Llc Pricing system for identifying prices for vehicles offered by vehicle dealerships and other entities
WO2016070124A1 (en) 2014-10-30 2016-05-06 Pearson Education, Inc. Content database generation
US9667321B2 (en) * 2014-10-31 2017-05-30 Pearson Education, Inc. Predictive recommendation engine
US10867285B2 (en) 2016-04-21 2020-12-15 Cdk Global, Llc Automatic automobile repair service scheduling based on diagnostic trouble codes and service center attributes
US10332068B2 (en) 2016-04-21 2019-06-25 Cdk Global, Llc Systems and methods for stocking an automobile
US10853769B2 (en) 2016-04-21 2020-12-01 Cdk Global Llc Scheduling an automobile service appointment in a dealer service bay based on diagnostic trouble codes and service bay attributes
CN106897775B (zh) * 2017-01-25 2019-04-02 浙江大学 基于贝叶斯集成学习的软测量建模方法
US10326858B2 (en) 2017-05-23 2019-06-18 Cdk Global, Llc System and method for dynamically generating personalized websites
CN111756754B (zh) * 2017-07-28 2023-04-07 创新先进技术有限公司 一种训练模型的方法及装置
US11501351B2 (en) 2018-03-21 2022-11-15 Cdk Global, Llc Servers, systems, and methods for single sign-on of an automotive commerce exchange
US11190608B2 (en) 2018-03-21 2021-11-30 Cdk Global Llc Systems and methods for an automotive commerce exchange
US11410030B2 (en) 2018-09-06 2022-08-09 International Business Machines Corporation Active imitation learning in high dimensional continuous environments
US12020217B2 (en) 2020-11-11 2024-06-25 Cdk Global, Llc Systems and methods for using machine learning for vehicle damage detection and repair cost estimation
US11080105B1 (en) 2020-11-18 2021-08-03 Cdk Global, Llc Systems, methods, and apparatuses for routing API calls
US11514021B2 (en) 2021-01-22 2022-11-29 Cdk Global, Llc Systems, methods, and apparatuses for scanning a legacy database
US12045212B2 (en) 2021-04-22 2024-07-23 Cdk Global, Llc Systems, methods, and apparatuses for verifying entries in disparate databases
US11803535B2 (en) 2021-05-24 2023-10-31 Cdk Global, Llc Systems, methods, and apparatuses for simultaneously running parallel databases
US11983145B2 (en) 2022-08-31 2024-05-14 Cdk Global, Llc Method and system of modifying information on file

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099441A (ja) * 1998-09-25 2000-04-07 Fujitsu Ltd 情報を調整して提示する情報提示装置および方法
JP2002244947A (ja) * 2001-02-16 2002-08-30 Ntt Comware Corp 車輌向けアプリケーションサービス提供方法ならびにそのポータルサーバ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6655963B1 (en) * 2000-07-31 2003-12-02 Microsoft Corporation Methods and apparatus for predicting and selectively collecting preferences based on personality diagnosis
JP3815218B2 (ja) 2000-12-20 2006-08-30 株式会社日立製作所 データ分析方法及び装置
US6681215B2 (en) * 2001-03-20 2004-01-20 General Electric Company Learning method and apparatus for a causal network
EP1320045A3 (en) 2001-12-17 2005-08-10 Nissan Motor Company, Limited Vehicle information providing apparatus and method and on-vehicle information playing apparatus and method
US7254747B2 (en) * 2003-03-28 2007-08-07 General Electric Company Complex system diagnostic service model selection method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099441A (ja) * 1998-09-25 2000-04-07 Fujitsu Ltd 情報を調整して提示する情報提示装置および方法
JP2002244947A (ja) * 2001-02-16 2002-08-30 Ntt Comware Corp 車輌向けアプリケーションサービス提供方法ならびにそのポータルサーバ

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ICHISE R. ET AL: "Onsei Gengo Interface no Jitsuyoka to Onsei Gengo Taiwa eno Tenkai: Tekioteki User Interface to Onsei Taiwa.", JOURNAL OF JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE., vol. 17, no. 3, 21 May 2002 (2002-05-21), pages 291 - 294, XP002992438 *
SAMEKIMA K. ET AL: "Module Kyogo ni yoru Undo Patten no Symbol-ka Mimane Gakushu.", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS., vol. J85-D-II, no. 1, 1 January 2002 (2002-01-01), pages 90 - 100, XP002992440 *
SUGIMOTO M. ET AL: "User Modeling to Tekioteki Interaction: Johoshushu System ni okeru User Modeling to Tekioteki Interaction.", JOURNAL OF JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE., vol. 14, no. 1, 1 January 1999 (1999-01-01), pages 25 - 32, XP002992439 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109110A (ja) * 2005-10-14 2007-04-26 Uchida Yoko Co Ltd 個人の行動特性を用いた意図推測システム及び方法並びにプログラム
JP2007179185A (ja) * 2005-12-27 2007-07-12 Ntt Docomo Inc サービス推薦システム、及び、サービス推薦方法
JP2007230422A (ja) * 2006-03-02 2007-09-13 Denso It Laboratory Inc 車載機器制御装置
US7962441B2 (en) 2006-09-22 2011-06-14 Denso Corporation Air conditioner for vehicle and controlling method thereof
JP2008100665A (ja) * 2006-09-22 2008-05-01 Denso Corp 車両用空調装置およびその制御方法
JP2008195221A (ja) * 2007-02-13 2008-08-28 Denso Corp 車両用空調装置、車両用空調装置の制御方法および制御装置
US7966280B2 (en) 2007-02-13 2011-06-21 Denso Corporation Automotive air conditioner and method and apparatus for controlling automotive air conditioner
JP2008273497A (ja) * 2007-03-30 2008-11-13 Denso It Laboratory Inc 情報提供支援方法及び情報提供支援装置
JP2008285111A (ja) * 2007-05-21 2008-11-27 Denso Corp 車両用空調装置およびその制御方法
JP2008290494A (ja) * 2007-05-22 2008-12-04 Denso Corp 車両用空調装置およびその制御方法
JP2009139231A (ja) * 2007-12-06 2009-06-25 Denso Corp 位置範囲設定装置、移動物体搭載装置の制御方法および制御装置、ならびに車両用空調装置の制御方法および制御装置
US8180539B2 (en) 2007-12-06 2012-05-15 Denso Corporation Location range setting apparatus, control method and controller for apparatus mounted in mobile object, and automotive air conditioner and control method for the same
WO2013118225A1 (ja) * 2012-02-08 2013-08-15 日本電気株式会社 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法
JPWO2013118225A1 (ja) * 2012-02-08 2015-05-11 日本電気株式会社 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法
WO2016189905A1 (ja) * 2015-05-27 2016-12-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018526732A (ja) * 2015-07-31 2018-09-13 ブルヴェクター, インコーポレーテッドBluvector, Inc. マルウェアの識別とモデルの不均一性のために現場の分類器を再訓練するためのシステム及び方法
US10733539B2 (en) 2015-07-31 2020-08-04 Bluvector, Inc. System and method for machine learning model determination and malware identification
US11481684B2 (en) 2015-07-31 2022-10-25 Bluvector, Inc. System and method for machine learning model determination and malware identification
JP2019124596A (ja) * 2018-01-17 2019-07-25 横河電機株式会社 測定値予測モジュール、測定値予測プログラム及び測定値予測方法
JP7182059B2 (ja) 2018-01-17 2022-12-02 横河電機株式会社 測定値予測モジュール、測定値予測プログラム及び測定値予測方法
JP2020140673A (ja) * 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム
JP7293729B2 (ja) 2019-03-01 2023-06-20 富士フイルムビジネスイノベーション株式会社 学習装置、情報出力装置、及びプログラム
JP2021039487A (ja) * 2019-09-02 2021-03-11 東芝テック株式会社 マッチング情報出力装置及びマッチング情報出力システム

Also Published As

Publication number Publication date
US7797266B2 (en) 2010-09-14
US20070288413A1 (en) 2007-12-13
JPWO2005091214A1 (ja) 2008-02-07
JP4639296B2 (ja) 2011-02-23
DE112005000613T5 (de) 2007-02-22

Similar Documents

Publication Publication Date Title
JP4639296B2 (ja) 車両用情報処理システム、車両用情報処理方法およびプログラム
JP7443486B2 (ja) コンテンツアイテムの推奨
US20190260729A1 (en) Methods, systems, and media for presenting information related to an event based on metadata
US10318534B2 (en) Recommendations in a computing advice facility
US10223459B2 (en) Methods, systems, and media for personalizing computerized services based on mood and/or behavior information from multiple data sources
US8315931B2 (en) System for determining high quality musical recordings
US8781915B2 (en) Recommending items to users utilizing a bi-linear collaborative filtering model
US7974935B2 (en) Telephone with intuitive capability
CN107533677A (zh) 用于产生与有关信息相关的传感器输出的方法、系统和介质
US20010013009A1 (en) System and method for computer-based marketing
JP2006127452A (ja) 情報提示装置および情報提示方法
US20020062247A1 (en) Selecting web site content to be displayed to a web site visitor based upon a probability distribution
JP2005520259A (ja) 直観的な学習能力を持っている処理装置
CN111242310A (zh) 特征有效性评估方法、装置、电子设备及存储介质
US20200250575A1 (en) Systems and Methods for Simulating a Complex Reinforcement Learning Environment
US20140019221A1 (en) System for determining high quality musical recordings
JP2007058398A (ja) コンテンツ推薦装置、コンテンツ推薦方法及びコンピュータプログラム
US9654830B2 (en) Audiovisual content recommendation method and device
WO2024152686A1 (zh) 确定资源信息的推荐指标的方法、装置、设备、存储介质及计算机程序产品
WO2024084691A1 (ja) 対話型提案出力システム
JP7529601B2 (ja) リコメンド装置、コンテンツ提供システム、及びリコメンド方法
WO2021182581A1 (ja) 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム
JP2005292904A (ja) 情報提示装置、情報提示方法およびプログラム
Willems Design and development of a voice controlled music
IL288917A (en) Computational learning rating and predictive calibration

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006511153

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1120050006131

Country of ref document: DE

RET De translation (de og part 6b)

Ref document number: 112005000613

Country of ref document: DE

Date of ref document: 20070222

Kind code of ref document: P

WWE Wipo information: entry into national phase

Ref document number: 112005000613

Country of ref document: DE

122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 10593065

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10593065

Country of ref document: US

REG Reference to national code

Ref country code: DE

Ref legal event code: 8607