WO2021144600A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2021144600A1
WO2021144600A1 PCT/IB2020/000065 IB2020000065W WO2021144600A1 WO 2021144600 A1 WO2021144600 A1 WO 2021144600A1 IB 2020000065 W IB2020000065 W IB 2020000065W WO 2021144600 A1 WO2021144600 A1 WO 2021144600A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
question
behavior
poi
vehicle
Prior art date
Application number
PCT/IB2020/000065
Other languages
English (en)
French (fr)
Inventor
草柳 佳紀
拓良 柳
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to CN202080093288.5A priority Critical patent/CN114981831A/zh
Priority to EP20913406.3A priority patent/EP4092608A4/en
Priority to US17/758,951 priority patent/US20230050142A1/en
Priority to PCT/IB2020/000065 priority patent/WO2021144600A1/ja
Priority to JP2021571057A priority patent/JP7409397B2/ja
Publication of WO2021144600A1 publication Critical patent/WO2021144600A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3476Special cost functions, i.e. other than distance or default speed limit of road segments using point of interest [POI] information, e.g. a route passing visible POIs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to an information processing device and an information processing method.
  • Patent Document 1 a navigation device that displays a POI (POINT OF INTEREST) icon has been known (Patent Document 1).
  • the invention described in Patent Document 1 records the frequency of use of the POI used by the user, and displays the icon of the frequently used POI on the display.
  • Patent Document 1 merely displays the frequently used POI on the display, and there is no mention of recording the user's behavior in the POI, so there is room for improvement.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device and an information processing method capable of recording user actions in POI.
  • the information processing device When the information processing device according to one aspect of the present invention detects the user's boarding by the signal acquired from the boarding detection device, it outputs output data including at least a question about the user's pre-boarding behavior based on the position information of the vehicle. It outputs from the output device, acquires the user's answer to the question as input data via the input device, and stores the input data in the storage device in association with the vehicle position information or POI.
  • FIG. 1 is a diagram illustrating an overall outline of an embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram of an information processing device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of POI according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating another example of POI according to the embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an operation example of the information processing apparatus according to the embodiment of the present invention.
  • FIG. 6 is a schematic configuration diagram of an information processing device according to a modified example of the present invention.
  • FIG. 7 is a diagram for explaining the accuracy of the estimated behavior according to the modified example of the present invention.
  • FIG. 1 is a diagram illustrating an overall outline of an embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram of an information processing device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of POI according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating the structure of a question according to a modified example of the present invention.
  • FIG. 9 is a diagram for explaining the relationship between the behavior history and the accuracy of the estimated behavior.
  • FIG. 10 is a flowchart illustrating an operation example of the information processing apparatus according to the modified example of the present invention.
  • FIG. 11 is a diagram illustrating another embodiment of the present invention.
  • the vehicle 40 communicates with the computer 20 via the communication network 30.
  • the computer 20 includes a CPU (Central Processing Unit) 21, a memory 22, a communication I / F 23, and a storage 24, and these components are electrically connected via a bus or the like (not shown).
  • the installation location of the computer 20 is not particularly limited, and the computer 20 can be installed at any location.
  • the CPU 21 reads various programs stored in the storage 24 or the like into the memory 22 and executes various instructions included in the programs.
  • the memory 22 is a storage medium such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the storage 24 is a storage medium such as an HDD (Hard Disk Drive).
  • the function of the computer 20 may be provided by an application (Software as a Service (SaaS), etc.) arranged on the communication network 30. Further, the computer 20 may be a server.
  • the communication I / F23 is implemented as hardware such as a network adapter, various communication software, and a combination thereof, and is configured to realize wired or wireless communication via a communication network 30 or the like.
  • the communication network 30 may be configured by either a wireless or wired method, or both methods, and the communication network 30 may include the Internet.
  • the computer 20 and the vehicle 40 are connected to the communication network 30 by a wireless communication method.
  • the information processing device 100 includes a sensor group 50, a GPS receiver 51, a microphone 52, a storage device 53, a speaker 54, and a controller 60.
  • the information processing device 100 may be mounted on a vehicle having an automatic driving function, or may be mounted on a vehicle not having an automatic driving function. Further, the information processing device 100 may be mounted on a vehicle capable of switching between automatic driving and manual driving.
  • the automatic driving in the present embodiment means, for example, a state in which at least one of the brake actuator, the accelerator actuator, and the steering wheel actuator is controlled without user operation. Therefore, other actuators may be operated by the user's operation. Further, the automatic operation may be a state in which any control such as acceleration / deceleration control or lateral position control is executed. Further, the manual operation in the present embodiment refers to a state in which the user is operating the brake pedal, the accelerator pedal, and the steering wheel, for example.
  • the sensor group 50 (boarding detection device) is used to detect the user's boarding.
  • the sensor group 50 includes a pressure-sensitive sensor (also called a seating sensor) provided on the seat cushion, a camera that captures a user in the vehicle interior, a sensor that detects the opening / closing of the door, and the like.
  • the controller 60 detects the user's boarding using the signals acquired from these sensors.
  • the GPS receiver 51 detects the position information of the vehicle 40 on the ground by receiving radio waves from the artificial satellite.
  • the position information of the vehicle 40 detected by the GPS receiver 51 includes latitude information and longitude information.
  • the GPS receiver 51 outputs the detected position information of the vehicle 40 to the controller 60.
  • the method of detecting the position information of the vehicle 40 is not limited to the GPS receiver 51.
  • the position may be estimated using a method called odometry.
  • the odometry is a method of estimating the position of the vehicle 40 by obtaining the movement amount and the movement direction of the vehicle 40 according to the rotation angle and the rotation angular velocity of the vehicle 40.
  • the microphone 52 is used for voice input of the user.
  • the storage device 53 is a storage device different from the memory of the controller 60, and is, for example, a hard disk, a solid state drive, or the like.
  • the storage device 53 stores a map database 53a, an action history database 53b, and a question database 53c.
  • the map database 53a stores map information necessary for route guidance such as road information and facility information.
  • the road information is, for example, information on the number of lanes on the road, road boundaries, lane connection relationships, and the like.
  • the map database 53a outputs map information to the controller 60 in response to a request from the controller 60.
  • the information processing device 100 is described as having the map database 53a, but the information processing device 100 does not necessarily have the map database 53a.
  • Map information may be acquired using vehicle-to-vehicle communication or road-to-vehicle communication. Further, when the map information is stored in an external server (for example, the computer 20 shown in FIG. 1), the information processing apparatus 100 may acquire the map information from the server at any time by communication. Further, the information processing apparatus 100 may periodically obtain the latest map information from the server and update the map information it holds.
  • the POI is data indicating a specific place.
  • the POI contains at least attributes and location information (latitude, longitude).
  • the attribute is information for classifying POIs such as restaurants, shopping malls, and parks.
  • the POI may include a name, address, telephone number, and icon. For example, if the POI attribute is a restaurant, the name means a specific store name of the restaurant.
  • the POI position information may include altitude in addition to latitude and longitude.
  • the user's action in the POI is stored in association with the position information of the vehicle 40 or the POI.
  • the user's behavior in POI is stored in a database as a history.
  • the attributes of the POI and the questions regarding the user's behavior in the POI are recorded in association with each other.
  • the controller 60 is a general-purpose microcomputer including a CPU (central processing unit), a memory, and an input / output unit.
  • a computer program for functioning as the information processing apparatus 100 is installed in the microcomputer.
  • the microcomputer By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the information processing apparatus 100.
  • FIG. 1 An example of realizing a plurality of information processing circuits included in the information processing apparatus 100 by software is shown.
  • information processing is performed by preparing dedicated hardware for executing each of the following information processing. It is also possible to configure a circuit. Further, a plurality of information processing circuits may be configured by individual hardware.
  • the controller 60 includes a user identification unit 61, a destination arrival determination unit 62, a voice analysis unit 63, an action history update unit 64, an action estimation unit 65, and a question selection unit 66. And a boarding detection unit 67 and a question output unit 68.
  • the speaker 54 is installed in the vehicle interior of the vehicle 40 and outputs sound.
  • the user identification unit 61 identifies the user by using the face image captured when the user gets on the vehicle 40. Specifically, the user identification unit 61 determines whether the captured face image matches or is similar to the face image registered in the storage device 53 in advance. When the captured face image and the face image registered in advance in the storage device 53 match or are similar, the user identification unit 61 identifies the user who has boarded the vehicle 40 as the user registered in advance. It should be noted that such face recognition can be performed even when the ignition is off.
  • an intelligence key (sometimes called a smart key) ID may be used.
  • both the vehicle and the key are provided with an antenna that emits radio waves and a receiver that receives radio waves.
  • radio waves are emitted from the vehicle's antenna, and the key that receives the radio waves automatically returns the radio waves. Locking or unlocking is performed when the receiver of the vehicle receives this radio wave.
  • the radio wave transmitted by the key contains an identification code, and the code is registered in the vehicle in advance and used. By associating this identification cipher with the user information, the user can be identified.
  • the destination arrival determination unit 62 determines whether or not the vehicle 40 has arrived at the destination.
  • the destination means a destination set by the user by operating a navigation device (not shown).
  • the location information of the destination is stored in the map database 53a.
  • the destination arrival determination unit 62 compares the position information of the vehicle 40 acquired from the GPS receiver 51 with the position information of the destination stored in the map database 53a, and when they match or almost match, It is determined that the vehicle 40 has arrived at the destination.
  • the voice analysis unit 63 analyzes the user's voice input via the microphone 52.
  • a well-known method is used as the analysis method.
  • the action history update unit 64 stores the action performed by the user in the POI in the action history database 53b in association with the position information of the vehicle 40 or the POI, and updates the user's action history in the POI.
  • the behavior estimation unit 65 estimates the behavior of the user before boarding.
  • the action before the user gets on the vehicle means the action taken before the user gets on the vehicle 40.
  • the pre-boarding action of the user means the action taken by the user at the destination before the user boarded the vehicle 40.
  • the behavior estimation unit 65 acquires the user's schedule data from the computer 20 via the communication network 30.
  • the user's schedule data includes information about the user's action schedule such as when (When), where (Where), and what (What).
  • the schedule data may be acquired from a terminal (for example, a smartphone) held by the user.
  • the question selection unit 66 selects a question to be asked to the user by referring to the behavior estimated by the behavior estimation unit 65 and the question database 53c.
  • a signal indicating the selected question is output to the question output unit 68.
  • the boarding detection unit 67 detects the user's boarding based on the signal acquired from the sensor group 50. Specifically, the boarding detection unit 67 detects that the user has boarded when the signal indicating the change in the resistance value is acquired from the pressure-sensitive sensor. Alternatively, the boarding detection unit 67 detects that the user has boarded when it is detected that the user is in the vehicle interior by analyzing the camera image. The boarding detection unit 67 may detect that the user has boarded when the signal indicating the change in the resistance value is acquired from the pressure sensor after the opening / closing of the door is detected. When the boarding detection unit 67 detects the user's boarding, a signal indicating the detection is output to the question output unit 68.
  • the question output unit 68 When the question output unit 68 receives a signal indicating that the boarding of the user 80 has been detected, the question output unit 68 outputs the question selected by the question selection unit 66.
  • the question may be output by voice via the speaker 54, or may be output as text information on a display (for example, a display of a navigation device). In the present embodiment, the question will be described as being output by voice through the speaker 54.
  • the scene shown in FIG. 3 is a scene in which the vehicle 40 arrives at the destination set by the user 80 (here, the ramen shop 90) and parks in the parking lot of the ramen shop 90.
  • the user 80 gets off the vehicle 40 and enters the ramen shop 90.
  • the user 80 leaves the ramen shop 90 and gets on the vehicle 40.
  • the destination arrival determination unit 62 determines that the vehicle 40 has arrived at the destination
  • a signal indicating that the determination has been made is output to the behavior estimation unit 65.
  • the behavior estimation unit 65 that has received this signal estimates the behavior of the user 80 before boarding.
  • the pre-boarding action of the user 80 means the action taken by the user 80 at the destination when the user 80 is not in the vehicle 40.
  • the action before boarding of the user 80 means the action performed by the user 80 at the ramen shop 90.
  • the behavior estimation unit 65 acquires the position information of the vehicle 40 from the GPS receiver 51. More specifically, the behavior estimation unit 65 acquires the position information of the vehicle 40 when the destination arrival determination unit 62 determines that the vehicle 40 has arrived at the destination.
  • the behavior estimation unit 65 compares the position information of the vehicle 40 with the map database 53a and acquires the POI of the current location (parking position of the vehicle 40). Specifically, as shown in FIG. 3, the behavior estimation unit 65 acquires the position information (latitude, longitude) of the POI and the attributes (ramen shop) of the POI. In the example shown in FIG. 3, since the vehicle 40 is parked in the parking lot of the ramen shop 90, the position information of the vehicle 40 can be regarded as the position information of the POI. The behavior estimation unit 65 acquires the position information of the POI that matches or substantially matches the position information of the vehicle 40. Then, the behavior estimation unit 65 acquires the attribute of the POI associated with the position information of the POI.
  • the behavior estimation unit 65 grasps that the current location is the ramen shop 90 by comparing the position information of the vehicle 40 with the map database 53a. Next, the behavior estimation unit 65 estimates the behavior of the user 80 before boarding by referring to the table data stored in the storage device 53 in which the POI attribute and the user's behavior type are associated with each other.
  • the user action type is a classification of actions that the user can perform in POI. For example, when the attribute of POI is a restaurant, two actions, meal and a meeting, are stored in association with the restaurant as the action type of the user.
  • the user's action type may be single instead of multiple. As shown in FIG.
  • the behavior of the user 80 before boarding which is estimated by the behavior estimation unit 65, is a meal.
  • the signal related to the estimation result by the behavior estimation unit 65 is output to the question selection unit 66.
  • the question selection unit 66 selects a question to be asked to the user by referring to the behavior (meal) of the user 80 before boarding and the question database 53c.
  • the attributes of the POI and the questions regarding the user's behavior in the POI are recorded in association with each other.
  • the question selection unit 66 can select a question related to a meal by referring to the behavior (meal) of the user 80 before boarding and the question database 53c.
  • an alternative type question that can be answered with YES or NO such as "Did you eat something?" Is stored. I also remember the question asking for a specific answer, "What did you eat?"
  • the question selection unit 66 can arbitrarily select any question regarding meals. When the question selection unit 66 selects a question, a signal indicating the selected question is output to the question output unit 68.
  • the timing of asking the user 80 is not particularly limited, but it is conceivable immediately after the user 80 gets on the vehicle 40. The reason is that as time passes after the user 80 gets into the vehicle 40, the user 80 may forget the action taken by the POI. Therefore, the boarding detection unit 67 detects the user's boarding based on the signal acquired from the sensor group 50. When the boarding detection unit 67 detects the boarding of the user 80, a signal indicating the detection is output to the question output unit 68.
  • the question output unit 68 When the question output unit 68 receives the signal indicating that the ride of the user 80 has been detected, the question output unit 68 asks the user the question selected by the question selection unit 66 by voice via the speaker 54. Now suppose that the question was, "Did you eat anything?"
  • the user 80 answers this question by voice using the microphone 52.
  • the voice analysis unit 63 analyzes the voice data of the user 80. When the user 80 answers "yes", the voice analysis confirms that the action performed by the user 80 at the ramen shop 90 was a meal.
  • the action history update unit 64 stores the position information of the vehicle 40 and the action of the user 80 eating at the ramen shop 90 in the action history database 53b in association with each other. Further, the action history updating unit 64 may store the POI in the action history database 53b in association with the action of the user 80 eating at the ramen shop 90. As described above, according to the present embodiment, it is possible to record the behavior of the user 80 in the POI.
  • the data stored in the action history database 53b is, for example, the date and time when the answer of the user 80 is input, the position information of the vehicle 40, the POI (position information and attributes), and the action content in the POI.
  • the scene shown in FIG. 4 is a scene in which the vehicle 40 arrives at the destination (here, the shopping mall 91) set by the user 80 and parks in the parking lot of the shopping mall 91.
  • the user 80 gets off the vehicle 40 and enters the shopping mall 91.
  • the user 80 exits the shopping mall 91 and gets on the vehicle 40.
  • the behavior estimation unit 65 grasps that the current location is the shopping mall 91 by comparing the position information of the vehicle 40 with the map database 53a. Next, the behavior estimation unit 65 estimates the behavior of the user 80 by referring to the table data in which the POI attribute and the behavior type of the user are associated with each other.
  • the shopping mall 91 is a commercial facility in which a plurality of retail stores, restaurants, beauty salons, travel agencies, sports gyms, etc. are located.
  • a shopping mall is sometimes called a shopping center.
  • the user's action type in the shopping mall 91 includes a plurality of actions such as meal, shopping, meeting, haircut, and exercise.
  • the behavior estimation unit 65 refers to the schedule data of the user 80 acquired from the computer 20.
  • the schedule data includes information on the action schedule of the user 80
  • the action estimation unit 65 can accurately estimate the user's action in the shopping mall 91 by referring to the schedule data. It becomes.
  • the schedule data includes information that the user 80 eats at the shopping mall 91 as an action schedule.
  • the behavior estimation unit 65 estimates the user's behavior in the shopping mall 91 as a meal by referring to the schedule data.
  • the question selection unit 66 which has received the signal from the behavior estimation unit 65, selects a question to be asked to the user by referring to the behavior (meal) of the user 80 before boarding and the question database 53c.
  • the question "Did you eat anything?" was asked as in the example shown in FIG.
  • the user 80 answers this question by voice using the microphone 52.
  • the voice analysis unit 63 analyzes the voice data of the user 80. When the user 80 answers "yes", the voice analysis confirms that the action performed by the user 80 at the shopping mall 91 was a meal.
  • the action history updating unit 64 stores the position information of the vehicle 40 and the action of eating at the shopping mall 91 by the user 80 in the action history database 53b in association with each other. Further, the action history updating unit 64 may store the POI in the action history database 53b in association with the action of the user 80 eating at the shopping mall 91. In this way, even if there are a plurality of user behavior types in the POI, it is possible to accurately record the user 80 behavior in the POI by referring to the schedule data.
  • the behavior estimation unit 65 may estimate the behavior of the user 80 by referring to the behavior history of the user 80 stored in the behavior history database 53b. For example, among the actions stored in the action history, the action with a large number of times may be estimated as the action of the user 80.
  • step S101 the user identification unit 61 identifies the user 80 who has boarded the vehicle 40 by using a face image captured by the camera, an identification code transmitted from the intelligence key, and the like.
  • the process proceeds to step S103, and the destination is set by the user 80.
  • step S105 the destination arrival determination unit 62 compares the position information of the vehicle 40 acquired from the GPS receiver 51 with the position information of the destination stored in the map database 53a, so that the vehicle Determine if 40 has arrived at the destination. If it is determined that the vehicle 40 has arrived at the destination (YES in step S105), the process proceeds to step S107. On the other hand, if it is not determined that the vehicle 40 has arrived at the destination (NO in step S105), the process waits.
  • the behavior estimation unit 65 estimates the behavior of the user before boarding. Specifically, the behavior estimation unit 65 compares the position information of the vehicle 40 acquired from the GPS receiver 51 with the map database 53a, and acquires the POI of the current location (parking position of the vehicle 40). As a result, the behavior estimation unit 65 can grasp that the current location is the ramen shop 90 (see FIG. 3) or the current location is the shopping mall 91 (see FIG. 4). The behavior estimation unit 65 estimates the behavior of the user 80 before boarding by referring to the table data in which the attributes of the POI (ramen shop, shopping mall) and the behavior type of the user are associated with each other. The signal related to the estimation result by the behavior estimation unit 65 is output to the question selection unit 66.
  • step S109 the question selection unit 66, which has received the signal from the behavior estimation unit 65, selects the question to be asked to the user by referring to the behavior before boarding of the user 80 and the question database 53c.
  • a signal indicating the question selected by the question selection unit 66 is output to the question output unit 68.
  • step S111 the boarding detection unit 67 detects the user's boarding based on the signal acquired from the sensor group 50.
  • the boarding detection unit 67 detects the user's boarding based on the signal acquired from the sensor group 50.
  • a signal indicating that the boarding of the user 80 has been detected is output to the question output unit 68.
  • step S113 when the question output unit 68 receives the signal indicating that the ride of the user 80 has been detected, the question output unit 68 asks the user the question selected by the question selection unit 66 by voice via the speaker 54. ..
  • step S115 When a voice answer is input through the microphone 52 (YES in step S115), the process proceeds to step S117. If the user 80's answer cannot be obtained (NO in step S115), the process waits.
  • the method of obtaining the answer from the user 80 is not limited to voice, and the answer of the user 80 may be obtained by operating the touch panel.
  • step S117 the voice analysis unit 63 analyzes the voice data of the user 80. Based on the analysis result by the voice analysis unit 63, the action history update unit 64 stores the position information of the vehicle 40 and the action performed by the user 80 in the POI in the action history database 53b in association with each other. The action history update unit 64 may associate the POI with the action performed by the user 80 in the POI and store it in the action history database 53b.
  • the information processing device 100 includes a controller 60, a boarding detection device (sensor group 50) that detects boarding of the user 80 on the vehicle 40, a storage device (action history database 53b) that records the action data of the user 80, and the user 80. It is provided with an output device (speaker 54) for outputting question data for asking an answer to the user, and an input device (microphone 52) for receiving input from the user 80.
  • the controller 60 When the controller 60 detects the ride of the user 80 by the signal acquired from the boarding detection device, the controller 60 outputs output data including at least a question about the user 80's behavior before boarding the vehicle based on the position information of the vehicle 40. Output from the device. The controller 60 acquires the answer of the user 80 to the question as input data via the input device. Then, the controller 60 stores the input data in the storage device in association with the position information of the vehicle 40 or the POI. This makes it possible to accurately record the behavior of the user 80 in the POI.
  • the controller 60 determines the question according to the POI attribute determined based on the position information of the vehicle 40. As shown in FIG. 3, since the vehicle 40 is parked in the parking lot of the ramen shop 90, the POI attribute is determined to be the ramen shop 90 based on the position information of the vehicle 40. Since the storage device (question database 53c) records the POI attribute (ramen shop) and the question about the user's behavior (meal) in the POI in association with each other, the controller 60 determines the POI attribute according to the POI attribute. You can decide the question.
  • the controller 60 may estimate the behavior before boarding according to the behavior history stored in the behavior history database 53b or the attribute of POI. As shown in FIG. 3, if the POI attribute is a ramen shop, the controller 60 can presume that the behavior before boarding is a meal. Further, the controller 60 may estimate the action that is frequently performed among the actions stored in the action history as the action of the user 80. As a result, the controller 60 can accurately estimate the behavior before boarding.
  • the controller 60 may acquire data related to the action schedule of the user 80 (schedule data of the user 80) by communication, and may determine a question by referring to the schedule data. As a result, even if there are a plurality of user behavior types in the POI, it is possible to determine an appropriate question, and it is possible to accurately record the behavior of the user 80 in the POI.
  • the communication means communication with the computer 20 (server) or communication with the terminal held by the user 80.
  • the input data is data obtained by converting the voice of the user 80 or data generated by accepting an operation from the user 80.
  • a microphone 52 and a touch panel are used as means for answering the question by the user 80. The user 80 can easily answer by using the microphone 52 and the touch panel.
  • the controller 60 detects the disembarkation of the user 80 after the vehicle 40 arrives at the destination set by the user 80, and then outputs a question when the boarding of the user 80 is detected. As a result, the controller 60 can ask a question at an appropriate timing.
  • the POI is a POI located around the position information of the vehicle 40, a destination set in the navigation device provided in the vehicle 40, a POI included in the data regarding the action schedule of the user 80 acquired by communication, or communication. It may be any of the POIs included in the data regarding the behavior history of the user 80 before boarding acquired by.
  • the information processing device 101 further includes an accuracy calculation unit 69.
  • the accuracy calculation unit 69 calculates the accuracy indicating the certainty (probability) of the behavior of the user 80 estimated by the behavior estimation unit 65.
  • the estimation accuracy may be evaluated in three stages of low, medium, and high, and may be evaluated with a probability (0% to 100%).
  • the classroom includes a swimming classroom, a dance classroom, an ikebana classroom, and the like.
  • the types of user behavior in the restaurant include meals, meetings, and the like.
  • the types of user behavior in the shopping mall include meals, shopping, meetings, haircuts, exercise, and the like.
  • the types of user behavior in the classroom include exercise and practice.
  • the behavior estimation unit 65 estimates the behavior of the user 80 from the above-mentioned behavior types as shown in FIG. 7.
  • the estimated behavior of the user in the shopping mall exemplifies meal, shopping, and meeting.
  • the behaviors estimated by the behavior estimation unit 65 are required to have high accuracy, but are always estimated accurately. Not always.
  • the reason why the accuracy of the estimated behavior is required to be high is that if the estimated behavior is wrong, the question to the user 80 will be off the mark. However, as described above, it is not always estimated accurately.
  • the information processing device 101 calculates the accuracy of the estimated behavior, and determines the question according to the calculated accuracy.
  • the behavior history of the user 80 stored in the behavior history database 53b is used.
  • the action history of the user 80 stored in the action history database 53b is zero
  • the other is when the action history of the user 80 stored in the action history database 53b is a predetermined number of times (for example, 10 times). The explanation will be divided into.
  • the behavior estimated by the behavior estimation unit 65 is a meal or a meeting.
  • the behavior estimation unit 65 estimates one of the meal and the meeting.
  • the estimation method is not particularly limited, but as an example, the behavior estimation unit 65 may estimate the behavior that is generally assumed to have a high probability. Of the behaviors in restaurants, the behavior that is generally assumed to have a high probability is meals. This point is also stored in the table data. Therefore, the behavior estimation unit 65 may estimate that the behavior of the user 80 is a meal by referring to the table data when the attribute of the POI is a restaurant.
  • the behavior estimation unit 65 may estimate the behavior of the user 80 by referring to the behavior history of the user 80 stored in the behavior history database 53b. For example, among the actions stored in the action history, the action with a large number of times may be estimated as the action of the user 80. However, this method cannot be used when the action history is zero.
  • the accuracy calculation unit 69 calculates the accuracy of the behavior of eating, which is estimated by the behavior estimation unit 65.
  • the accuracy calculation unit 69 refers to the action history database 53b and acquires the action history of the user 80 in the restaurant.
  • the accuracy calculation unit 69 determines that the user 80 has come to the restaurant for the first time (first time).
  • the accuracy calculation unit 69 determines that it is unlikely that the action performed by the user 80 at the restaurant is a meal.
  • the reason is that it is difficult for the user 80 to determine whether the action to be performed at the restaurant is a meal or a meeting. Meals are generally assumed to be more probable, but the possibility of meetings cannot be ruled out. Therefore, the accuracy calculation unit 69 calculates that the accuracy of the behavior of eating, which is estimated by the behavior estimation unit 65, is low. Then, a signal indicating the calculation result is output to the question selection unit 66.
  • the question selection unit 66 that received the signal from the accuracy calculation unit 69 grasps that the accuracy of the behavior of the meal estimated by the behavior estimation unit 65 is low. Based on this grasp, the question selection unit 66 avoids selecting a question regarding meals and selects a question that asks the user 80's behavior itself.
  • the reason for selecting the question asking the user 80's behavior itself is to accumulate the behavior history in case the user 80 returns to the restaurant in the future.
  • the question "What were you doing?" Can be mentioned.
  • the answer of the user 80 to the question is stored in the action history database 53b in association with the position information of the vehicle 40 or the POI.
  • the behavior history of the user 80 stored in the behavior history database 53b is zero, by asking a question asking the behavior of the user 80 itself, the user 80 may come to the restaurant again in the future. Action history can be accumulated. Further, by asking a question asking the behavior of the user 80 itself, it is possible to avoid an irrelevant question.
  • the action history of the user 80 stored in the action history database 53b is a predetermined number of times (for example, 10 times) will be described.
  • the accuracy calculation unit 69 refers to the action history database 53b and acquires the action history of the user 80 in the restaurant.
  • the accuracy calculation unit 69 calculates that the action performed by the user 80 at the restaurant is moderately likely to be a meal.
  • the accuracy calculation unit 69 calculates that the accuracy of the behavior of eating, which is estimated by the behavior estimation unit 65, is medium. Then, a signal indicating the calculation result is output to the question selection unit 66.
  • the accuracy of the behavior of eating which is estimated by the behavior estimation unit 65, may be calculated as a probability. If the action history of 10 times is 7 meals and 3 meetings, it may be calculated that the probability that the action performed by the user 80 at the restaurant is a meal is 70%. The accuracy of the behavior estimated by the behavior estimation unit 65 is about 70% when converted into a probability.
  • the question selection unit 66 which has received the signal from the accuracy calculation unit 69, determines that there is a high possibility that the user 80 is eating as an action performed at the restaurant, and selects a question regarding the meal.
  • a dietary question as shown in FIG. 7, there are questions such as "Did you eat something?" And “Did you drink something?"
  • the answer of the user 80 to the question is stored in the action history database 53b in association with the position information of the vehicle 40 or the POI.
  • the question selection unit 66 selects a question regarding the meeting.
  • As a question about the meeting as shown in FIG. 7, there are questions such as "meeting something?" And “meeting with someone?".
  • the predetermined number of times was explained as 10 times, the predetermined number of times is not limited to 10 times.
  • the question selection unit 66 selects a question regarding the meal. do. Questions about meals are the same as above and will be omitted.
  • the question selection unit 66 selects a question related to shopping. As a question about shopping, as shown in FIG. 7, there are questions such as "Did you buy something?" And "Did you have something?".
  • the question selection unit 66 selects a question related to the meeting. As a question about the meeting, as shown in FIG. 7, there are questions such as "Are you meeting with someone?" And “Mr. XX?”.
  • the question selection unit 66 selects a question regarding the exercise. .. As a question about exercise, as shown in FIG. 7, there are questions such as "Did you exercise?" And “Swimming? Yoga? Dance?”. Similarly, when the accuracy of the behavior (rehearsal) of the user 80 estimated by the behavior estimation unit 65 is calculated to be medium, the question selection unit 66 selects a question related to the training. As a question about training, as shown in FIG. 7, there are questions such as "is it a lesson?" And “flower? Tea? Penmanship?”.
  • the accuracy calculation unit 69 calculates that the action performed by the user 80 at the restaurant is likely to be a meal. In other words, the accuracy calculation unit 69 calculates that the accuracy of the behavior (meal) of the user 80 estimated by the behavior estimation unit 65 is high. Then, a signal indicating the calculation result is output to the question selection unit 66. It should be noted that the probability that the action performed by the user 80 at the restaurant is a meal may be calculated to be 100%.
  • the question selection unit 66 determines that the action performed by the user 80 at the restaurant is very likely to be a meal, and when the accuracy is medium among the questions related to the meal. Select a deeper question than the question in. As a deep question, as shown in Fig. 7, there are questions such as "Is it delicious?" And "Do you want to come to eat again?"
  • the voice analysis unit 63 can classify the user 80's answer to this question as positive or negative.
  • the action history update unit 64 can record the classified result as classification data in the action history database 53b in association with the POI. By classifying the answers of the user 80 as positive or negative, it is possible to ask a deeper question the next time the user 80 is asked a question.
  • the question selection unit 66 asks a deeper question from the questions related to the meeting than the question when the accuracy is medium. select. As a deep question, as shown in Fig. 7, there are questions such as "Did you finish safely?" And “Did Mr. XX get well?"
  • the question selection unit 66 is asked from the questions related to the meal. , Select a deeper question than a question with medium accuracy. The in-depth question is the same as above and will be omitted.
  • the question selection unit 66 asks the questions related to shopping more than the questions when the accuracy is medium. Select a deep question. As a deep question, as shown in Fig.
  • the question selection unit 66 asks the questions related to the meeting more than the questions when the accuracy is medium. Select a deep question. As a deep question, as shown in Fig. 7, there are questions such as "Did you meet safely?" And “Did Mr. XX be fine?"
  • the question selection unit 66 asks questions about the exercise. Choose a deeper question than a question with medium accuracy. As a deep question, as shown in Fig. 7, there are questions such as "Did you sweat well?" And “Did you feel good?" Similarly, when the accuracy of the behavior (rehearsal) of the user 80 estimated by the behavior estimation unit 65 is calculated to be high, the question selection unit 66 asks the questions related to the training more than the questions when the accuracy is medium. Select a deep question. As a deep question, as shown in Fig. 7, there are questions such as "Did you get better?" And "Did you become enlightened?"
  • the accuracy calculation unit 69 may refer to the schedule data of the user 80 when calculating the accuracy of the estimated action. By referring to the schedule data, it is possible to improve the accuracy of calculation.
  • the behavior history of the user 80 stored in the behavior history database 53b is zero, the accuracy of the estimated behavior (meal) is low.
  • the behavior estimation unit 65 calculates that the accuracy of the estimated behavior (meal) is medium or high by referring to the schedule data. It is also possible to do.
  • the questions are classified into a plurality of layers (first layer to third layer) and stored in the question database 53c.
  • the question selection unit 66 selects a question belonging to any hierarchy according to the accuracy of the estimated action calculated by the accuracy calculation unit 69. Specifically, when the accuracy of the estimated action is smaller than the first predetermined value, the question selection unit 66 selects the question included in the first layer. As shown in FIG. 8, the question included in the first layer is a question asking the action itself of the user 80.
  • the question selection unit 66 selects a question included in the second layer when the accuracy of the estimated action is equal to or greater than the first predetermined value and equal to or less than the second predetermined value (first predetermined value ⁇ second predetermined value). As shown in FIG. 8, the question included in the second layer is a question for confirming the estimated behavior.
  • the question selection unit 66 selects a question included in the third layer when the accuracy of the estimated action is greater than the second predetermined value.
  • the question included in the third layer is a question for answering an impression or evaluation regarding the behavior before boarding.
  • the third layer may include questions that answer impressions or evaluations regarding POI.
  • As a question to answer the impression or evaluation about the behavior before boarding if the behavior before boarding is meal, as shown in Fig. 8, the question "Is it delicious?", "Do you want to come to eat again?" Can be mentioned.
  • As a question for answering impressions or evaluations regarding POI if the attribute of POI is a restaurant, the question "Is the inside of the store clean?" Can be mentioned as shown in FIG.
  • the probability calculated by the accuracy calculation unit 69 may be used.
  • the first predetermined value may be 30% and the second predetermined value may be 70%.
  • the first layer corresponds to the low estimation accuracy in FIG. 7.
  • the estimation accuracy in FIG. 7 corresponds to a medium level.
  • the third layer corresponds to the high estimation accuracy in FIG. 7.
  • the question is dug down from the 1st level to the 3rd level, that is, as the accuracy of the estimated action increases.
  • the behavior of the user 80 in the POI is recorded in the behavior history database 53b, and the behavior history is accumulated.
  • the accuracy of the estimated action calculated by the accuracy calculation unit 69 becomes higher, and the question is dug down.
  • the question is dug down.
  • the questions are classified into three layers, but the questions are not limited to these. Questions may be further explored, such as in the 4th and 5th layers.
  • each hierarchy is set according to the degree of abstraction or concreteness of the question
  • the questions are assigned to each hierarchy, and the higher the hierarchy, the higher the abstraction of the question, and the lower hierarchy. It can also be said that the specificity of the question is increasing as it becomes.
  • the probability that the action performed by the user 80 at the restaurant is a meal is 70%. It means the probability of action history.
  • the accuracy calculation unit 69 does not have to refer to the action history stored in the action history database 53b when calculating the accuracy of the estimated action. If the attribute of the POI is a shopping mall, as described above, there are many actions that the user 80 can perform, so it is difficult to estimate the actions performed by the user 80. Therefore, the accuracy of the estimated behavior is low. On the other hand, if the attribute of POI is a ramen shop, the action that the user 80 can perform is specified by the meal, so that the accuracy of the estimated action is high. If the attribute of the POI is a supermarket, the accuracy of the estimated action is moderate because the action that the user 80 can perform is almost specified as shopping. As described above, the accuracy calculation unit 69 can calculate the accuracy of the estimated action using only the POI attribute without referring to the action history stored in the action history database 53b.
  • step S209 the accuracy calculation unit 69 calculates the accuracy indicating the certainty (probability) of the behavior of the user 80 estimated by the behavior estimation unit 65.
  • step S211 the question selection unit 66 selects a question belonging to one of the layers according to the accuracy of the estimated action calculated by the accuracy calculation unit 69 (see FIG. 8). Specifically, when the accuracy of the estimated action is smaller than the first predetermined value, the question selection unit 66 selects a question asking the action itself of the user 80 (step S213). Further, when the accuracy of the estimated behavior is equal to or greater than the first predetermined value and equal to or less than the second predetermined value, the question selection unit 66 selects a question for confirming the estimated behavior (step S215). Further, when the accuracy of the estimated behavior is larger than the second predetermined value, the question selection unit 66 selects a question for answering an impression or evaluation regarding the behavior before boarding, or a question for answering an impression or evaluation regarding POI ( Step S217).
  • the controller 60 calculates the accuracy of the estimated action according to the action history stored in the action history database 53b or the attribute of the POI, and determines the question according to the calculated accuracy of the estimated action. This makes it possible to avoid irrelevant questions.
  • the controller 60 determines as output data a question belonging to any layer according to the accuracy of the estimated action. By determining the question according to the accuracy of the estimated behavior, it is possible to activate the conversation with the user 80.
  • the controller 60 may determine the degree of abstraction of the question according to the accuracy of the estimated behavior, and may determine the determined question as output data.
  • the output data includes a question to answer the behavior before boarding, a question to answer the impression or evaluation about the behavior before boarding, or a question to answer the impression or evaluation about POI.
  • the controller 60 classifies the response of the user 80 as positive or negative, and records the classification result as classification data in the action history database 53b in association with the POI. By classifying the answers of the user 80 as positive or negative, it is possible to ask a deeper question the next time the user 80 is asked a question.
  • the controller 60 may output the classification data associated with the POI according to the position information of the vehicle 40. It is assumed that the user 80's response to the meal at the ramen shop 90 was positive that it was "delicious”. In this case, when the vehicle 40 passes near the ramen shop 90, the controller 60 may output a voice saying "Ramen was delicious.” This makes it possible to activate the conversation with the user 80.
  • the processing circuit includes a programmed processing device such as a processing device including an electric circuit.
  • Processing circuits also include devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.
  • ASICs application specific integrated circuits
  • the position information of the vehicle 40 can be regarded as the position information of the POI.
  • the parking lot is not always provided at the destination.
  • the user 80 may park in a coin parking near the destination and walk from the coin parking to the destination, as shown in FIG.
  • the position information of the vehicle 40 and the position information of the destination do not match. Therefore, even if the position information of the vehicle 40 and the behavior of the user 80 before boarding are associated and stored, the data is not useful.
  • the information processing device 100 may store the position information of the terminal (hereinafter referred to as the user terminal) held by the user 80 in the action history database 53b in association with the behavior of the user 80 before boarding. Specifically, when the user 80 arrives at the destination, the information processing device 100 acquires the position information of the user terminal by communication. As a precondition, the information processing device 100 and the user terminal are set so as to be able to communicate with each other. As an example, the information processing device 100 includes a receiver that receives data transmitted from a user terminal. Whether or not the user 80 has arrived at the destination can be determined by the information processing device 100 by referring to the information of the guidance application installed on the user terminal.
  • the information processing device 100 estimates the behavior of the user 80 at the destination based on the position information acquired from the user terminal.
  • the information processing device 100 asks a question about the estimated behavior.
  • the information processing device 100 associates the position information acquired from the user terminal with the behavior of the user 80 before boarding and stores it in the behavior history database 53b.
  • Vehicle 50 Sensor group 51 GPS receiver 52 Microphone 53 Storage device 53a Map database 53b Action history database 53c Question database 54 Speaker 60 Controller 61 User identification unit 62 Destination arrival determination unit 63 Voice analysis unit 64 Action history update unit 65 Action estimation Unit 66 Question selection unit 67 Ride detection unit 68 Question output unit 69 Accuracy calculation unit 100, 101 Information processing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Game Theory and Decision Science (AREA)
  • Primary Health Care (AREA)
  • Navigation (AREA)

Abstract

情報処理装置(100)は、コントローラ(60)と、ユーザ(80)の乗車を検出する乗車検出装置(センサ群50)と、ユーザ(80)の行動データを記録する記憶装置(53)と、ユーザ(80)に対し回答を求める質問データを出力する出力装置(スピーカ54)と、ユーザ(80)からの入力を受け付ける入力装置(マイク52)と、を備える。コントローラ(60)は、乗車検出装置から取得した信号によってユーザ(80)の乗車を検出したとき、車両(40)の位置情報に基づいて、少なくともユーザ(80)の乗車前の行動に関する質問を含む出力データを出力装置から出力し、質問に対するユーザ(80)の回答を入力データとして入力装置を介して取得し、入力データを車両(40)の位置情報、またはPOIと関連付けて記憶装置(53)に記憶する。

Description

情報処理装置及び情報処理方法
 本発明は、情報処理装置及び情報処理方法に関する。
 従来より、POI(POINT OF INTEREST)のアイコンを表示するナビゲーション装置が知られている(特許文献1)。特許文献1に記載された発明は、ユーザが使用したPOIの使用頻度を記録し、使用頻度が高いPOIのアイコンをディスプレイに表示する。
特開2012−57957号公報
 しかしながら、特許文献1に記載された発明は、単に使用頻度の高いPOIをディスプレイに表示するのみであり、POIにおけるユーザの行動を記録することについて言及がないため、改善の余地がある。
 本発明は、上記問題に鑑みて成されたものであり、その目的は、POIにおけるユーザの行動を記録することが可能な情報処理装置及び情報処理方法を提供することである。
 本発明の一態様に係る情報処理装置は、乗車検出装置から取得した信号によってユーザの乗車を検出したとき、車両の位置情報に基づいて、少なくともユーザの乗車前の行動に関する質問を含む出力データを出力装置から出力し、質問に対するユーザの回答を入力データとして入力装置を介して取得し、入力データを車両の位置情報、またはPOIと関連付けて記憶装置に記憶する。
 本発明によれば、POIにおけるユーザの行動を記録することが可能となる。
図1は、本発明の実施形態の全体的な概略を説明する図である。 図2は、本発明の実施形態に係る情報処理装置の概略構成図である。 図3は、本発明の実施形態に係るPOIの一例を説明する図である。 図4は、本発明の実施形態に係るPOIの他の例を説明する図である。 図5は、本発明の実施形態に係る情報処理装置の一動作例を説明するフローチャートである。 図6は、本発明の変形例に係る情報処理装置の概略構成図である。 図7は、本発明の変形例に係る推定行動の精度について説明する図である。 図8は、本発明の変形例に係る質問の構造について説明する図である。 図9は、行動履歴と推定行動の精度との関係について説明する図である。 図10は、本発明の変形例に係る情報処理装置の一動作例を説明するフローチャートである。 図11は、本発明の他の実施形態を説明する図である。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
(全体概略図)
 図1を参照して、本実施形態の全体的な概略を説明する。図1に示すように、車両40は、通信ネットワーク30を介してコンピュータ20と通信する。
 コンピュータ20は、CPU(Central Processing Unit)21と、メモリ22と、通信I/F23と、ストレージ24とを備え、これらの構成要素が図示しないバスなどを介して電気的に接続されている。コンピュータ20の設置場所は特に限定されず、任意の場所に設置可能である。
 CPU21は、ストレージ24などに記憶されている様々なプログラムをメモリ22に読み込んで、プログラムに含まれる各種の命令を実行する。メモリ22は、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶媒体である。ストレージ24は、HDD(Hard Disk Drive)などの記憶媒体である。なお、コンピュータ20の機能は、通信ネットワーク30上に配置されたアプリケーション(Software as a Service(SaaS)など)によって提供されてもよい。また、コンピュータ20は、サーバであってもよい。
 通信I/F23は、ネットワークアダプタなどのハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク30などを介した有線または無線の通信を実現できるように構成されている。
 通信ネットワーク30は、無線または有線の何れかの方式、あるいは両方の方式によって構成されてもよく、通信ネットワーク30には、インターネットが含まれてもよい。本実施形態では、コンピュータ20と車両40は、無線通信方式によって通信ネットワーク30と接続する。
(情報処理装置の構成例)
 次に、図2を参照して、車両40に搭載される情報処理装置100の構成例について説明する。
 図2に示すように、情報処理装置100は、センサ群50と、GPS受信機51と、マイク52と、記憶装置53と、スピーカ54と、コントローラ60と、を備える。
 情報処理装置100は、自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、情報処理装置100は、自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキアクチュエータ、アクセルアクチュエータ、ステアリングホイールアクチュエータの内、少なくとも何れかのアクチュエータがユーザの操作なしに制御されている状態を指す。そのため、その他のアクチュエータがユーザの操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキペダル、アクセルペダル、ステアリングホイールをユーザが操作している状態を指す。
 センサ群50(乗車検出装置)は、ユーザの乗車を検出するために用いられる。センサ群50には、シートクッションに設けられる感圧センサ(着座センサとも呼ばれる)、車室内のユーザを撮像するカメラ、ドアの開閉を検出するセンサなどが含まれる。コントローラ60は、これらのセンサから取得した信号を用いてユーザの乗車を検出する。
 GPS受信機51は、人工衛星からの電波を受信することにより、地上における車両40の位置情報を検出する。GPS受信機51が検出する車両40の位置情報には、緯度情報、及び経度情報が含まれる。GPS受信機51は、検出した車両40の位置情報をコントローラ60に出力する。なお、車両40の位置情報を検出する方法は、GPS受信機51に限定されない。例えば、オドメトリと呼ばれる方法を用いて位置を推定してもよい。オドメトリとは、車両40の回転角、回転角速度に応じて車両40の移動量及びと移動方向を求めることにより、車両40の位置を推定する方法である。
 マイク52は、ユーザの音声入力に用いられる。
 記憶装置53は、コントローラ60のメモリとは異なる記憶装置であり、例えばハードディスク、ソリッドステートドライブなどである。記憶装置53には、地図データベース53a、行動履歴データベース53b、及び質問データベース53cが記憶されている。
 地図データベース53aには、道路情報、施設情報など経路案内に必要となる地図情報が記憶されている。道路情報とは、例えば、道路の車線数、道路境界線、車線の接続関係などに関する情報である。地図データベース53aは、コントローラ60の要求に応じて地図情報をコントローラ60に出力する。本実施形態では、情報処理装置100が地図データベース53aを有するものとして説明するが、必ずしも情報処理装置100が地図データベース53aを有する必要はない。地図情報は、車車間通信、路車間通信を用いて取得されてもよい。また、地図情報が外部に設置されたサーバ(例えば図1に示すコンピュータ20)に記憶されている場合、情報処理装置100は、通信により随時地図情報をサーバから取得してもよい。また、情報処理装置100は、サーバから定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。
 地図データベース53aには、POI(POINT OF INTEREST)に関する情報も記憶されている。本実施形態において、POIとは、特定の場所を示すデータである。POIには少なくとも、属性、位置情報(緯度、経度)が含まれる。属性とは、レストラン、ショッピングモール、公園など、POIを分類するための情報である。さらにPOIには、名称、住所、電話番号、アイコンが含まれてもよい。名称とは、例えばPOIの属性がレストランであれば、レストランの具体的な店舗名を意味する。POIの位置情報には緯度、経度の他に高度が含まれてもよい。
 行動履歴データベース53bには、POIにおけるユーザの行動が、車両40の位置情報、またはPOIと関連付けられて記憶される。これにより、POIにおけるユーザの行動は履歴としてデータベース化される。
 質問データベース53cには、POIの属性と、POIにおけるユーザの行動に関する質問とが関連付けられて記録されている。
 コントローラ60は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、情報処理装置100として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、情報処理装置100が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって情報処理装置100が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ60は、複数の情報処理回路の一例として、ユーザ特定部61と、目的地到着判断部62と、音声解析部63と、行動履歴更新部64と、行動推定部65と、質問選択部66と、乗車検出部67と、質問出力部68と、を備える。
 スピーカ54は、車両40の車室内に設置され、音声を出力する。
 ユーザ特定部61は、ユーザが車両40に乗車したときに撮像された顔画像を用いてユーザを特定する。具体的には、ユーザ特定部61は、撮像された顔画像と、予め記憶装置53に登録されている顔画像とが一致するかまたは類似するかを判定する。撮像された顔画像と、予め記憶装置53に登録されている顔画像とが一致するまたは類似する場合、ユーザ特定部61は、車両40に乗車したユーザを予め登録されているユーザとして特定する。なお、このような顔認識は、イグニッションがオフでも実施可能である。
 その他のユーザ特定方法として、インテリジェンスキー(スマートキーと呼ばれる場合もある)のIDを用いてもよい。インテリジェンスキーシステムでは、車両とキーの両方に、電波を発信するアンテナと、電波を受信する受信機が設けられる。ユーザがドアハンドル、トランクなどに付いているスイッチを押すと、車両のアンテナから電波が発信され、その電波を受けたキーは自動で電波を返す。この電波を車両の受信機が受信することで施錠もしくは開錠が行われる。キーが発信する電波には識別暗号が含まれており、その暗号を予め車両に登録して使用される。この識別暗号と、ユーザ情報とを関連付けることにより、ユーザの特定が可能となる。
 目的地到着判断部62は、車両40が目的地に到着したか否かを判断する。本実施形態において、目的地とは、ユーザがナビゲーション装置(図示せず)を操作して設定した目的地をいう。目的地の位置情報は、地図データベース53aに記憶されている。目的地到着判断部62は、GPS受信機51から取得した車両40の位置情報と、地図データベース53aに記憶されている目的地の位置情報とを照らし合わせ、両者が一致、またはほぼ一致したとき、車両40が目的地に到着したと判断する。
 音声解析部63は、マイク52を介して入力されたユーザの音声を解析する。解析方法には、周知の方法が用いられる。
 行動履歴更新部64は、ユーザがPOIで行った行動を、車両40の位置情報、またはPOIと関連付けて行動履歴データベース53bに記憶して、POIにおけるユーザの行動履歴を更新する。
 行動推定部65は、ユーザの乗車前の行動を推定する。本実施形態において、ユーザの乗車前の行動とは、ユーザが車両40に乗車する前において行った行動を意味する。より詳しくは、ユーザの乗車前の行動とは、ユーザが車両40に乗車する前に、ユーザが目的地で行った行動を意味する。
 また、行動推定部65は、通信ネットワーク30を介してコンピュータ20からユーザのスケジュールデータを取得する。ユーザのスケジュールデータには、いつ(When)、どこで(Where)、何をする(What)といったユーザの行動予定に関する情報が含まれる。なお、スケジュールデータは、ユーザが保持する端末(例えばスマートフォン)から取得されてもよい。
 質問選択部66は、行動推定部65によって推定された行動と質問データベース53cとを参照して、ユーザに行う質問を選択する。質問選択部66が質問を選択したとき、選択された質問を示す信号は質問出力部68に出力される。
 乗車検出部67は、センサ群50から取得した信号に基づいて、ユーザの乗車を検出する。具体的には、乗車検出部67は、感圧センサから抵抗値の変化を示す信号を取得したとき、ユーザが乗車したことを検出する。あるいは、乗車検出部67は、カメラ画像の解析により、車室内にユーザが居ることが検出されたとき、ユーザが乗車したことを検出する。なお、乗車検出部67は、ドアの開閉が検出された後に感圧センサから抵抗値の変化を示す信号を取得したとき、ユーザが乗車したことを検出してもよい。乗車検出部67がユーザの乗車を検出したとき、検出されたことを示す信号は質問出力部68に出力される。
 質問出力部68は、ユーザ80の乗車が検出されたことを示す信号を受信したとき、質問選択部66によって選択された質問を出力する。質問は、スピーカ54を介して音声で出力されてもよく、ディスプレイ(例えばナビゲーション装置のディスプレイ)に文字情報で出力されてもよい。本実施形態では、質問は、スピーカ54を介して音声で出力されるものとして説明する。
 次に、図3を参照して、ユーザがPOIで行った行動の記憶方法の一例について説明する。
 図3に示すシーンは、車両40が、ユーザ80によって設定された目的地(ここではラーメン屋90)に到着し、ラーメン屋90の駐車場で駐車したシーンである。ユーザ80は車両40から降車し、ラーメン屋90に入る。ユーザ80は、ラーメン屋90での用事を済ませた後、ラーメン屋90から出て車両40に乗車する。
 車両40が目的地に到着したことが目的地到着判断部62によって判断されたとき、判断されたことを示す信号が行動推定部65に出力される。この信号を受信した行動推定部65は、ユーザ80の乗車前の行動を推定する。上述した通り、ユーザ80の乗車前の行動とは、ユーザ80が車両40に乗車していないときの、ユーザ80が目的地で行った行動を意味する。図3に示す例では、ユーザ80の目的地はラーメン屋90であるため、ユーザ80の乗車前の行動とは、ユーザ80がラーメン屋90で行った行動を意味する。
 行動推定部65によるユーザ80の行動の推定方法について説明する。まず行動推定部65は、GPS受信機51から車両40の位置情報を取得する。より詳しくは、行動推定部65は、車両40が目的地に到着したことが目的地到着判断部62によって判断されたときの車両40の位置情報を取得する。
 行動推定部65は、車両40の位置情報と地図データベース53aとを照らし合わせ、現在地(車両40の駐車位置)のPOIを取得する。具体的には行動推定部65は、図3に示すように、POIの位置情報(緯度、経度)と、POIの属性(ラーメン屋)を取得する。図3に示す例では、車両40はラーメン屋90の駐車場で駐車しているため、車両40の位置情報はPOIの位置情報とみなせる。行動推定部65は、車両40の位置情報と一致する、あるいはほぼ一致するPOIの位置情報を取得する。そして、行動推定部65は、POIの位置情報と関連付けられているPOIの属性を取得する。
 このように、行動推定部65は、車両40の位置情報と地図データベース53aとを照らし合わせることにより、現在地がラーメン屋90であることを把握する。次に行動推定部65は、記憶装置53に記憶されている、POIの属性とユーザの行動種類とが関連付けられたテーブルデータを参照して、ユーザ80の乗車前の行動を推定する。本実施形態においてユーザの行動種類とは、POIにおいてユーザが行い得る行動を分類したものである。例えば、POIの属性がレストランである場合、ユーザの行動種類として、食事、打合せの2つの行動がレストランと関連付けられて記憶されている。ただし、ユーザの行動種類は、複数でなく、単一でもよい。図3に示すように、POIの属性がラーメン屋である場合、ユーザの行動種類として食事のみがラーメン屋と関連付けられている。よって、図3に示す例では、行動推定部65によって推定される、ユーザ80の乗車前の行動は、食事となる。
 行動推定部65による推定結果に係る信号は、質問選択部66に出力される。行動推定部65からの信号を受信した質問選択部66は、ユーザ80の乗車前の行動(食事)と、質問データベース53cとを参照することによって、ユーザに行う質問を選択する。上述したように、質問データベース53cには、POIの属性と、POIにおけるユーザの行動に関する質問とが関連付けられて記録されている。質問選択部66は、ユーザ80の乗車前の行動(食事)と、質問データベース53cとを参照することによって、食事に関する質問を選択することが可能となる。食事に関する質問として、例えば、「何か食べましたか?」というYESまたはNOで回答可能な二者択一形式の質問が記憶されている。また、「何を食べましたか?」という具体的な回答を求める質問も記憶されている。質問選択部66は、食事に関する質問であれば、任意に選択可能である。質問選択部66が質問を選択したとき、選択された質問を示す信号が質問出力部68に出力される。
 ユーザ80に質問するタイミングは、特に限定されないが、ユーザ80が車両40に乗車した直後が考えられる。理由は、ユーザ80が車両40に乗車してから時間が経過するにつれて、ユーザ80はPOIで行った行動を忘れる可能性があるからである。このため、乗車検出部67は、センサ群50から取得した信号に基づいて、ユーザの乗車を検出する。乗車検出部67によってユーザ80の乗車が検出されたとき、検出されたことを示す信号が質問出力部68に出力される。
 質問出力部68は、ユーザ80の乗車が検出されたことを示す信号を受信したとき、質問選択部66によって選択された質問をスピーカ54を介して音声でユーザに行う。ここで、質問として、「何か食べましたか?」という質問が行われたと仮定する。
 この質問に対し、ユーザ80は、マイク52を用いて音声で回答する。音声解析部63は、ユーザ80の音声データを解析する。ユーザ80が「はい」と回答した場合、音声解析によって、ユーザ80がラーメン屋90で行った行動が食事であったことが確定する。行動履歴更新部64は、車両40の位置情報と、ユーザ80がラーメン屋90で行った食事という行動とを関連付けて行動履歴データベース53bに記憶する。また、行動履歴更新部64は、POIと、ユーザ80がラーメン屋90で行った食事という行動とを関連付けて行動履歴データベース53bに記憶してもよい。このように本実施形態によれば、POIにおけるユーザ80の行動を記録することが可能となる。
 行動履歴データベース53bに記憶されるデータは、例えば、ユーザ80の回答が入力された時の日時、車両40の位置情報、POI(位置情報及び属性)、POIにおける行動内容である。
 次の、図4を参照して、ユーザがPOIで行った行動の記憶方法の他の例について説明する。
 図4に示すシーンは、車両40が、ユーザ80によって設定された目的地(ここではショッピングモール91)に到着し、ショッピングモール91の駐車場で駐車したシーンである。ユーザ80は車両40から降車し、ショッピングモール91に入る。ユーザ80は、ショッピングモール91での用事を済ませた後、ショッピングモール91から出て車両40に乗車する。
 図3に示す例と同様に、行動推定部65は、車両40の位置情報と地図データベース53aとを照らし合わせることにより、現在地がショッピングモール91であることを把握する。次に行動推定部65は、POIの属性とユーザの行動種類とが関連付けられたテーブルデータを参照して、ユーザ80の行動を推定する。
 本実施形態において、ショッピングモール91は、複数の小売店舗、飲食店、美容院、旅行代理店、スポーツジムなどが入居する商業施設である。なお、ショッピングモールはショッピングセンターと呼ばれる場合もある。
 ショッピングモール91におけるユーザの行動種類には、食事、買い物、待ち合せ、散髪、運動などの複数の行動が含まれる。複数の行動の中から、精度よくユーザ80の行動を推定するために、行動推定部65は、コンピュータ20から取得した、ユーザ80のスケジュールデータを参照する。上述したようにスケジュールデータにはユーザ80の行動予定に関する情報が含まれているため、行動推定部65はスケジュールデータを参照することによって、ショッピングモール91におけるユーザの行動を精度よく推定することが可能となる。ここでスケジュールデータには、ユーザ80の行動予定としてショッピングモール91で食事する、という情報が含まれていたと仮定する。この場合、行動推定部65はスケジュールデータを参照することによって、ショッピングモール91におけるユーザの行動を食事と推定する。
 行動推定部65からの信号を受信した質問選択部66は、ユーザ80の乗車前の行動(食事)と、質問データベース53cとを参照することによって、ユーザに行う質問を選択する。ここでは図3に示す例と同様に「何か食べましたか?」という質問が行われたと仮定する。
 この質問に対し、ユーザ80は、マイク52を用いて音声で回答する。音声解析部63は、ユーザ80の音声データを解析する。ユーザ80が「はい」と回答した場合、音声解析によって、ユーザ80がショッピングモール91で行った行動が食事であったことが確定する。行動履歴更新部64は、車両40の位置情報と、ユーザ80がショッピングモール91で行った食事という行動とを関連付けて行動履歴データベース53bに記憶する。また、行動履歴更新部64は、POIと、ユーザ80がショッピングモール91で行った食事という行動とを関連付けて行動履歴データベース53bに記憶してもよい。このようにPOIにおけるユーザの行動種類が複数あったとしても、スケジュールデータの参照により、POIにおけるユーザ80の行動を正確に記録することが可能となる。
 なお、行動推定部65は、行動履歴データベース53bに記憶されているユーザ80の行動履歴を参照して、ユーザ80の行動を推定してもよい。例えば、行動履歴に記憶されている行動のうち、回数が多い行動をユーザ80の行動として推定してもよい。
 次に、図5のフローチャートを参照して、情報処理装置100の一動作例を説明する。
 ステップS101において、ユーザ特定部61は、カメラで撮像された顔画像、インテリジェンスキーから発信される識別暗号などを用いて車両40に乗車したユーザ80を特定する。処理はステップS103に進み、ユーザ80によって目的地が設定される。
 処理はステップS105に進み、目的地到着判断部62は、GPS受信機51から取得した車両40の位置情報と、地図データベース53aに記憶されている目的地の位置情報とを照らし合わせることにより、車両40が目的地に到着したか否かを判断する。車両40が目的地に到着したと判断された場合(ステップS105でYES)、処理はステップS107に進む。一方、車両40が目的地に到着したと判断されない場合(ステップS105でNO)、処理は待機する。
 ステップS107において、行動推定部65は、ユーザの乗車前の行動を推定する。具体的には、行動推定部65は、GPS受信機51から取得した車両40の位置情報と地図データベース53aとを照らし合わせ、現在地(車両40の駐車位置)のPOIを取得する。これにより、行動推定部65は、現在地がラーメン屋90である(図3参照)、あるいは現在地がショッピングモール91である(図4参照)ことを把握できる。行動推定部65は、POIの属性(ラーメン屋、ショッピングモール)とユーザの行動種類とが関連付けられたテーブルデータを参照して、ユーザ80の乗車前の行動を推定する。行動推定部65による推定結果に係る信号は、質問選択部66に出力される。
 処理はステップS109に進み、行動推定部65からの信号を受信した質問選択部66は、ユーザ80の乗車前の行動と、質問データベース53cとを参照することによって、ユーザに行う質問を選択する。質問選択部66によって選択された質問を示す信号は質問出力部68に出力される。
 処理はステップS111に進み、乗車検出部67は、センサ群50から取得した信号に基づいて、ユーザの乗車を検出する。乗車検出部67によってユーザ80の乗車が検出されたとき、ユーザ80の乗車が検出されたことを示す信号が質問出力部68に出力される。
 処理はステップS113に進み、質問出力部68は、ユーザ80の乗車が検出されたことを示す信号を受信したとき、質問選択部66によって選択された質問をスピーカ54を介して音声でユーザに行う。
 マイク52を通して音声による回答が入力された場合(ステップS115でYES)、処理はステップS117に進む。ユーザ80の回答が得られない場合(ステップS115でNO)、処理は待機する。なお、ユーザ80から回答を得る方法は、音声に限定されず、タッチパネルの操作によってユーザ80の回答が取得されてもよい。
 ステップS117において、音声解析部63は、ユーザ80の音声データを解析する。音声解析部63による解析結果に基づいて、行動履歴更新部64は、車両40の位置情報と、ユーザ80がPOIで行った行動とを関連付けて行動履歴データベース53bに記憶する。行動履歴更新部64は、POIと、ユーザ80がPOIで行った行動とを関連付けて行動履歴データベース53bに記憶してもよい。
(作用効果)
 以上説明したように、本実施形態に係る情報処理装置100によれば、以下の作用効果が得られる。
 情報処理装置100は、コントローラ60と、ユーザ80の車両40に対する乗車を検出する乗車検出装置(センサ群50)と、ユーザ80の行動データを記録する記憶装置(行動履歴データベース53b)と、ユーザ80に対し回答を求める質問データを出力する出力装置(スピーカ54)と、ユーザ80からの入力を受け付ける入力装置(マイク52)と、を備える。
 コントローラ60は、乗車検出装置から取得した信号によってユーザ80の乗車を検出したとき、車両40の位置情報に基づいて、少なくともユーザ80の前記車両への乗車前の行動に関する質問を含む出力データを出力装置から出力する。コントローラ60は、質問に対するユーザ80の回答を入力データとして入力装置を介して取得する。そして、コントローラ60は、入力データを車両40の位置情報、またはPOIと関連付けて記憶装置に記憶する。これにより、POIにおけるユーザ80の行動を正確に記録することが可能となる。
 コントローラ60は、車両40の位置情報に基づいて決定されるPOIの属性に応じて質問を決定する。図3に示すように、車両40はラーメン屋90の駐車場で駐車しているため、車両40の位置情報に基づいてPOIの属性はラーメン屋90であると決定される。記憶装置(質問データベース53c)には、POIの属性(ラーメン屋)と、POIにおけるユーザの行動(食事)に関する質問とが関連付けられて記録されているため、コントローラ60は、POIの属性に応じて質問を決定することができる。
 コントローラ60は、行動履歴データベース53bに記憶されている行動履歴、またはPOIの属性に応じて乗車前の行動を推定してもよい。図3に示すように、POIの属性がラーメン屋であれば、コントローラ60は、乗車前の行動は食事と推定することができる。また、コントローラ60は、行動履歴に記憶されている行動のうち、回数が多い行動をユーザ80の行動として推定してもよい。これにより、コントローラ60は、精度よく乗車前の行動を推定することができる。
 コントローラ60は、通信によりユーザ80の行動予定に関するデータ(ユーザ80のスケジュールデータ)を取得し、このスケジュールデータを参照して質問を決定してもよい。これにより、POIにおけるユーザの行動種類が複数あったとしても、適切な質問を決定することが可能となり、POIにおけるユーザ80の行動を正確に記録することが可能となる。なお、通信とは、コンピュータ20(サーバ)との通信、またはユーザ80が保持する端末との通信を意味する。
 入力データは、ユーザ80の音声を変換したデータ、または、ユーザ80からの操作を受け付けて生成されたデータである。質問に対するユーザ80の回答手段として、マイク52、タッチパネルが用いられる。ユーザ80は、マイク52、タッチパネルを用いることにより簡単に回答することができる。
 コントローラ60は、ユーザ80によって設定された目的地に車両40が到着した後にユーザ80の降車を検出し、さらにその後、ユーザ80の乗車を検出したときに質問を出力する。これにより、コントローラ60は、適切なタイミングで質問することができる。
 POIは、車両40の位置情報の周囲に位置するPOI、車両40に備えられたナビゲーション装置において設定された目的地、通信により取得されたユーザ80の行動予定に関するデータに含まれるPOI、または、通信により取得されたユーザ80の乗車前の行動履歴に関するデータに含まれるPOIのいずれかであってもよい。
[変形例]
 次に本実施形態の変形例について説明する。
 図6に示すように、変形例に係る情報処理装置101は、精度算出部69をさらに備える。精度算出部69は、行動推定部65によって推定されたユーザ80の行動の、確からしさ(蓋然性)を示す精度を算出する。推定精度は、低、中、高の3段階で評価されてもよく、確率(0%~100%)で評価されてもよい。
 図7を参照して、ユーザ80がPOIで行った行動の記憶方法の一例について説明する。
 図7では、POIの属性として、レストラン、ショッピングモール、教室を取り上げて説明する。本実施形態において、教室には、水泳教室、ダンス教室、生け花教室などが含まれる。レストランにおけるユーザの行動種類には、食事、打合せなどが含まれる。ショッピングモールにおけるユーザの行動種類には、上述したように食事、買い物、待ち合せ、散髪、運動などが含まれる。教室におけるユーザの行動種類には、運動、稽古などが含まれる。
 上述したようにPOIの属性とユーザの行動種類とが関連付けられているため、図7に示すように行動推定部65は、上述の行動種類の中からユーザ80の行動を推定する。なお、説明の都合上、図7において、ショッピングモールにおけるユーザの推定行動は、食事、買い物、待ち合せを例示する。
 図7に示すように、推定の対象となる行動が複数ある場合、行動推定部65によって推定された行動(以下単に推定行動ともいう)の精度は高いことが求められるが、常に精度よく推定されるとは限らない。推定行動の精度は高いことが求められる理由は、推定行動が間違っていた場合、ユーザ80への質問は的外れとなってしまうからである。しかしながら、上述したように、常に精度よく推定されるとは限らない。
 そこで変形例に係る情報処理装置101は、推定行動の精度を算出し、算出した精度に応じて質問を決定する。推定行動の精度を算出するために、行動履歴データベース53bに記憶されているユーザ80の行動履歴が用いられる。ここでは、行動履歴データベース53bに記憶されているユーザ80の行動履歴がゼロの場合と、行動履歴データベース53bに記憶されているユーザ80の行動履歴が所定回数(例えば10回)の場合の2つに分けて説明する。
 まず、行動履歴データベース53bに記憶されているユーザ80の行動履歴がゼロの場合について説明する。
 ユーザ80の目的地がレストランである場合、図7に示すように、行動推定部65によって推定される行動は、食事、または打合せとなる。行動推定部65は、食事、打合せの内、どちらか一方を推定する。推定方法は特に限定されないが、一例として、行動推定部65は、一般的に確率が高いと想定される行動を推定してもよい。レストランにおける行動のうち、一般的に確率が高いと想定される行動は食事である。この点もテーブルデータに記憶されている。よって行動推定部65は、POIの属性がレストランであるとき、テーブルデータを参照してユーザ80の行動は食事であると推定してもよい。
 また、他の例として、行動推定部65は、行動履歴データベース53bに記憶されているユーザ80の行動履歴を参照して、ユーザ80の行動を推定してもよい。例えば、行動履歴に記憶されている行動のうち、回数が多い行動をユーザ80の行動として推定してもよい。ただし、行動履歴がゼロの場合、この方法は使えない。
 精度算出部69は、行動推定部65によって推定された食事という行動の精度を算出する。まず精度算出部69は、行動履歴データベース53bを参照して、レストランにおけるユーザ80の行動履歴を取得する。ここで、レストランにおけるユーザ80の行動履歴はゼロであるため、精度算出部69は、ユーザ80がレストランに来たのは初めて(1回目)だと判断する。この場合、精度算出部69は、ユーザ80がレストランで行った行動が食事である可能性は低い、と判断する。理由は、ユーザ80がレストランで行う行動として、食事なのか、あるいは打合せなのかを判断することが難しいからである。食事のほうが一般的に確率が高いと想定されるが、打合せの可能性を排除できない。よって、精度算出部69は、行動推定部65によって推定された食事という行動の精度は低いと算出する。そして、算出結果を示す信号が質問選択部66に出力される。
 精度算出部69からの信号を受信した質問選択部66は、行動推定部65によって推定された食事という行動の精度は低いことを把握する。この把握により、質問選択部66は、食事に関する質問の選択を回避し、ユーザ80の行動自体を問う質問を選択する。ユーザ80の行動自体を問う質問を選択する理由は、将来ユーザ80がレストランに再度来る場合に備えて、行動履歴を蓄積するためである。
 行動自体を問う質問として、図7に示すように、「何をしていましたか?」という質問が挙げられる。質問に対するユーザ80の回答は、車両40の位置情報、またはPOIと関連付けられて行動履歴データベース53bに記憶される。このように、行動履歴データベース53bに記憶されているユーザ80の行動履歴がゼロの場合は、ユーザ80の行動自体を問う質問を行うことにより、将来ユーザ80がレストランに再度来る場合に備えて、行動履歴を蓄積することができる。また、ユーザ80の行動自体を問う質問を行うことにより、的外れな質問を回避することが可能となる。
 次に、行動履歴データベース53bに記憶されているユーザ80の行動履歴が所定回数(例えば10回)の場合について説明する。
 行動履歴データベース53bに記憶されているユーザ80の行動履歴がゼロの場合と同様に、ユーザ80の目的地はレストランであると仮定する。精度算出部69は、行動履歴データベース53bを参照して、レストランにおけるユーザ80の行動履歴を取得する。ここで、10回の行動履歴の内、食事が7回、打合せが3回であったと仮定する。この場合、食事の回数は打合せの回数より多いため、精度算出部69は、ユーザ80がレストランで行った行動が食事である可能性は中程度、と算出する。換言すれば、精度算出部69は、行動推定部65によって推定された食事という行動の精度は中程度と算出する。そして、算出結果を示す信号が質問選択部66に出力される。なお、行動推定部65によって推定された食事という行動の精度は、確率として算出されてもよい。10回の行動履歴の内、食事が7回、打合せが3回である場合、ユーザ80がレストランで行う行動が食事である確率は70%であると算出されてもよい。なお、行動推定部65によって推定された行動の精度が中程度とは、確率に換算すれば70%程度である。
 精度算出部69からの信号を受信した質問選択部66は、ユーザ80がレストランで行った行動として食事である可能性が高いと判断し、食事に関する質問を選択する。食事に関する質問として、図7に示すように、「何か食べましたか?」、「何か飲みましたか?」という質問が挙げられる。質問に対するユーザ80の回答は、車両40の位置情報、またはPOIと関連付けられて行動履歴データベース53bに記憶される。なお、10回の行動履歴の内、食事が3回、打合せが7回である場合、質問選択部66は打合せに関する質問を選択する。打合せに関する質問として、図7に示すように、「何かの打合せ?」、「誰かと打合せ?」という質問が挙げられる。
 所定回数を10回として説明したが、所定回数は10回に限定されない。行動履歴データベース53bに記憶されているユーザ80の行動履歴の回数は多いほど、推定行動の精度向上に寄与する。換言すれば、行動履歴データベース53bに記憶されているユーザ80の行動履歴の回数は少ないほど、推定行動の精度はばらつく。よって、行動履歴データベース53bに記憶されているユーザ80の行動履歴の回数が5回未満の場合、行動履歴データベース53bに記憶されているユーザ80の行動履歴の回数はゼロとして扱われてもよい。
 同様に、ユーザ80の目的地がショッピングモールであり、行動推定部65によって推定されたユーザ80の行動(食事)の精度は中程度と算出された場合、質問選択部66は食事に関する質問を選択する。食事に関する質問は、上述と同じであるため省略する。同様に、行動推定部65によって推定されたユーザ80の行動(買い物)の精度は中程度と算出された場合、質問選択部66は買い物に関する質問を選択する。買い物に関する質問として、図7に示すように、「何か買いましたか?」、「何かありましたか?」という質問が挙げられる。同様に、行動推定部65によって推定されたユーザ80の行動(待ち合せ)の精度は中程度と算出された場合、質問選択部66は待ち合せに関する質問を選択する。待ち合せに関する質問として、図7に示すように、「誰かと待ち合せですか?」、「○○さん?」という質問が挙げられる。
 同様に、ユーザ80の目的地が教室であり、行動推定部65によって推定されたユーザ80の行動(運動)の精度は中程度と算出された場合、質問選択部66は運動に関する質問を選択する。運動に関する質問として、図7に示すように、「運動しましたか?」、「水泳?ヨガ?ダンス?」という質問が挙げられる。同様に、行動推定部65によって推定されたユーザ80の行動(稽古)の精度は中程度と算出された場合、質問選択部66は稽古に関する質問を選択する。稽古に関する質問として、図7に示すように、「習い事ですか?」、「お花?お茶?お習字?」という質問が挙げられる。
 このように行動推定部65によって推定されたユーザ80の行動の精度を算出し、算出した精度に応じて質問を決定することにより、的外れな質問を回避することが可能となる。
 次に、レストランにおける10回の行動履歴の内、食事が10回、打合せが0回であったと仮定する。この場合、行動履歴の全てが食事であるため、精度算出部69は、ユーザ80がレストランで行う行動が食事である可能性は高い、と算出する。換言すれば、精度算出部69は、行動推定部65によって推定されたユーザ80の行動(食事)の精度は高いと算出する。そして、算出結果を示す信号が質問選択部66に出力される。なお、ユーザ80がレストランで行う行動が食事である確率は100%であると算出されてもよい。
 精度算出部69からの信号を受信した質問選択部66は、ユーザ80がレストランで行った行動として食事である可能性が極めて高いと判断し、食事に関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「美味しかったですか?」、「また食べに来たいですか?」という質問が挙げられる。音声解析部63は、この質問に対するユーザ80の回答を肯定的であるかあるいは否定的であるかに分類することができる。行動履歴更新部64は、分類された結果を分類データとしてPOIに関連付けて行動履歴データベース53bに記録することができる。ユーザ80の回答を肯定的あるいは否定的に分類することにより、次回ユーザ80に質問する際に、さらに深堀りした質問が可能となる。
 なお、10回の行動履歴の内、食事が0回、打合せが10回である場合、質問選択部66は打合せに関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「無事終わりましたか?」、「○○さんは元気でしたか?」という質問が挙げられる。
 同様に、ユーザ80の目的地がショッピングモールであり、行動推定部65によって推定されたユーザ80の行動(食事)の精度は高いと算出された場合、質問選択部66は食事に関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問は、上述と同じであるため省略する。同様に、行動推定部65によって推定されたユーザ80の行動(買い物)の精度は高いと算出された場合、質問選択部66は買い物に関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「安いものがありましたか?」、「良い物を買えましたか?」という質問が挙げられる。同様に、行動推定部65によって推定されたユーザ80の行動(待ち合せ)の精度は高いと算出された場合、質問選択部66は待ち合せに関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「無事に会えましたか?」、「○○さんは元気でしたか?」という質問が挙げられる。
 同様に、ユーザ80の目的地が教室であり、行動推定部65によって推定されたユーザ80の行動(運動)の精度は高いと算出された場合、質問選択部66は運動に関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「いい汗をかきましたか?」、「気持ち良かったですか?」という質問が挙げられる。同様に、行動推定部65によって推定されたユーザ80の行動(稽古)の精度は高いと算出された場合、質問選択部66は稽古に関する質問の中から、精度が中程度のときの質問よりも深堀りした質問を選択する。深堀りした質問として、図7に示すように、「上手になりましたか?」、「悟りを開けましたか?」という質問が挙げられる。
 このように行動推定部65によって推定されたユーザ80の行動の精度を算出し、算出した精度に応じて質問を決定することにより、ユーザ80との会話を活発化させることが可能となる。
 なお、精度算出部69は推定行動の精度を算出する際に、ユーザ80のスケジュールデータを参照してもよい。スケジュールデータの参照により、算出する精度を向上させることが可能となる。上述では、行動履歴データベース53bに記憶されているユーザ80の行動履歴がゼロの場合、推定行動(食事)の精度は低いと説明した。この場合において、スケジュールデータに「レストランで食事する」という情報が含まれていれば、行動推定部65はスケジュールデータを参照することによって、推定行動(食事)の精度は中程度、あるいは高いと算出することも可能である。
 次に、図8を参照して、質問データベース53cに記憶されている質問の構造の一例について説明する。
 図8に示すように、質問は、複数の階層(第1階層~第3階層)に分類されて質問データベース53cに記憶されている。質問選択部66は、精度算出部69によって算出された推定行動の精度に応じていずれかの階層に属する質問を選択する。具体的には、質問選択部66は、推定行動の精度が第1所定値より小さい場合は、第1階層に含まれる質問を選択する。図8に示すように、第1階層に含まれる質問は、ユーザ80の行動自体を問う質問である。
 質問選択部66は、推定行動の精度が第1所定値以上、かつ第2所定値以下の場合(第1所定値<第2所定値)は、第2階層に含まれる質問を選択する。図8に示すように、第2階層に含まれる質問は、推定行動を確認するための質問である。
 質問選択部66は、推定行動の精度が第2所定値より大きい場合は、第3階層に含まれる質問を選択する。図8に示すように、第3階層に含まれる質問は、乗車前の行動に関する感想あるいは評価を回答させる質問である。第3階層には、POIに関する感想あるいは評価を回答させる質問が含まれてもよい。乗車前の行動に関する感想あるいは評価を回答させる質問として、乗車前の行動が食事であれば、図8に示すように「美味しかったですか?」、「また食べに来たいですか?」という質問が挙げられる。POIに関する感想あるいは評価を回答させる質問として、POIの属性がレストランであれば、図8に示すように「店内は清潔でしたか?」という質問が挙げられる。
 図8に示す第1所定値、第2所定値として、精度算出部69によって算出された確率が用いられてもよい。例えば、第1所定値は30%、第2所定値は70%であってもよい。第1階層は、図7における推定精度が低いに該当する。第2階層は、図7における推定精度が中程度に該当する。第3階層は、図7における推定精度が高いに該当する。
 第1階層から第3階層に向かうにつれて、すなわち、推定行動の精度が高くなるにつれて、質問が掘り下げられる。POIにおけるユーザ80の行動は、行動履歴データベース53bに記録され、行動履歴が蓄積される。行動履歴の蓄積が増えるほど、精度算出部69によって算出される推定行動の精度が高くなり、質問が掘り下げられる。このように行動履歴の蓄積が増えるほど、ユーザ80との会話を活発化させることが可能となる。なお、図8では質問は3つの階層に分類されるが、これに限定されない。第4階層、第5階層のように、さらに質問が掘り下げられてもよい。つまり、各階層は質問の抽象度または具体性の度合いに応じて設定されており、質問が各階層に割り振られており、より上の階層になるにつれて質問の抽象度が上がり、より下の階層になるにつれて質問の具体性が上がっている、ということもできる。
 次に、図9を参照して、行動履歴データベース53bに記憶されている行動履歴と、精度算出部69によって算出される推定行動の精度との関係について説明する。
 上述したように、行動履歴データベース53bに記憶されている行動履歴が少ないほど、推定行動の精度は低くなる。一方、行動履歴データベース53bに記憶されている行動履歴が多いほど、推定行動の精度は高くなる。
 同様に、行動履歴データベース53bに記憶されている行動履歴の確率が低いほど、推定行動の精度は低くなる。一方、行動履歴データベース53bに記憶されている行動履歴の確率が高いほど、推定行動の精度は高くなる。上述では、10回の行動履歴の内、食事が7回、打合せが3回である場合、ユーザ80がレストランで行う行動が食事である確率は70%と説明したが、この70%という確率が行動履歴の確率を意味する。
 なお、精度算出部69は、推定行動の精度を算出する際に、行動履歴データベース53bに記憶されている行動履歴を参照しなくてもよい。POIの属性がショッピングモールであれば、上述したように、ユーザ80が行い得る行動は多数あるため、ユーザ80が行った行動を推定することは難しい。このため、推定行動の精度は低くなる。一方、POIの属性がラーメン屋であれば、ユーザ80が行い得る行動は食事に特定されるため、推定行動の精度は高くなる。POIの属性がスーパーマーケットであれば、ユーザ80が行いうる行動はほぼ買い物に特定されるため、推定行動の精度は中程度となる。このように、精度算出部69は、行動履歴データベース53bに記憶されている行動履歴を参照することなく、POIの属性のみを用いて推定行動の精度を算出することも可能である。
 次に、図10のフローチャートを参照して、変形例に係る情報処理装置101の一動作例を説明する。ただし、ステップS201~207、219~225の処理は、図5に示すステップS101~107、111~117の処理と同様であるため、説明を省略する。
 ステップS209において、精度算出部69は、行動推定部65によって推定されたユーザ80の行動の、確からしさ(蓋然性)を示す精度を算出する。
 処理はステップS211に進み、質問選択部66は、精度算出部69によって算出された推定行動の精度に応じていずれかの階層に属する質問を選択する(図8参照)。具体的には、質問選択部66は、推定行動の精度が第1所定値より小さい場合は、ユーザ80の行動自体を問う質問を選択する(ステップS213)。また、質問選択部66は、推定行動の精度が第1所定値以上、かつ第2所定値以下の場合は、推定行動を確認するための質問を選択する(ステップS215)。また、質問選択部66は、推定行動の精度が第2所定値より大きい場合は、乗車前の行動に関する感想あるいは評価を回答させる質問、または、POIに関する感想あるいは評価を回答させる質問を選択する(ステップS217)。
(作用効果)
 以上説明したように、変形例に係る情報処理装置101によれば、以下の作用効果が得られる。
 コントローラ60は、行動履歴データベース53bに記憶されている行動履歴、またはPOIの属性に応じて推定行動の精度を算出し、算出した推定行動の精度に応じて質問を決定する。これにより、的外れな質問を回避することが可能となる。
 質問は、複数の階層に分類されている(図8参照)。コントローラ60は、推定行動の精度に応じていずれかの階層に属する質問を出力データとして決定する。推定行動の精度に応じて質問を決定することにより、ユーザ80との会話を活発化させることが可能となる。なお、コントローラ60は、推定行動の精度に応じて質問の抽象度を決定し、決定された質問を出力データとして決定してもよい。
 出力データには、乗車前の行動を回答させる質問、乗車前の行動に関する感想あるいは評価を回答させる質問、または、POIに関する感想あるいは評価を回答させる質問が含まれる。様々な質問を用いることにより、ユーザ80との会話を活発化させることが可能となる。
 コントローラ60は、ユーザ80の回答を肯定的であるかあるいは否定的であるかに分類し、分類した結果を分類データとしてPOIに関連付けて行動履歴データベース53bに記録する。ユーザ80の回答を肯定的あるいは否定的に分類することにより、次回ユーザ80に質問する際に、さらに深堀りした質問が可能となる。
 コントローラ60は、車両40の位置情報に応じて、POIに関連付けられた分類データを出力してもよい。ラーメン屋90での食事に対するユーザ80の回答が、「美味しかった」という肯定的なものであったと仮定する。この場合において、車両40がラーメン屋90の近くを通ったとき、コントローラ60は、「ラーメン、美味しかったですね」という音声を出力してもよい。これにより、ユーザ80との会話を活発化させることが可能となる。
 上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 図3に示す例では、車両40がラーメン屋90の駐車場で駐車したため、車両40の位置情報はPOIの位置情報とみなせる、と説明した。しかしながら、目的地に駐車場が設けられているとは限らない。目的地に駐車場が設けられていない場合、例えばユーザ80は、図11に示すように、目的地の近くのコインパーキングに駐車して、コインパーキングから歩いて目的地に向かうことが考えられる。この場合、車両40の位置情報と、目的地の位置情報(POIの位置情報)は一致しない。よって、車両40の位置情報とユーザ80の乗車前の行動とを関連付けて記憶しても、有用なデータとはならない。
 そこで情報処理装置100は、ユーザ80が保持する端末(以下、ユーザ端末と呼ぶ)の位置情報と、ユーザ80の乗車前の行動とを関連付けて行動履歴データベース53bに記憶してもよい。具体的には、情報処理装置100は、ユーザ80が目的地に到着したとき、ユーザ端末の位置情報を通信により取得する。なお、前提条件として、情報処理装置100と、ユーザ端末とは通信が可能となるように設定されている。一例として、情報処理装置100は、ユーザ端末から送信されるデータを受信する受信機を備える。ユーザ80が目的地に到着したかどうかについて、情報処理装置100は、ユーザ端末にインストールされている案内アプリの情報を参照することにより判断することが可能である。
 情報処理装置100は、ユーザ端末から取得した位置情報に基づいて、目的地におけるユーザ80の行動を推定する。情報処理装置100は、推定した行動に関する質問を行う。そして、情報処理装置100は、ユーザ端末から取得した位置情報と、ユーザ80の乗車前の行動とを関連付けて行動履歴データベース53bに記憶する。これにより、車両40の駐車位置と目的地の位置(POIの位置)とが離れていたとしても、POIにおけるユーザ80の行動を正確に記録することが可能となる。
40 車両
50 センサ群
51 GPS受信機
52 マイク
53 記憶装置
53a 地図データベース
53b 行動履歴データベース
53c 質問データベース
54 スピーカ
60 コントローラ
61 ユーザ特定部
62 目的地到着判断部
63 音声解析部
64 行動履歴更新部
65 行動推定部
66 質問選択部
67 乗車検出部
68 質問出力部
69 精度算出部
100、101 情報処理装置

Claims (15)

  1.  コントローラと、
     ユーザの車両に対する乗車を検出する乗車検出装置と、
     前記ユーザの行動データを記録する記憶装置と、
     前記ユーザに対し回答を求める質問データを出力する出力装置と、
     前記ユーザからの入力を受け付ける入力装置と、を備え、
     前記コントローラは、
     前記乗車検出装置から取得した信号によって前記ユーザの乗車を検出したとき、前記車両の位置情報に基づいて、少なくとも前記ユーザの前記車両への乗車前の行動に関する質問を含む出力データを前記出力装置から出力し、
     前記質問に対する前記ユーザの回答を入力データとして前記入力装置を介して取得し、
     前記入力データを前記車両の位置情報、またはPOIと関連付けて前記記憶装置に記憶する
    ことを特徴とする情報処理装置。
  2.  前記POIは、前記車両の位置情報の周囲に位置するPOI、前記車両に備えられたナビゲーション装置において設定された目的地、通信により取得された前記ユーザの行動予定に関するデータに含まれるPOI、または、通信により取得された前記ユーザの乗車前の行動履歴に関するデータに含まれるPOIのいずれかである
    ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記コントローラは、前記車両の位置情報に基づいて決定される前記POIの属性に応じて、前記質問を決定する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記コントローラは、前記記憶装置に記憶されている前記ユーザの行動履歴、または前記POIの属性に応じて前記乗車前の行動を推定し、推定行動に応じて前記質問を決定する
    ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
  5.  前記コントローラは、前記ユーザの行動履歴、または前記POIの属性に応じて前記推定行動の精度を算出し、算出した前記推定行動の精度に応じて前記質問を決定する
    ことを特徴とする請求項4に記載の情報処理装置。
  6.  前記記憶装置には、前記POIの属性と、前記POIにおいて前記ユーザが行い得る行動が分類された行動種類とが関連付けられて記録され、
     前記コントローラは、前記POIの属性に関連付けられた前記ユーザの行動種類に応じて前記質問を決定する
    ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
  7.  前記コントローラは、通信により前記ユーザの行動予定に関するデータを取得し、
     前記ユーザの行動予定に関するデータを参照して前記質問を決定する
    ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
  8.  前記ユーザが保持する端末から送信されるデータを受信する受信機をさらに備え、
     前記コントローラは、前記端末から送信された、前記乗車前における前記端末の位置情報に基づいて、前記質問を決定する
    ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。
  9.  前記コントローラは、前記推定行動の精度に応じて質問の抽象度を決定し、決定された前記質問を出力データとして決定する
    ことを特徴とする請求項5に記載の情報処理装置。
  10.  前記出力データには、前記乗車前の行動を回答させる質問、前記乗車前の行動に関する感想あるいは評価を回答させる質問、または、前記POIに関する感想あるいは評価を回答させる質問が含まれる
    ことを特徴とする請求項1~9のいずれか1項に記載の情報処理装置。
  11.  前記コントローラは、前記ユーザの回答を肯定的であるかあるいは否定的であるかに分類し、分類した結果を分類データとして前記POIに関連付けて前記記憶装置に記録する
    ことを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。
  12.  前記入力データは、前記ユーザの音声を変換したデータ、または、前記ユーザからの操作を受け付けて生成されたデータである
    ことを特徴とする請求項1~11のいずれか1項に記載の情報処理装置。
  13.  前記コントローラは、前記ユーザによって設定された目的地に前記車両が到着した後に前記ユーザの降車を検出し、さらにその後、前記ユーザの乗車を検出したときに前記質問を出力する
    ことを特徴とする請求項1~12のいずれか1項に記載の情報処理装置。
  14.  前記コントローラは、前記車両の位置情報に応じて、前記POIに関連付けられた前記分類データを出力する
    ことを特徴とする請求項11に記載の情報処理装置。
  15.  車両に乗車するユーザの行動を記録する情報処理方法であって、
     前記ユーザの前記車両に対する乗車を乗車検出装置によって検出したとき、前記車両の位置情報に基づいて、少なくとも前記ユーザの乗車前の行動に関する質問を含む出力データを出力し、
     前記質問に対する前記ユーザの回答を入力データとして取得し、
     前記入力データを前記車両の位置情報、またはPOIと関連付けて記憶装置に記憶する
    ことを特徴とする情報処理方法。
PCT/IB2020/000065 2020-01-17 2020-01-17 情報処理装置及び情報処理方法 WO2021144600A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080093288.5A CN114981831A (zh) 2020-01-17 2020-01-17 信息处理装置和信息处理方法
EP20913406.3A EP4092608A4 (en) 2020-01-17 2020-01-17 INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US17/758,951 US20230050142A1 (en) 2020-01-17 2020-01-17 Information processing device and information processing method
PCT/IB2020/000065 WO2021144600A1 (ja) 2020-01-17 2020-01-17 情報処理装置及び情報処理方法
JP2021571057A JP7409397B2 (ja) 2020-01-17 2020-01-17 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2020/000065 WO2021144600A1 (ja) 2020-01-17 2020-01-17 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2021144600A1 true WO2021144600A1 (ja) 2021-07-22

Family

ID=76863672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2020/000065 WO2021144600A1 (ja) 2020-01-17 2020-01-17 情報処理装置及び情報処理方法

Country Status (5)

Country Link
US (1) US20230050142A1 (ja)
EP (1) EP4092608A4 (ja)
JP (1) JP7409397B2 (ja)
CN (1) CN114981831A (ja)
WO (1) WO2021144600A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078515A (ja) * 2008-09-26 2010-04-08 Victor Co Of Japan Ltd ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
JP2012057957A (ja) 2010-09-06 2012-03-22 Alpine Electronics Inc ナビゲーション装置
JP2012198216A (ja) * 2012-04-16 2012-10-18 Jvc Kenwood Corp ナビゲーション装置、表示制御装置、表示制御方法、および表示制御プログラム
JP2015092395A (ja) * 2015-01-07 2015-05-14 株式会社東芝 質問予測装置、質問予測方法および質問予測プログラム
JP2018077669A (ja) * 2016-11-09 2018-05-17 株式会社Nttドコモ 訪問先推定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9696175B2 (en) * 2015-10-16 2017-07-04 GM Global Technology Operations LLC Centrally managed waypoints established, communicated and presented via vehicle telematics/infotainment infrastructure

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078515A (ja) * 2008-09-26 2010-04-08 Victor Co Of Japan Ltd ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
JP2012057957A (ja) 2010-09-06 2012-03-22 Alpine Electronics Inc ナビゲーション装置
JP2012198216A (ja) * 2012-04-16 2012-10-18 Jvc Kenwood Corp ナビゲーション装置、表示制御装置、表示制御方法、および表示制御プログラム
JP2015092395A (ja) * 2015-01-07 2015-05-14 株式会社東芝 質問予測装置、質問予測方法および質問予測プログラム
JP2018077669A (ja) * 2016-11-09 2018-05-17 株式会社Nttドコモ 訪問先推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4092608A4

Also Published As

Publication number Publication date
JP7409397B2 (ja) 2024-01-09
US20230050142A1 (en) 2023-02-16
CN114981831A (zh) 2022-08-30
EP4092608A4 (en) 2023-01-18
JPWO2021144600A1 (ja) 2021-07-22
EP4092608A1 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
US9037527B2 (en) Determining a dynamic user profile indicative of a user behavior context with a mobile device
JP5944770B2 (ja) 行先提案システム、行先提案方法、およびプログラム
CN108474665A (zh) 自动驾驶车辆服务
US20200309548A1 (en) Control apparatus, control method, and non-transitory computer-readable storage medium storing program
CN105659639A (zh) 将外部设备关联到交通工具及所述关联的应用
US20150287121A1 (en) Automatic evaluation system and navigation device
WO2012077234A1 (ja) 車両用情報収集システム
US20200191583A1 (en) Matching method, matching server, matching system, and storage medium
JP2020085462A (ja) 情報処理装置及び情報処理プログラム
JP4256357B2 (ja) カーナビゲーションシステム及びプログラム
WO2021144600A1 (ja) 情報処理装置及び情報処理方法
JP6619316B2 (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
JP2003281652A (ja) 緊急通報装置
JP6884605B2 (ja) 判定装置
JP6810723B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6687648B2 (ja) 推定装置、推定方法及び推定プログラム
CN110941253A (zh) 驾驶评价装置、驾驶评价系统、驾驶评价方法及存储介质
JP5612925B2 (ja) 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法
KR102237907B1 (ko) 사용자 이동 경로에 기반한 이동 수단 식별 방법 및 시스템
US10338886B2 (en) Information output system and information output method
JP7351836B2 (ja) 情報収集装置、及び制御方法
JP4557118B2 (ja) 走行記録通信装置、ホストコンピュータおよびプログラム
JP2018146451A (ja) 施設情報配信サーバ及び施設情報配信方法
JP7371692B2 (ja) 車両用情報処理装置及び方法
WO2023145088A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20913406

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021571057

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020913406

Country of ref document: EP

Effective date: 20220817