WO2017183220A1 - 情報提供システム、情報提供装置および情報提供方法 - Google Patents

情報提供システム、情報提供装置および情報提供方法 Download PDF

Info

Publication number
WO2017183220A1
WO2017183220A1 PCT/JP2016/081278 JP2016081278W WO2017183220A1 WO 2017183220 A1 WO2017183220 A1 WO 2017183220A1 JP 2016081278 W JP2016081278 W JP 2016081278W WO 2017183220 A1 WO2017183220 A1 WO 2017183220A1
Authority
WO
WIPO (PCT)
Prior art keywords
destination
user
information
unit
action history
Prior art date
Application number
PCT/JP2016/081278
Other languages
English (en)
French (fr)
Inventor
貴士 松本
明宏 近藤
康之 玉井
靖 永井
恵 土山
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to CN201680084716.1A priority Critical patent/CN109074361A/zh
Priority to EP16899491.1A priority patent/EP3447658A4/en
Priority to US16/093,765 priority patent/US20200327179A1/en
Publication of WO2017183220A1 publication Critical patent/WO2017183220A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results

Definitions

  • the present invention relates to an information providing system, an information providing apparatus, and an information providing method.
  • the present invention claims the priority of Japanese Patent Application No. 2016-84996 filed on April 21, 2016, and for the designated countries where weaving by reference of documents is permitted, the contents described in the application are as follows: Is incorporated into this application by reference.
  • “In car navigation 1, 11 is a position information detecting means for detecting information related to the current position of the user's car using GPS or the like
  • 12 is a map database for storing map information.
  • Reference numeral 13 refers to the current position detected by the position information detecting means 11 and the map database 12 to determine whether or not the detected current position is a place to be stored (whether it is a node to be described later).
  • 14 is a date and time detection unit for detecting the current date and time
  • 15 is a current position and date and time detection unit 14 when the storage position determination unit 13 determines that the current position is a place to be stored. Is a movement information history accumulating unit that stores the current date and time detected by the above in a time series.
  • 16 is a movement pattern detection means for detecting a time-series movement pattern from the history of position and date information (movement information) stored in the movement information history storage means
  • 17 is a
  • the behavior prediction means predicts the destination of the user's car from the movement pattern detected by the movement pattern detection means 16.
  • Reference numeral 18 denotes information on the user's destination predicted by the behavior prediction means 17.
  • Information acquisition means that is acquired from the server 2002 via the network 3, and 19 is an information provision for displaying information acquired by the information acquisition means 18 and map information stored in the map database 12 on a liquid crystal display, for example. Means.
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide an information providing system capable of creating history information for performing destination estimation with higher accuracy.
  • an information providing system outputs a speech sentence for listening to a destination from a user, acquires a user's response voice indicating the destination, and a user responds.
  • An information providing device including an action history creation unit that makes a search request for the destination and creates action history information including the destination specified based on the search result, and the information to a search engine that performs information search
  • a server including a destination specifying unit that performs the search request acquired from the providing device and transmits the search result to the information providing device.
  • the information providing system can create history information for performing destination estimation with higher accuracy. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an information providing system according to the first embodiment.
  • the information providing system includes an in-vehicle terminal 100 that functions as an information providing apparatus, a communication terminal C, a server 200, and a search engine 300.
  • the in-vehicle terminal 100, the communication terminal C, the server 200, and the search engine 300 are connected to each other via a predetermined communication network N such as a telephone network or the Internet network.
  • the in-vehicle terminal 100 is realized by an in-vehicle navigation device having a so-called navigation function such as a recommended route search, route guidance, map information, and traffic information display.
  • the in-vehicle terminal 100 is not limited to the in-vehicle navigation device, and may be, for example, a mobile terminal such as a smartphone or a tablet terminal in which application software for realizing a navigation function is installed.
  • the in-vehicle terminal 100 creates action history information including predetermined item information such as a specific destination (facility etc.) that is a destination of the user and a moving route of the vehicle. Moreover, the vehicle-mounted terminal 100 estimates the destination where the user is heading using the past action history information. Further, the in-vehicle terminal 100 makes a search request for the estimated destination (hereinafter referred to as “estimated destination”) and a request for obtaining POI (Point Of Interest) information about the destination previously input by the user to the server 200. The in-vehicle terminal 100 displays the acquired POI information on the display device. Moreover, the vehicle-mounted terminal 100 outputs the utterance sentence for hearing a destination from a user by a voice recognition function, and acquires a response voice from the user.
  • predetermined item information such as a specific destination (facility etc.) that is a destination of the user and a moving route of the vehicle.
  • the vehicle-mounted terminal 100 estimates the destination where the user is heading using the
  • the communication terminal C is a device that is mounted on a vehicle and provides a communication function to the in-vehicle terminal 100.
  • the communication terminal C is connected to the in-vehicle terminal 100 so as to be able to communicate with each other via, for example, USB (Universal Serial Bus) or Bluetooth (registered trademark), and transmits the information acquired from the in-vehicle terminal 100 to the server 200 and is acquired from the server 200.
  • the transmitted information is transmitted to the in-vehicle terminal 100.
  • the communication terminal C may be built in the in-vehicle terminal 100 in advance as a communication device for the in-vehicle terminal 100.
  • the server 200 is a device that provides various services to the in-vehicle terminal 100. Specifically, the server 200 acquires action history information from the in-vehicle terminal 100 of each vehicle, and manages (stores) it in association with the in-vehicle terminal 100 of the transmission source. Further, the server 200 extracts action history information in response to a request from the in-vehicle terminal 100 and transmits it to the corresponding in-vehicle terminal 100. Further, the server 200 makes a POI information acquisition request to the search engine 300 in response to a request from the in-vehicle terminal 100. Further, the server 200 sends a destination search request to the search engine 300 in response to a request from the in-vehicle terminal 100.
  • the search engine 300 is a system for performing information search. Specifically, when receiving the POI information acquisition request, the search engine 300 searches for POI information having a high degree of association with the estimated destination and transmits it to the in-vehicle terminal 100 via the server 200. In addition, when receiving a destination search request, the search engine 300 searches for information specifying the destination and POI information, and transmits the search result to the in-vehicle terminal 100 via the server 200.
  • the search engine 300 may search a database in the server 200 that stores predetermined information such as POI information, map information, and facility information, or may search information published on a web such as the Internet. . Further, the search engine 300 may be provided as a part of the functions of the server 200.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of the in-vehicle terminal 100.
  • the in-vehicle terminal 100 includes an arithmetic processing device 101, a display device 102, an operation device 103, an auxiliary storage device 104, a positioning sensor 105, a camera 106, an optical disk drive 107, a memory card IF (Interface) 108, A microphone 109, a speaker 110, an inter-device communication device 111, a communication device 112, and an in-vehicle network IF 113 are provided.
  • arithmetic processing device 101 includes an arithmetic processing device 101, a display device 102, an operation device 103, an auxiliary storage device 104, a positioning sensor 105, a camera 106, an optical disk drive 107, a memory card IF (Interface) 108, A microphone 109, a speaker 110, an inter-device communication device 111, a communication device 112, and an in-vehicle
  • the arithmetic processing unit 101 is a central unit that executes various processes of the in-vehicle terminal 100. Specifically, the arithmetic processing unit 101 performs various processes such as creating action history information, estimating a destination, and specifying a destination in addition to a process for realizing a predetermined navigation function. Details of these processes will be described later.
  • the arithmetic processing unit 101 includes a CPU (Central Processing Unit) 114, a ROM (Read Only Memory) 115, and a RAM (Random Access Memory) 116.
  • the CPU 114 is a microprocessor that executes various processes such as numerical calculation and controlling each device.
  • the RAM 115 is a readable / writable memory for storing calculation results and programs.
  • the ROM 116 is a read-only memory that stores various programs used by the in-vehicle terminal 100.
  • the display device 102 is a unit that displays graphics information.
  • the display device 102 includes, for example, a liquid crystal display or an organic EL display.
  • the operation device 103 is a device that receives an instruction input from a user.
  • the operation device 103 is a keyboard, a mouse, a touch panel, a dial switch, and other hard switches.
  • the auxiliary storage device 104 is a large-capacity storage that stores programs for realizing various functions of the in-vehicle terminal 100 such as car navigation, destination specification or voice recognition, and map information and setting files used for these programs. Device.
  • the auxiliary storage device 104 is configured by a nonvolatile storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory. Each information stored in the auxiliary storage device 104 is appropriately updated with the latest information acquired from the server 200.
  • the positioning sensor 105 is a device for detecting the position of the vehicle on which the in-vehicle terminal 100 is mounted, and includes, for example, a vehicle speed sensor, a gyro sensor, a GPS (Global Positioning System) receiving device, and the like.
  • the camera 106 is an optical device that captures an external environment of the vehicle and captures it as image information.
  • an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor is used.
  • CCD charge-coupled device
  • CMOS complementary metal oxide semiconductor
  • the optical disk drive 107 is an apparatus for reading an optical disk such as a CD (Compact Disk: registered trademark), a DVD (Digital Versatile Disk: registered trademark), and a Blu-ray Disk (registered trademark), and reading out music information and video information. .
  • a CD Compact Disk: registered trademark
  • DVD Digital Versatile Disk: registered trademark
  • Blu-ray Disk registered trademark
  • the memory card IF 108 is an interface for reading and writing a memory card such as an SD memory card (registered trademark).
  • the microphone 109 is a device that collects an external sound of the in-vehicle device such as a voice uttered by the user in the vehicle.
  • the speaker 110 is a device that outputs the audio information generated by the arithmetic processing device 101 as an audio signal.
  • the inter-device communication device 111 is an interface device that is connected to the communication terminal C and performs information communication with an external device (in this embodiment, the server 200 or the like).
  • the communication device 112 is an in-vehicle communication unit such as a TCU (Telematics Control Unit), and is a device that performs information communication with the server 200 using the communication network N.
  • TCU Transmission Control Unit
  • the in-vehicle network IF 113 is an interface device that is connected to the in-vehicle network and captures information indicating the running state and internal state of the vehicle.
  • the in-vehicle terminal 100 is also connected to a vehicle signal line, and can also capture information indicating the running state and internal state of the vehicle that is input and output via the signal line.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the server 200.
  • the server 200 includes an arithmetic processing device 201, an auxiliary storage device 202, and a communication device 203.
  • the arithmetic processing unit 201 is a central unit that executes various processes of the server 200. Specifically, the arithmetic processing unit 201 includes a CPU 204, a RAM 205, and a ROM 206, and performs predetermined processing such as management of action history information and a search request to the search engine 300.
  • the communication device 203 is a device that performs information communication with external devices (in the present embodiment, the in-vehicle terminal 100, the communication terminal C, and the search engine 300).
  • the hardware configuration of the server 200 has been described above.
  • FIG. 4 is a functional block diagram illustrating an example of a functional configuration of the in-vehicle terminal 100.
  • the in-vehicle terminal 100 includes an information providing unit 150, a storage unit 160, and a communication unit 170.
  • the information providing unit 150 includes a position specifying unit 151, a navigation unit 152, an action history creating unit 153, an action estimating unit 154, and a voice recognition unit 155.
  • the position specifying unit 151 is a functional unit that specifies the vehicle position. For example, the position specifying unit 151 uses the vehicle position calculated by the positioning sensor 105, the map information stored in the storage unit 160, and the vehicle state information acquired via the in-vehicle network and the vehicle signal line, The current position of the vehicle and the vehicle direction on the map are specified periodically (for example, every second).
  • the navigation unit 152 is a functional unit that performs predetermined processing related to the navigation function. For example, the navigation unit 152 displays a car mark indicating the current position of the vehicle on the map on the display device 102. In addition, the navigation unit 152 searches for a recommended route that connects the departure point and the destination that have received input from the user. In addition, the navigation unit 152 normally uses a vehicle position, map information, and vehicle state information acquired via an in-vehicle network or a vehicle signal line, such as vehicle route guidance and display of map information and traffic information. The processing to realize the navigation function is performed.
  • the action history creation unit 153 is a function unit that creates action history information. Specifically, the action history creation unit 153 acquires the user ID of the user who is using the in-vehicle terminal 100 or the terminal ID of the in-vehicle terminal 100 from the user ID storage unit or the terminal ID storage unit in the storage unit 160. In addition, the action history creation unit 153 acquires, from the position specifying unit 151, point coordinates that indicate the travel locus of the travel route of the vehicle. In addition, the action history creation unit 153 acquires the coordinates and name of the departure point and the departure date and time from the navigation unit 152. Moreover, the action history creation unit 153 acquires vehicle state information related to a gear position and the like via a vehicle-mounted network and a vehicle signal line for vehicle parking determination.
  • the action history creation unit 153 acquires a destination search result (destination name, point coordinates, etc.) based on the user's response voice from the server 200, and identifies the user's destination based on the search result.
  • the action history creating unit 153 creates action history information including the information and the destination specified from the search result based on the user's response voice.
  • the action history creation unit 153 transmits the generated action history information to the server 200 via the communication unit 170.
  • the behavior estimation unit 154 is a functional unit that estimates user behavior. Specifically, the behavior estimation unit 154 includes past behavior history information acquired from the server 200, point coordinates on the moving route of the vehicle acquired from the position specifying unit 151, departure point and arrival acquired from the navigation unit 152. The destination where the user is heading is estimated using the point coordinates and date and time of the point and the map information acquired from the map DB.
  • the destination estimation method using the action history information is not particularly limited.
  • Miyashita et al. “Map matching method for destination prediction type car navigation system”, Information Processing Society of Japan paper. Magazine Vol.50No.1 75-86 (Jan2009)) may be used.
  • the behavior estimation unit 154 compares the travel route from the departure point with the past travel history, estimates the arrival point having a high degree of coincidence as the destination toward which the user is heading, and the point where the user has arrived in the past Expressed as the probability of arrival at This probability is calculated in consideration of the number of times of traveling in the past on the currently traveling road, the number of times of arrival at each point that has arrived through this road, and the like.
  • This calculation method employs an arithmetic expression that increases the probability of arrival from the current location to a frequently visited location. Using such an algorithm, the behavior estimation unit 154 obtains a point having a high probability of reaching from the current point as an estimation destination.
  • the behavior estimation unit 154 provides the user with the POI information of the obtained estimated destination. Specifically, the behavior estimation unit 154 transmits a POI information acquisition request for the estimated destination to the server 200 via the communication unit 170. In addition, when acquiring the POI information of the estimated destination, the behavior estimation unit 154 outputs the POI information to the navigation unit 152 and instructs the display thereof.
  • the voice recognition unit 155 is a functional unit that performs processing for realizing a voice recognition function. Specifically, the voice recognizing unit 155 synthesizes an utterance sentence for asking the user about the destination, and outputs it from the speaker 110. In addition, the voice recognition unit 155 converts the response voice of the user input from the microphone 109 into character information, and recognizes the content of the user's utterance.
  • the storage unit 160 includes a user ID storage unit 161, a terminal ID storage unit 162, an action history storage unit 163, and a map DB 164.
  • the user ID storage unit 161 stores user ID information in which a user ID and a password used for user authentication of the server 200 are stored.
  • the terminal ID storage unit 162 stores terminal ID information in which a terminal ID and a password used for terminal authentication of the server 200 are stored.
  • the action history information acquired from the server 200 is stored in the action history storage unit 163. Details of the action history information will be described later.
  • the map DB 164 stores map information including information (link information) related to links constituting roads on the map.
  • the communication unit 170 is a functional unit that performs information communication with an external device (in this embodiment, the server 200 or the like). For example, the communication unit 170 transmits the behavior history information created by the behavior history creation unit 153 to the server 200 and receives the behavior history information corresponding to each in-vehicle terminal 100 from the server 200.
  • the information providing unit 150 of the in-vehicle terminal 100 is realized by a program that causes the CPU to perform processing. Each of these programs is stored in the ROM 115 or the auxiliary storage device 104, loaded into the RAM 116 for execution of the program, and executed by the CPU 114.
  • the storage unit 160 of the in-vehicle terminal 100 is realized by the ROM 115, the RAM 116, and the auxiliary storage device 104.
  • the communication unit 107 of the in-vehicle terminal 100 is realized by the communication device 112, the inter-device communication device 111, or the communication terminal C.
  • FIG. 5 is a functional block diagram showing an example of the functional configuration of the server 200.
  • the server 200 includes a server side information providing unit 250, an information storage unit 260, and a server side communication unit 270.
  • the server-side information providing unit 250 includes a user authentication unit 251, a terminal authentication unit 252, an action history management unit 253, and a destination specifying unit 254.
  • the user authentication unit 251 is a functional unit that performs user authentication. Specifically, the user authentication unit 251 authenticates the user ID and password included in the user ID information acquired from the in-vehicle terminal 100, using the user information stored in the information storage unit 260.
  • the terminal authentication unit 252 is a functional unit that performs terminal authentication. Specifically, the terminal authentication unit 252 authenticates the terminal ID and password included in the terminal ID information acquired from the in-vehicle terminal 100 using the terminal information stored in the information storage unit 260.
  • the behavior history management unit 253 is a functional unit that manages behavior history information. Specifically, the action history management unit 253 stores the action history information acquired from the in-vehicle terminal 100 in the information storage unit 260 in association with the in-vehicle terminal ID for each user.
  • the destination specifying unit 254 is a functional unit that makes a POI information acquisition request to the search engine 300. Further, the destination specifying unit 254 makes a destination search request to the search engine 300.
  • the information storage unit 260 includes a user information storage unit 261, a terminal information storage unit 262, and an action history storage unit 263.
  • FIG. 6 is a diagram illustrating an example of user information 400 stored in the user information storage unit 261.
  • the user information 400 includes information regarding a user who uses the in-vehicle terminal 100 of each vehicle. Specifically, the user information 400 includes a record in which a user ID 401, a gender 402, a date of birth 403, an operation history 404, and a password 405 are associated.
  • User ID 401 is information for uniquely identifying a user who is a user of in-vehicle terminal 100.
  • the gender 402 is information indicating the gender of the user.
  • the date of birth 403 is information indicating the date of birth of the user.
  • the driving history 404 is information indicating the driving history of the user.
  • the password 405 is password information used for user authentication. Note that the gender, date of birth, and driving history may be used, for example, as information for identifying the user, for user classification and behavior history trend analysis for each classification.
  • FIG. 7 is a diagram showing an example of the terminal information 500 stored in the terminal information storage unit 262.
  • the terminal information 500 includes information related to the in-vehicle terminal 100 mounted on each vehicle. Specifically, the terminal information 500 has a record in which a terminal ID 501, a model code 502, a model name 503, a purchase date 504, and a password 505 are associated with each other.
  • the terminal ID 501 is information that uniquely identifies the in-vehicle terminal 100.
  • the model code 502 is code information that identifies the model of the in-vehicle terminal 100.
  • the model name 503 is information indicating the model of the in-vehicle terminal 100.
  • the purchase date 504 is information indicating the purchase date of the in-vehicle terminal 100 or the date of installation in the vehicle.
  • the password 505 is password information used for terminal authentication.
  • FIG. 8 is a diagram showing an example of the action history information 600 stored in the action history storage unit 263.
  • the action history information 600 includes information related to an action history such as a user's destination and a movement route indicating a movement locus of the vehicle.
  • the action history information 600 includes an ID 601, a departure point name 602, a departure point coordinate 603, a departure date and time 604, a destination name 605, a destination coordinate 606, an arrival date and time 607, and a travel route.
  • 608 has a record associated with 608.
  • ID 601 is information for uniquely identifying the user who is the user of the in-vehicle terminal 100 or the in-vehicle terminal. Specifically, identification information common to the user ID 401 of the user information 400 or the terminal ID 501 of the terminal information 500 is registered in the action history information 600. In the ID 601, identification information common to the user ID 401 may be registered, or identification information common to the terminal ID 501 may be registered.
  • the departure point name 602 is information indicating the name of the departure point (for example, the name of a facility).
  • the departure point coordinate 603 is information indicating the point coordinates of the departure point on the map.
  • the departure date and time 604 is information indicating the date and time when the departure point is departed.
  • the destination name 605 is information indicating the name of the destination (for example, the name of a facility) identified from the search result based on the user's response voice.
  • the destination coordinate 606 is information indicating the point coordinates of the destination.
  • the arrival date and time 607 is information indicating the date and time when the user arrived at the destination.
  • the movement route 608 is a list of point coordinates indicating vehicle positions on a map that are periodically (for example, every second) calculated by the position specifying unit 151, and is information indicating a travel locus of the vehicle.
  • the server-side communication unit 270 is a functional unit that performs information communication with external devices (in this embodiment, the in-vehicle terminal 100, the communication terminal C, the search engine 300, and the like). For example, the server side communication unit 270 acquires the action history information 600 from the in-vehicle terminal 100. Further, the server side communication unit 270 acquires POI information and a search result of the destination from the search engine 300 and transmits this to the in-vehicle terminal 100.
  • the server-side information providing unit 250 is realized by a program that causes the CPU 204 to perform processing. Each of these programs is stored in the ROM 206 or the auxiliary storage device 202, loaded into the RAM 205 when the program is executed, and executed by the CPU 204.
  • the information storage unit 260 is realized by the ROM 206, the RAM 205, and the auxiliary storage device 202.
  • the server side communication unit 270 is realized by the communication device 203.
  • each functional block of the in-vehicle terminal 100 and the server 200 is classified according to main processing contents in order to facilitate understanding of the functions realized in the present embodiment.
  • the name does not limit the present invention.
  • each structure of the vehicle-mounted terminal 100 and the server 200 can also be classified into many more components according to the processing content. Moreover, it can also classify
  • FIG. 9 is a sequence diagram illustrating an example of an action history creation process.
  • the behavior estimation unit 154 of the in-vehicle terminal 100 transmits an acquisition request for the behavior history information 600 to the server 200 together with the user ID information and the password (step S001). ).
  • the user authentication unit 251 of the server 200 performs user authentication (step S002).
  • the action history management unit 253 of the server 200 receives the action history information 600 in which the user ID acquired from the in-vehicle terminal 100 is registered from the action history storage unit 263. The data is extracted and transmitted to the in-vehicle terminal 100 via the server side communication unit 270. (Step S003).
  • the action estimation unit 154 of the in-vehicle terminal 100 stores the action history information 154 in the action history storage unit 163 (step S004), and starts the action estimation process (step S005).
  • the behavior estimating unit 154 includes the point coordinates of the departure point, the departure date and time, the point coordinates indicating the vehicle position acquired from the position specifying unit 151 during traveling, and the behavior history information 600 in the behavior history storage unit 163.
  • the destination to which the user is heading is estimated from the degree of coincidence with the included content.
  • the behavior estimation unit 154 identifies the name and point coordinates of the estimated destination from the behavior history information 600, and transmits a POI information acquisition request regarding the estimated destination to the server 200 together with the information (step S006).
  • the destination specifying unit 254 of the server 200 When the destination specifying unit 254 of the server 200 receives an estimated destination name, point coordinates, and POI information acquisition request from the in-vehicle terminal 100, it makes a POI information acquisition request to the search engine 300 (step S007). Further, when the POI information of the estimated destination is acquired by the search engine 300, the destination specifying unit 254 of the server 200 transmits this to the in-vehicle terminal 100 via the server side communication unit 270.
  • the behavior estimation unit 154 of the in-vehicle terminal 100 acquires the POI information
  • the behavior estimation unit 154 outputs a POI information display instruction to the navigation unit 152 (step S008).
  • the in-vehicle terminal 100 estimates the destination from the past action history, and the POI information regarding the estimated destination is provided to the user.
  • the behavior estimation unit 154 may inquire of the navigation unit 152 whether or not an input of a destination has been received from the user before estimating the destination.
  • the behavior estimation unit 154 may transmit a request for acquiring POI information of the destination to the server 200.
  • the action history creation unit 153 of the in-vehicle terminal 100 records predetermined information such as the coordinates of the departure point and the departure date and time (step S009).
  • the action history creation unit 153 records, as the travel locus of the travel route, the point coordinates indicating the vehicle position that are periodically calculated while the vehicle is traveling (step S010).
  • the action history creation unit 153 determines whether or not the vehicle is parked at a predetermined timing (for example, every second) (step S011). For example, the action history creation unit 153 may park the vehicle depending on whether a predetermined position is satisfied, such as whether the gear position has changed to parking (P) through the rear (R), or whether the side brake is applied. Determine. If it is determined that the vehicle is not parked (No in step S011), the action history creation unit 153 returns the process to step S010. On the other hand, when it determines with the vehicle having parked (it is Yes at step S011), the action history creation part 153 performs a destination specific process (step S012).
  • a predetermined timing for example, every second
  • the action history creation unit 153 may park the vehicle depending on whether a predetermined position is satisfied, such as whether the gear position has changed to parking (P) through the rear (R), or whether the side brake is applied. Determine. If it is determined that the vehicle is not parked (No in step S011), the action history
  • FIG. 10 is a sequence diagram showing an example of the destination specifying process.
  • the action history creating unit 153 determines whether or not the destination has been set (step S021). Specifically, the action history creation unit 153 inquires of the navigation unit 152 whether or not an input of a destination has been received from the user. When the navigation unit 152 accepts the input of the destination (Yes in step S021), the action history creation unit 153 ends the destination specifying process, and the process proceeds to step S013 in FIG.
  • step S021 when the navigation unit 152 does not accept the input of the destination (No in step S021), the action history creation unit 153 proceeds to step S022.
  • step S022 the voice recognition unit 155 asks the user about the destination. Specifically, the voice recognition unit 155 synthesizes a speech sentence such as “Where are you going?” And outputs it from the speaker 110 (step S023). Note that the utterance sentence is not particularly limited, and any utterance sentence may be used as long as it asks the user about the destination.
  • the voice recognition unit 155 acquires response voice from the user via the microphone 109 (step S024). For example, the voice recognition unit 155 acquires the user's response voice such as “** sushi”, converts it into character string information (character information) (step S025), and recognizes the user's utterance content. Further, the voice recognition unit 155 outputs the result of the voice recognition to the action history creation unit 153.
  • the action history creation unit 153 transmits a destination search request and a POI information acquisition request to the server 200 (step S026). Specifically, the action history creation unit 153 transmits a destination search request and a POI information acquisition request to the server 200 together with the destination coordinates indicated by the voice recognition result and the point coordinates of the arrival point (parking point).
  • the search engine 300 receives them. A destination search request and a POI information acquisition request are made (step S027).
  • the destination specifying unit 254 acquires the destination search result and POI information from the search engine 300, the destination specifying unit 254 transmits them to the in-vehicle terminal 100 via the server side communication unit 270 (step S028).
  • the search engine 300 searches for the destination using these. Specifically, the search engine 300 performs a search using the destination based on the user's response voice and the coordinates of the arrival point, and, for example, obtains a detailed search result for a destination such as “** Sushi Omiya store”. obtain. In addition, the search engine 300 acquires POI information (for example, store opening hours, average budget, recommended items, reputation, etc.) relating to “** Sushi Omiya store” as a search result.
  • POI information for example, store opening hours, average budget, recommended items, reputation, etc.
  • the behavior history creation unit 153 instructs the navigation unit 152 to display the POI information (step S029).
  • the action history creating unit 153 instructs the voice recognition unit 155 to synthesize and output the destination name of the search result (step S030).
  • the voice recognition unit 155 When the voice recognition unit 155 receives an instruction from the action history creation unit 153, the voice recognition unit 155 performs voice synthesis on the destination search result and outputs the result from the speaker 110 (step S031). For example, the speech recognizing unit 155 synthesizes an utterance sentence such as “I understand. ** You are going to the Sushi Sushi Omiya store” by speech synthesis, and outputs it from the speaker 110. In addition, when the processing ends, the voice recognition unit 155 ends the destination specifying process, and the process proceeds to step S013 in FIG.
  • step S013 the action history creation unit 153 stores the destination name, the point coordinates, and the arrival date and time that are the search results.
  • the action history creation unit 153 creates action history information 600 including a user ID, departure point and destination names and point coordinates, departure date and time, arrival date and time, and point coordinates indicating a travel route (step S014). ).
  • the action history creating unit 153 transmits the action history information 600 together with the user ID information and the password to the server 200 (Step S015).
  • the user authentication unit 251 of the server 200 performs user authentication using the acquired user ID information and password (step S016).
  • the behavior history management unit 253 stores the acquired behavior history information 600 in the behavior history storage unit 263 (step S017).
  • history information for performing destination estimation with higher accuracy can be created.
  • the in-vehicle terminal 100 creates the action history information 600 including the destination heard from the user and estimates the destination using the action history information 600, the accuracy can be obtained even in a situation where the destination is not set. The destination can be estimated well.
  • the in-vehicle terminal 100 specifies the destination based on the search result by the search engine 300, the correct destination can be specified more reliably.
  • the destination can be specified with high accuracy by passing through the search engine 300 that absorbs ambiguity such as nicknames and abbreviations and enables the search for the destination with higher accuracy.
  • the action history information 600 including the destination specified by such a search result it is possible to perform accurate destination estimation.
  • the destination specified by the in-vehicle terminal 100 is not a place where the vehicle is parked, but a point such as a store or facility where the user actually goes. For example, there are many places where parking lots and stores are very far apart in rural areas and suburbs. Therefore, when history information is created with the arrival point of the vehicle, that is, the parking place as the destination, and the destination is estimated using the history information, the in-vehicle terminal 100 uses the place very far from the target store as the destination. The user will be guided. Moreover, the vehicle-mounted terminal 100 may cause a problem that it guides the user to POI information of a store closer to the parking lot instead of the target store far from the parking lot. On the other hand, in the information providing system according to the present embodiment, the destination is estimated using the history information in which the point where the user is headed is registered as the destination. Appropriate POI information can be provided to the user.
  • FIG. 11 is a sequence diagram showing an example of the destination specifying process according to the second embodiment.
  • the destination specifying process according to the first embodiment described above an utterance sentence that repeats the destination name of the search result based on the response voice of the user is output (step S031).
  • the destination of the search result is output.
  • the utterance sentence for confirming to the user whether the name of is correct is output.
  • the processing from step S041 to step S049 according to the present embodiment is the same as the processing from step S021 to step S029 of the first embodiment, and a description thereof will be omitted.
  • the action history creation process shown in FIG. 9 is executed.
  • step S049 the action history creation unit 153 instructs the navigation unit 152 to display the search result and POI information, and outputs an utterance sentence for confirming the search result to the user to the voice recognition unit 155.
  • An instruction is given (step S050).
  • the speech recognition unit 155 Upon receiving such an instruction, the speech recognition unit 155 performs speech synthesis and outputs an utterance that confirms to the user whether the destination of the search result is correct (step S051). For example, the speech recognizing unit 155 synthesizes an utterance sentence for confirmation such as “** Are you going to the Sushi Sushi Omiya store?” And outputs it from the speaker 110. Note that the utterance sentence is not particularly limited, and any utterance sentence may be used as long as the content confirms the destination of the search result with the user.
  • the voice recognition unit 155 acquires response voice from the user via the microphone 109 (step S052). For example, “Yes” or “No” or a response voice similar to these is acquired from the user. Further, the voice recognition unit 155 converts this into character string information (character information) (step S053), and recognizes the user's utterance content. In addition, the voice recognition unit 155 outputs the voice recognition result to the action history creation unit 153 (step S054).
  • character information character information
  • the voice recognition unit 155 outputs the voice recognition result to the action history creation unit 153 (step S054).
  • the action history creation unit 153 determines whether or not the voice recognition result is “Yes” or an utterance content similar to this (step S055). If the utterance content is not “Yes” or similar (No in Step S055), the action history creation unit 153 returns the process to Step S042, and again asks the user the destination question.
  • step S055 the action history creation unit 153 ends the destination specifying process, and the process proceeds to step S013 in FIG.
  • the destination specifying process it is possible to prevent the creation of the action history information 600 in which the wrong destination is registered by confirming the destination related to the search result with the user.
  • FIG. 12 is a sequence diagram illustrating an example of the destination specifying process according to the third embodiment.
  • the contents of questions to the user regarding the destination are changed according to the presence / absence of arrival history near the current location and the number of facilities near the current location.
  • the action history creation process shown in FIG. 9 is executed.
  • step S061 the navigation unit 152 determines whether or not the destination has been set. Specifically, the navigation unit 152 determines whether or not an input of a destination is received from the user. If the destination input is accepted (YES in step S061), the action history creation unit 153 ends the destination specifying process, and the process proceeds to step S013 in FIG.
  • the action history creation unit 153 uses the action history information 600 to determine the vicinity of the current location (for example, a predetermined radius from the parked point: It is determined whether there is an arrival history (within a range of 50 m) (step S062). If it is determined that there is no arrival history (No in step S062), the behavior history creation unit 153 determines whether there are two or more POIs such as facilities near the current location (step S063). If it is determined that there are not two or more facilities (No in step S063), the action history creation unit 153 proceeds to step S050 in FIG. That is, since there is no past arrival history but one facility in the vicinity of the current location has been identified, the action history creation unit 153 outputs a speech to confirm the destination related to the identification result to the user. The recognition unit 155 is instructed (step S050).
  • the action history creation unit 153 moves the process to step S022 in FIG. 10 and sends an utterance sentence that asks the user the destination to the voice recognition unit 155.
  • Output for example, “Where are you going?”. This is because there is no past action history near the current location and there are a plurality of facilities near the current location, so one facility cannot be identified.
  • step S062 determines the number of points in the arrival history (for example, the number of points such as facilities and parks). ) Is less than 10 (step S064). If the number of points is not less than 10 (No in step S064), the action history creation unit 153 moves the process to step S022 in FIG. 10 and asks the user the destination via the voice recognition unit 155. This is because although there are past arrival histories, there are ten or more points, and it is difficult to guess the destination to which the user is heading.
  • the number of points is not particularly limited, and an arbitrary number may be set as appropriate.
  • the behavior history creation unit 153 identifies the past arrival point closest to the current location from the behavior history information 600.
  • the voice recognition unit 155 generates an utterance sentence that asks the user whether the arrival point is the current destination by voice synthesis, and outputs it from the speaker 110 (step S065).
  • the voice recognition unit 155 acquires response voice from the user via the microphone 109 (step S066).
  • the voice recognition unit 155 acquires, for example, “Yes” or “No” or a response voice similar to these from the user. Also, the voice recognition unit 155 converts this into character string information (character information) and recognizes the user's utterance content. Further, the voice recognition unit 155 outputs the result of the voice recognition to the action history creation unit 153.
  • the action history creation unit 153 determines whether or not the voice recognition result is “Yes” or an utterance content similar to this (step S067). Then, when it is determined as “Yes” or similar utterance content (Yes in step S067), the action history creation unit 153 ends the destination specifying process. This is because one destination was identified.
  • the action history creation unit 153 identifies the past arrival point having the highest number of arrivals from the current location from the action history information 600. Further, the voice recognition unit 155 generates an utterance sentence that asks the user whether the arrival point is the current destination by voice synthesis, and outputs it from the speaker 110 (step S068).
  • the voice recognition unit 155 acquires a response voice from the user via the microphone 109 (step S069).
  • the voice recognition unit 155 acquires, for example, “Yes” or “No” or a response voice similar to these from the user. Also, the voice recognition unit 155 converts this into character string information (character information) and recognizes the user's utterance content. Further, the voice recognition unit 155 outputs the result of the voice recognition to the action history creation unit 153.
  • the action history creation unit 153 determines whether or not the voice recognition result is “Yes” or utterance content similar to this (Step S070). Then, in the case of “Yes” or similar utterance content (Yes in Step S070), the action history creation unit 153 ends the destination specifying process.
  • step S070 the action history creation unit 153 moves the process to step S022 in FIG. 10 and notifies the user of the destination via the voice recognition unit 155. To ask questions. This is because there is a past arrival history but the destination cannot be specified.
  • the destination specifying process in order to change the contents of the question to the user regarding the destination according to the presence / absence of arrival history near the current location or the number of facilities near the current location.
  • the number of questions can be reduced as much as possible, and the troublesomeness of the user responding to the questions can be reduced.
  • FIG. 13 is a sequence diagram illustrating an example of an action history creation restart process according to the fourth embodiment.
  • the engine of the vehicle may be stopped in the middle of processing such as parking determination (step S011).
  • the action history creation restart process according to the present embodiment is a process executed when the action history creation process ends in the middle of the process and the in-vehicle terminal 100 is subsequently activated.
  • Steps S083 to S091 are the same as the processes in steps S012 to S017 in FIG.
  • the action history creation unit 153 determines whether or not the process (parking determination) in step S011 in FIG. 9 has been completed (step S081). If it is determined that it has not been completed (No in step S081), the action history creation unit 153 determines whether or not a predetermined time (for example, 5 minutes) has elapsed since the previous end (step S087). And when it determines with predetermined time having passed (it is Yes at step S087), the action history creation part 153 transfers a process to step S083, and performs a destination specific process.
  • a predetermined time for example, 5 minutes
  • step S087 when it is determined that the predetermined time has not elapsed (No in step S087), the action history creation unit 153 moves the process to step S010 in FIG. 9 and records the travel route. If the predetermined time has passed since the end of the previous time, the user may have completed some requirements. In that case, the arrival point at the end of the previous time is assumed as the destination and the destination identification process is performed. To do.
  • step S081 determines whether step S012 (destination specifying process) in FIG. 9 has been completed. Is determined (step S082). When it is determined that the destination specifying process is incomplete (No in step S082), the action history creating unit 153 performs the destination specifying process of FIG. 10 (step S083).
  • the voice recognition unit 155 asks the user the question of the utterance sentence “Where have you been?” (Steps S022 and S023 in FIG. 10). ). In this case, it is considered that the user has arrived at the destination at the end of the previous time and has already completed the requirements.
  • step S082 when it is determined that the destination specifying process has been completed (Yes in step S082), the action history creating unit 153 has completed the process in step S013 (recording the destination name, point coordinates, and arrival date and time). It is determined whether or not (step S088). And when it determines with it being incomplete (it is No at step S088), the action history creation part 153 transfers a process to step S084, and records about these items.
  • step S088 when it is determined that the recording of the destination name or the like has been completed (Yes in step S088), the action history creation unit 153 completes steps S014 and S015 (generation and transmission of action history information 600) in FIG. It is determined whether or not it has been completed (step S089). If it is determined that it has not been completed (No in step S089), the behavior history creation unit 153 creates behavior history information 600 (step S085), and transmits it to the server 200 together with the user ID and password via the communication unit 170. (Step S086).
  • the action estimation unit 154 performs the process in step S001 of FIG. 9 (request for acquisition of the action history information 600). ).
  • the action history creation process can be resumed from the process that has not been completed at the end of the previous time.
  • the in-vehicle terminal 100 determines whether or not a predetermined time has elapsed since the end of the previous time, so that the previous action history creation processing has arrived at the destination and ended, or has arrived at the destination. It is possible to determine whether the process has ended. Thereby, it is possible to specify the process to be resumed more accurately.
  • the present invention can combine the action history creating process according to the first embodiment with the destination specifying process according to the second embodiment or the destination specifying process according to the third embodiment. Furthermore, it is also possible to execute the action history creation restart process according to the fourth embodiment before the execution of the action history creation process according to the first embodiment. Moreover, the below-mentioned action history creation process which performs terminal authentication using terminal ID may be combined.
  • FIG. 14 is a flowchart illustrating an example of an action history creation process for performing terminal authentication.
  • the behavior estimating unit 154 of the in-vehicle terminal 100 transmits an acquisition request for the behavior history information 600 to the server 200 together with the terminal ID information and the password (step S101).
  • the terminal authentication unit 252 of the server 200 performs terminal authentication (step S102).
  • the action history management unit 253 of the server 200 receives the action history information 600 in which the terminal ID acquired from the in-vehicle terminal 100 is registered from the action history storage unit 263. The data is extracted and transmitted to the in-vehicle terminal 100 via the server side communication unit 270. (Step S103).
  • step S115 the action history creation unit 153 transmits the action history information 600 together with the terminal ID information and the password to the server 200.
  • the terminal authentication unit 252 of the server 200 performs terminal authentication using the acquired terminal ID information and password (step S116). Further, when the authentication is successful, the behavior history management unit 253 stores the acquired behavior history information 600 in the behavior history storage unit 263 (step S117).
  • behavior history information can be managed in association with the in-vehicle terminal 100, not the user who is using the in-vehicle terminal 100.
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • control lines and information lines indicate what is considered necessary for the description, and not all control lines and information lines on the product are necessarily shown. In practice, it can be considered that almost all the components are connected to each other.
  • DESCRIPTION OF SYMBOLS 100 Information provision apparatus (vehicle-mounted terminal), 200 ... Server, 300 ... Search engine, C ... Communication terminal, N ... Communication network, 150 ... Information provision part, 151 ... Position specifying unit, 152 ... navigation unit, 153 ... action history creation unit, 154 ... action estimation unit, 155 ... voice recognition unit, 160 ... storage unit, 161 ... user ID Storage unit 162 ... Terminal ID storage unit 163 ... Action history storage unit 164 ... Map DB 170 ... Communication unit 250 ... Server side information providing unit 251 ... User Authentication unit, 252 ... Terminal authentication unit, 253 ... Action history management unit, 254 ... Destination specifying unit, 260 ... Information storage unit, 261 ... User information storage unit, 262 ... Terminal information storage unit, 263 ... Storage unit, 270 ... server-side communication section

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

より精度の高い目的地推定を行うための履歴情報を作成できる。 ユーザに目的地を聞くための発話文を出力し、該目的地を示すユーザの応答音声を取得する音声認識部と、ユーザが応答した目的地の検索要求を行い、検索結果に基づいて特定した目的地を含む行動履歴情報を作成する行動履歴作成部とを備えた情報提供装置と、情報検索を行う検索エンジンに対して前記情報提供装置から取得した前記検索要求を行い、検索結果を前記情報提供装置に送信する目的地特定部を備えたサーバと、を有する。

Description

情報提供システム、情報提供装置および情報提供方法
 本発明は、情報提供システム、情報提供装置および情報提供方法に関する。本発明は2016年4月21日に出願された日本国特許の出願番号2016-84996の優先権を主張し、文献の参照による織り込みが認められる指定国については、その出願に記載された内容は参照により本出願に織り込まれる。
 特許文献1の段落[0018]には、「カーナビ1において、11はGPSなどを用いてユーザの車の現在位置に関する情報を検出する位置情報検出手段であり、12は地図情報を記憶する地図データベースである。13は位置情報検出手段11によって検出された現在位置と地図データベース12とを参照して、検出した現在位置が記憶すべき場所であるか否か(後述するノードであるか否か)を判定する記憶位置判定手段、14は現在の日時を検出する日時検出手段、15は記憶位置判定手段13によって現在位置が記憶すべき場所であると判定されたとき、現在位置と日時検出手段14によって検出された現在の日時とを対にして時系列に記憶する移動情報履歴蓄積手段である。」と記載されている。また、同段落には、「16は移動情報履歴蓄積手段に記憶されている位置と日時の情報(移動情報)の履歴から、時系列の移動パターンを検出する移動パターン検出手段であり、17は所定のイベントが発生したとき、移動パターン検出手段16によって検出された移動パターンからユーザの車の行き先を予測する行動予測手段である。18は行動予測手段17によって予測されたユーザの行き先に関する情報をネットワーク3を介してサーバ2002から取得する情報取得手段であり、19はユーザに対して、情報取得手段18によって取得した情報や地図データベース12に格納された地図情報を例えば液晶ディスプレイに表示する情報提供手段である。」と記載されている。
特開2006-215041号公報
 上記特許文献1に記載の情報提供方法では、ユーザによって目的地が明示的に示されない。そのため、目的地が推定できない状況や推定結果の誤り率が高くなる場合がある。しかしながら、上記特許文献1では、目的地の推定ができない状況や推定結果の誤り率が高くなる状況を回避することについて何ら考慮されていない。
 本発明は、上記課題に鑑みてなされたものであり、より精度の高い目的地推定を行うための履歴情報を作成可能な情報提供システムの提供を目的とする。
 上記課題を解決するため、本発明に係る情報提供システムは、ユーザに目的地を聞くための発話文を出力し、該目的地を示すユーザの応答音声を取得する音声認識部と、ユーザが応答した目的地の検索要求を行い、検索結果に基づいて特定した目的地を含む行動履歴情報を作成する行動履歴作成部とを備えた情報提供装置と、情報検索を行う検索エンジンに対して前記情報提供装置から取得した前記検索要求を行い、検索結果を前記情報提供装置に送信する目的地特定部を備えたサーバと、を有する。
 本発明に係る情報提供システムによれば、より精度の高い目的地推定を行うための履歴情報を作成できる。なお、上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
第一実施形態に係る情報提供システムの概略構成の一例を示した図である。 車載端末のハードウェア構成の一例を示した図である。 サーバのハードウェア構成の一例を示した図である。 車載端末の機能構成の一例を示した機能ブロック図である。 サーバの機能構成の一例を示した機能ブロック図である。 ユーザ情報記憶部に格納されているユーザ情報の一例を示した図である。 端末情報記憶部に格納されている端末情報の一例を示した図である。 行動履歴記憶部に格納されている行動履歴情報の一例を示した図である。 行動履歴作成処理の一例を示したシーケンス図である。 目的地特定処理の一例を示したシーケンス図である。 第二実施形態に係る目的地特定処理の一例を示したシーケンス図である。 第三実施形態に係る目的地特定処理の一例を示したシーケンス図である。 第四実施形態に係る行動履歴作成再開処理の一例を示したシーケンス図である。 端末認証を行う行動履歴作成処理の一例を示したフロー図である。
 以下、本発明の各実施形態について図面を用いて説明する。
 <第一実施形態>
図1は、第一実施形態に係る情報提供システムの概略構成の一例を示した図である。情報提供システムは、情報提供装置として機能する車載端末100と、通信端末Cと、サーバ200と、検索エンジン300とを有している。また、これらの車載端末100、通信端末C、サーバ200および検索エンジン300は、電話網やインターネット網など所定の通信ネットワークNにより相互通信可能に接続されている。
 車載端末100は、例えば、推奨経路の探索、経路誘導、地図情報および交通情報の表示など、いわゆるナビゲーション機能を備えた車載のナビゲーション装置によって実現される。なお、車載端末100は、車載のナビゲーション装置に限定されるものではなく、例えば、ナビゲーション機能を実現するためのアプリケーションソフトウェアがインストールされたスマートフォンやタブレット端末などのモバイル端末であっても良い。
 車載端末100は、ユーザの行き先である具体的な目的地(施設など)や車両の移動ルートなど所定の項目情報を含む行動履歴情報を作成する。また、車載端末100は、過去の行動履歴情報を用いてユーザが向かっている目的地を推定する。また、車載端末100は、推定した目的地(以下、「推定目的地」という)の検索要求や予めユーザが入力した目的地に関するPOI(Point Of Interest)情報の取得要求をサーバ200に行う。また、車載端末100は、取得したPOI情報を表示装置に表示する。また、車載端末100は、音声認識機能により、ユーザに目的地を聞くための発話文を出力し、ユーザから応答音声を取得する。
 通信端末Cは、車両に搭載され、車載端末100に通信機能を提供する装置である。通信端末Cは、例えば、USB(Universal Serial Bus)やBluetooth(登録商標)などにより車載端末100と相互通信可能に接続し、車載端末100から取得した情報をサーバ200に送信し、サーバ200から取得した情報を車載端末100に送信する。なお、通信端末Cは、車載端末100の通信装置として予め車載端末100に内蔵されていても良い。
 サーバ200は、車載端末100に対して様々なサービスを提供する装置である。具体的には、サーバ200は、各車両の車載端末100から行動履歴情報を取得し、これを送信元の車載端末100に対応付けて管理(格納)する。また、サーバ200は、車載端末100からの要求に応じて行動履歴情報を抽出し、対応する車載端末100に送信する。また、サーバ200は、車載端末100からの要求に応じて、検索エンジン300にPOI情報の取得要求を行う。また、サーバ200は、車載端末100からの要求に応じて、検索エンジン300に目的地の検索要求を行う。
 検索エンジン300は、情報検索を行うシステムである。具体的には、検索エンジン300は、POI情報の取得要求を受け付けると、推定目的地等と関連度の高いPOI情報を検索し、サーバ200を介して車載端末100に送信する。また、検索エンジン300は、目的地の検索要求を受け付けると、かかる目的地を特定する情報およびPOI情報を検索し、サーバ200を介して検索結果を車載端末100に送信する。
 なお、検索エンジン300は、POI情報や地図情報および施設情報といった所定情報を格納したサーバ200内のデータベースを検索しても良いし、インターネットなどweb上に公開されている情報を検索しても良い。また、検索エンジン300は、サーバ200が有する機能の一部として具備されたものであっても良い。
 図2は、車載端末100のハードウェア構成の一例を示した図である。車載端末100は、演算処理装置101と、表示装置102と、操作装置103と、補助記憶装置104と、測位センサ105と、カメラ106と、光ディスクドライブ107と、メモリカードIF(Interface)108と、マイク109と、スピーカ110と、機器間通信装置111と、通信装置112と、車載ネットワークIF113とを有している。
 演算処理装置101は、車載端末100の様々な処理を実行する中心的なユニットである。具体的には、演算処理装置101は、所定のナビゲーション機能を実現する処理に加えて、行動履歴情報の作成、目的地の推定および目的地の特定など様々な処理を行う。なお、これらの処理の詳細は後述する。
 演算処理装置101は、CPU(Central Processing Unit)114と、ROM(Read Only Memory)115と、RAM(Random Access Memory)116とを備える。CPU114は、数値演算および各デバイスを制御するなど様々な処理を実行するマイクロプロセッサである。RAM115は、演算結果やプログラムなどを格納する読み書き可能なメモリである。ROM116は、車載端末100で利用される様々なプログラムなどを格納する読み出し専用メモリである。
 表示装置102は、グラフィックス情報を表示するユニットである。表示装置102は、例えば、液晶ディスプレイや有機ELディスプレイなどで構成されている。
 操作装置103は、ユーザからの指示入力を受け付ける装置である。具体的には、操作装置103は、キーボード、マウス、タッチパネル、ダイヤルスイッチおよびその他のハードスイッチなどである。
 補助記憶装置104は、カーナビゲーション、目的地の特定あるいは音声認識といった車載端末100が有する各種機能を実現するプログラムと、それらのプログラムに使用される地図情報や設定ファイルなどを記憶した大容量の記憶装置である。補助記憶装置104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)あるいはフラッシュメモリなどの不揮発性記憶装置で構成される。なお、補助記憶装置104に格納されている各情報は、サーバ200から取得する最新の情報によって適宜更新される。
 測位センサ105は、車載端末100が搭載された車両の位置を検出するための装置であって、例えば、車速センサ、ジャイロセンサおよびGPS(Global Positioning System)受信装置などから構成される。
 カメラ106は、車両の外部環境を撮影し、画像情報として取り込む光学装置であり、例えば、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子が用いられる。
 光ディスクドライブ107は、CD(Compact Disk:登録商標)、DVD(Digital Versatile Disk:登録商標)およびBlu-ray Disk(登録商標)などの光ディスクを読み込み、音楽情報や映像情報を読み出すための装置である。
 メモリカードIF108は、SDメモリカード(登録商標)などのメモリカードの読み書きを行うためのインターフェースである。
 マイク109は、車内でユーザが発した声など車載装置の外部音声を収集する装置である。
 スピーカ110は、演算処理装置101で生成した音声情報を音声信号として出力する装置である。
 機器間通信装置111は、通信端末Cと接続して外部装置(本実施形態では、サーバ200など)との間で情報通信を行うためのインターフェース装置である。
 通信装置112は、TCU(Telematics Control Unit)といった車載通信ユニットであり、通信ネットワークNを利用してサーバ200との間で情報通信を行う装置である。
 車載ネットワークIF113は、車載ネットワークと接続し、車両の走行状態や内部状態を示す情報を取り込むためのインターフェース装置である。なお、車載端末100は、車両信号線とも接続されており、かかる信号線を介して入出力する車両の走行状態や内部状態を示す情報を取り込むこともできる。
 以上、車載端末100のハードウェア構成について説明した。
 図3は、サーバ200のハードウェア構成の一例を示した図である。サーバ200は、演算処理装置201と、補助記憶装置202と、通信装置203とを有している。
 演算処理装置201は、サーバ200の様々な処理を実行する中心的なユニットである。具体的には、演算処理装置201は、CPU204と、RAM205と、ROM206とを備えており、行動履歴情報の管理や検索エンジン300に対する検索要求など所定の処理を行う。
 通信装置203は、外部装置(本実施形態では、車載端末100、通信端末Cおよび検索エンジン300)との間で情報通信を行う装置である。
 以上、サーバ200のハードウェア構成について説明した。
 次に、車載端末100の機能構成について説明する。図4は、車載端末100の機能構成の一例を示した機能ブロック図である。車載端末100は、情報提供部150と、記憶部160と、通信部170とを有している。また、情報提供部150は、位置特定部151と、ナビゲーション部152と、行動履歴作成部153と、行動推定部154と、音声認識部155とを有している。
 位置特定部151は、車両位置を特定する機能部である。例えば、位置特定部151は、測位センサ105が算出した車両位置と、記憶部160に格納されている地図情報と、車載ネットワークおよび車両信号線を介して取得した車両の状態情報とを用いて、地図上における車両の現在位置や車両方位などを定期的(例えば、1秒ごと)に特定する。
 ナビゲーション部152は、ナビゲーション機能に関する所定の処理を行う機能部である。例えば、ナビゲーション部152は、地図上に車両の現在位置を示すカーマークを重ねて表示装置102に表示する。また、ナビゲーション部152は、ユーザから入力を受け付けた出発地および目的地を結ぶ推奨経路を探索する。また、ナビゲーション部152は、車両位置と、地図情報と、車載ネットワークあるいは車両信号線を介して取得した車両の状態情報とを用いて、車両の経路誘導や地図情報および交通情報の表示など、通常のナビゲーション機能を実現するための処理を行う。
 行動履歴作成部153は、行動履歴情報を作成する機能部である。具体的には、行動履歴作成部153は、車載端末100の使用であるユーザのユーザIDまたは車載端末100の端末IDを、記憶部160内のユーザID記憶部または端末ID記憶部から取得する。また、行動履歴作成部153は、車両の移動ルートの走行軌跡を示す地点座標を位置特定部151から取得する。また、行動履歴作成部153は、出発地点の地点座標や名称ならびに出発日時をナビゲーション部152から取得する。また、行動履歴作成部153は、車両の駐車判定のためにギアポジションなどに関する車両の状態情報を車載ネットワークや車両信号線を介して取得する。
 また、行動履歴作成部153は、ユーザの応答音声に基づく目的地の検索結果(目的地の名称、地点座標など)をサーバ200から取得し、検索結果に基づいてユーザの目的地を特定する。また、行動履歴作成部153は、これらの情報およびユーザの応答音声に基づく検索結果から特定した目的地とを含む行動履歴情報を作成する。また、行動履歴作成部153は、通信部170を介して、生成した行動履歴情報をサーバ200に送信する。
 行動推定部154は、ユーザの行動を推定する機能部である。具体的には、行動推定部154は、サーバ200から取得した過去の行動履歴情報と、位置特定部151から取得した車両の移動ルート上の地点座標と、ナビゲーション部152から取得した出発地点ならびに到着地点の地点座標および日時と、地図DBから取得した地図情報とを用いて、ユーザの向かっている目的地を推定する。
 なお、行動履歴情報を用いた目的地の推定方法は特に限定されるものではなく、公知技術(例えば、宮下他、「目的地予測型カーナビゲーションシステムのためのマップマッチング手法」、情報処理学会論文誌 Vol.50No.1 75-86(Jan2009))が用いられれば良い。
 例えば、行動推定部154は、出発地点からの移動ルートと過去の走行履歴とを比較し、一致度が高い到着地点をユーザが向かっている目的地として推定し、過去に到着したことのある地点への到着確率として表現する。この確率は、現在走行中の道路を過去に走行した回数と、この道路を通過して到着した地点各々への到着回数などを考慮して算出される。この算出方法では、現在地点から頻繁に行く地点への到着確率が高くなるような演算式が採用される。行動推定部154は、このようなアルゴリズムを用いて、現在地点から到達する確率が高い地点を推定の目的地として求める。
 また、行動推定部154は、求めた推定目的地のPOI情報をユーザに提供する。具体的には、行動推定部154は、通信部170を介して、推定目的地のPOI情報の取得要求をサーバ200に送信する。また、行動推定部154は、推定目的地のPOI情報を取得すると、ナビゲーション部152にPOI情報を出力し、その表示を指示する。
 音声認識部155は、音声認識機能を実現するための処理を行う機能部である。具体的には、音声認識部155は、ユーザに目的地を質問するための発話文を音声合成してスピーカ110から出力する。また、音声認識部155は、マイク109から入力されたユーザの応答音声を文字情報に変換し、ユーザの発話内容を認識する。
 記憶部160は、ユーザID記憶部161と、端末ID記憶部162と、行動履歴記憶部163と、地図DB164とを有している。ユーザID記憶部161には、サーバ200のユーザ認証に用いられるユーザIDおよびパスワードが記憶されたユーザID情報が格納されている。端末ID記憶部162には、サーバ200の端末認証に用いられる端末IDおよびパスワードが記憶された端末ID情報が格納されている。
 行動履歴記憶部163には、サーバ200から取得した行動履歴情報が格納されている。行動履歴情報の詳細については後述する。
 地図DB164には、地図上の道路を構成するリンクに関する情報(リンク情報)を含む地図情報が格納されている。
 通信部170は、外部装置(本実施形態では、サーバ200など)との間で情報通信を行う機能部である。通信部170は、例えば、行動履歴作成部153で作成された行動履歴情報をサーバ200に送信し、各車載端末100に対応する行動履歴情報をサーバ200から受信する。
 以上、車載端末100の機能構成について説明した。
 なお、車載端末100の情報提供部150は、CPUに処理を行わせるプログラムによって実現される。このプログラムは各々、ROM115や補助記憶装置104に記憶され、プログラムの実行にあたってRAM116にロードされ、CPU114により実行される。また、車載端末100の記憶部160は、ROM115ならびにRAM116および補助記憶装置104によって実現される。また、車載端末100の通信部107は、通信装置112および機器間通信装置111あるいは通信端末Cによって実現される。
 図5は、サーバ200の機能構成の一例を示した機能ブロック図である。サーバ200は、サーバ側情報提供部250と、情報格納部260と、サーバ側通信部270とを有している。また、サーバ側情報提供部250は、ユーザ認証部251と、端末認証部252と、行動履歴管理部253と、目的地特定部254とを有している。
 ユーザ認証部251は、ユーザ認証を行う機能部である。具体的には、ユーザ認証部251は、情報格納部260に格納されているユーザ情報を用いて、車載端末100から取得したユーザID情報に含まれているユーザIDおよびパスワードの認証を行う。
 端末認証部252は、端末認証を行う機能部である。具体的には、端末認証部252は、情報格納部260に格納されている端末情報を用いて、車載端末100から取得した端末ID情報に含まれている端末IDおよびパスワードの認証を行う。
 行動履歴管理部253は、行動履歴情報を管理する機能部である。具体的には、行動履歴管理部253は、車載端末100から取得した行動履歴情報をユーザごとに車載端末IDを対応付けて情報格納部260に格納する。
 目的地特定部254は、検索エンジン300に対してPOI情報の取得要求を行う機能部である。また、目的地特定部254は、検索エンジン300に対して目的地の検索要求を行う。
 情報格納部260は、ユーザ情報記憶部261と、端末情報記憶部262と、行動履歴記憶部263とを有している。図6は、ユーザ情報記憶部261に格納されているユーザ情報400の一例を示した図である。ユーザ情報400は、各車両の車載端末100を使用するユーザに関する情報を含む。具体的には、ユーザ情報400は、ユーザID401と、性別402と、生年月日403と、運転歴404と、パスワード405とが対応付けられたレコードを有している。
 ユーザID401は、車載端末100の使用者であるユーザを一意に識別するための情報である。性別402は、ユーザの性別を示す情報である。生年月日403は、ユーザの生年月日を示す情報である。運転歴404は、ユーザの運転歴を示す情報である。パスワード405は、ユーザ認証に用いるパスワード情報である。なお、性別ならびに生年月日および運転歴は、例えば、ユーザの特定を識別するための情報としてユーザの分類と、分類ごとの行動履歴の傾向分析などに用いられても良い。
 図7は、端末情報記憶部262に格納されている端末情報500の一例を示した図である。端末情報500は、各車両に搭載されている車載端末100に関する情報を含む。具体的には、端末情報500は、端末ID501と、機種コード502と、機種名503と、購入年月日504と、パスワード505とが対応付けられたレコードを有している。
 端末ID501は、車載端末100を一意に識別する情報である。機種コード502は、車載端末100の機種を特定するコード情報である。機種名503は、車載端末100の機種を示す情報である。購入年月日504は、車載端末100の購入年月日あるいは車両への搭載日などを示す情報である。パスワード505は、端末認証に用いるパスワード情報である。
 図8は、行動履歴記憶部263に格納されている行動履歴情報600の一例を示した図である。行動履歴情報600は、ユーザの目的地や車両の移動軌跡を示す移動ルートなどの行動履歴に関する情報を含む。具体的には、行動履歴情報600は、ID601と、出発地点名称602と、出発地点座標603と、出発日時604と、目的地名称605と、目的地座標606と、到着日時607と、移動ルート608とが対応付けられたレコードを有している。
 ID601は、車載端末100の使用者であるユーザまたは車載端末を一意に識別するための情報である。具体的には、行動履歴情報600には、ユーザ情報400のユーザID401または端末情報500の端末ID501と共通の識別情報が登録される。なお、ID601には、ユーザID401と共通の識別情報が登録されていても良いし、端末ID501と共通の識別情報が登録されていても良い。出発地点名称602は、出発地点の名称(例えば、施設の名称など)を示す情報である。出発地点座標603は、地図上における出発地点の地点座標を示す情報である。出発日時604は、出発地点を出発した日時を示す情報である。目的地名称605は、ユーザの応答音声に基づく検索結果から特定された目的地の名称(例えば、施設の名称など)を示す情報である。目的地座標606は、目的地の地点座標を示す情報である。到着日時607は、目的地に着いた日時を示す情報である。移動ルート608は、位置特定部151によって定期的(例えば、1秒ごと)に算出された地図上の車両位置を示す地点座標を列挙したものであって、車両の走行軌跡を示す情報である。
 サーバ側通信部270は、外部装置(本実施形態では、車載端末100、通信端末Cおよび検索エンジン300など)との間で情報通信を行う機能部である。サーバ側通信部270は、例えば、行動履歴情報600を車載端末100から取得する。また、サーバ側通信部270は、検索エンジン300からPOI情報や目的地の検索結果を取得し、これを車載端末100に送信する。
 以上、サーバ200の機能構成について説明した。
 なお、サーバ側情報提供部250は、CPU204に処理を行わせるプログラムによって実現される。このプログラムは各々、ROM206や補助記憶装置202に記憶され、プログラムの実行にあたってRAM205にロードされ、CPU204により実行される。また、情報格納部260は、ROM206ならびにRAM205および補助記憶装置202によって実現される。また、サーバ側通信部270は、通信装置203によって実現される。
 また、車載端末100およびサーバ200の各機能ブロックは、本実施形態において実現される機能を理解容易にするために、主な処理内容に応じて分類したものであり、各機能の分類の仕方やその名称によって、本発明が制限されることはない。また、車載端末100およびサーバ200の各構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、一つの構成要素がさらに多くの処理を実行するように分類することもできる。
 [動作の説明]
次に、本実施形態に係る情報提供システムで行われる行動履歴作成処理および目的地特定処理について説明する。図9は、行動履歴作成処理の一例を示したシーケンス図である。
 図示するように、車両のアクセサリーキー(ACC)がONになると、車載端末100の行動推定部154は、ユーザID情報およびパスワードと共に、行動履歴情報600の取得要求をサーバ200に送信する(ステップS001)。
 車載端末100からユーザID情報およびパスワードを取得すると、サーバ200のユーザ認証部251は、ユーザ認証を行う(ステップS002)。また、車載端末100から行動履歴情報600の取得要求を受け付けると、サーバ200の行動履歴管理部253は、車載端末100から取得したユーザIDが登録された行動履歴情報600を行動履歴記憶部263から抽出し、サーバ側通信部270を介して車載端末100に送信する。(ステップS003)。
 サーバ200から行動履歴情報600を取得すると、車載端末100の行動推定部154は、これを行動履歴記憶部163に保存し(ステップS004)、行動推定処理を開始する(ステップS005)。具体的には、行動推定部154は、出発地点の地点座標や出発日時および走行中に位置特定部151から取得した車両位置を示す地点座標と、行動履歴記憶部163内の行動履歴情報600に含まれる内容との一致度からユーザの向かっている目的地を推定する。また、行動推定部154は、行動履歴情報600から推定目的地の名称および地点座標を特定し、かかる情報と共に、推定目的地に関するPOI情報の取得要求をサーバ200に送信する(ステップS006)。
 サーバ200の目的地特定部254は、車載端末100から推定目的地の名称ならびに地点座標およびPOI情報の取得要求を受け付けると、検索エンジン300に対してPOI情報の取得要求を行う(ステップS007)。また、検索エンジン300により推定目的地のPOI情報を取得すると、サーバ200の目的地特定部254は、サーバ側通信部270を介して、これを車載端末100に送信する。
 車載端末100の行動推定部154は、POI情報を取得すると、ナビゲーション部152にPOI情報の表示指示を出力する(ステップS008)。
 このような一連の処理により、ユーザは目的地を設定しない場合でも、車載端末100が過去の行動履歴から目的地を推定し、推定目的地に関するPOI情報がユーザに提供される。なお、行動推定部154は、目的地の推定を行う前に、ユーザから目的地の入力を受け付けたか否かをナビゲーション部152に問い合わせても良い。また、ナビゲーション部152が目的地の入力をユーザから受け付けている場合、行動推定部154は、かかる目的地のPOI情報の取得要求をサーバ200に送信しても良い。
 また、車載端末100の行動履歴作成部153は、車両が走行を開始すると、出発地点の地点座標および出発日時などの所定情報を記録する(ステップS009)。また、行動履歴作成部153は、車両が走行している間、定期的に算出される車両位置を示す地点座標を移動ルートの走行軌跡として記録する(ステップS010)。
 また、行動履歴作成部153は、所定のタイミング(例えば、1秒ごと)で車両が駐車したか否かを判定する(ステップS011)。例えば、行動履歴作成部153は、ギアポジションがリア(R)を経てパーキング(P)になったか否か、あるいはサイドブレーキが掛けられたか否かなど所定の条件を満たしたか否かにより車両の駐車を判定する。そして、車両が駐車していないと判定した場合(ステップS011でNo)、行動履歴作成部153は、処理をステップS010に戻す。一方で、車両が駐車したと判定した場合(ステップS011でYes)、行動履歴作成部153は、目的地特定処理を実行する(ステップS012)。
 図10は、目的地特定処理の一例を示したシーケンス図である。目的地特定処理が開始されると、行動履歴作成部153は、目的地が設定済みであるか否かを判定する(ステップS021)。具体的には、行動履歴作成部153は、ユーザから目的地の入力を受け付けたか否かをナビゲーション部152に問い合わせる。ナビゲーション部152が目的地の入力を受け付けている場合(ステップS021でYes)、行動履歴作成部153は、目的地特定処理を終了し、処理を図9のステップS013に移行する。
 一方で、ナビゲーション部152が目的地の入力を受け付けていない場合(ステップS021でNo)、行動履歴作成部153は、処理をステップS022に移行する。
 ステップS022では、音声認識部155は、ユーザに目的地を質問する。具体的には、音声認識部155は、「どちらに行かれるのですか?」といった発話文を音声合成してスピーカ110から出力する(ステップS023)。なお、発話文は特に限定されるものではなく、目的地をユーザに質問する内容であればどのような発話文であっても良い。
 次に、音声認識部155は、マイク109を介してユーザからの応答音声を取得する(ステップS024)。例えば、音声認識部155は、「**寿司」といったユーザの応答音声を取得し、これを文字列の情報(文字情報)に変換して(ステップS025)、ユーザの発話内容を認識する。また、音声認識部155は、かかる音声認識の結果を行動履歴作成部153に出力する。
 次に、行動履歴作成部153は、目的地の検索要求およびPOI情報の取得要求をサーバ200に送信する(ステップS026)。具体的には、行動履歴作成部153は、音声認識結果が示す目的地および到着地点(駐車地点)の地点座標と共に、目的地の検索要求およびPOI情報の取得要求をサーバ200に送信する。
 サーバ200の目的地特定部254は、車載端末100から音声認識結果が示す目的地と、到着地点の地点座標と、目的地の検索要求と、POI情報の取得要求を受け付けると、検索エンジン300に対して目的地の検索要求およびPOI情報の取得要求を行う(ステップS027)。また、目的地特定部254は、検索エンジン300から目的地の検索結果およびPOI情報を取得すると、サーバ側通信部270を介して、これらを車載端末100に送信する(ステップS028)。
 なお、検索エンジン300は、音声認識結果が示す目的地と到着地点の地点座標とをサーバ200から取得すると、これらを用いて目的地を検索する。具体的には、検索エンジン300は、ユーザの応答音声に基づく目的地と到着地点の地点座標とを用いて検索を行い、例えば、「**寿司 大宮店」といった詳細な目的地の検索結果を得る。また、検索エンジン300は、「**寿司 大宮店」に関するPOI情報(例えば、店舗の営業時間、平均予算、おすすめの品、評判など)を検索結果として取得する。
 行動履歴作成部153は、サーバ200からPOI情報を取得すると、これを表示するようナビゲーション部152に指示する(ステップS029)。また、行動履歴作成部153は、検索結果を取得すると、検索結果の目的地名称を音声合成して出力するよう音声認識部155に指示する(ステップS030)。
 音声認識部155は、行動履歴作成部153からの指示を受け付けると、目的地の検索結果を音声合成してスピーカ110から出力する(ステップS031)。例えば、音声認識部155は、音声合成により「わかりました。**寿司 大宮店に行かれるのですね。」といった発話文を音声合成し、スピーカ110から出力する。また、音声認識部155は、かかる処理が終了すると、目的地特定処理を終了し、処理を図9のステップS013に移行する。
 ステップS013では、行動履歴作成部153は、検索結果である目的地の名称と、地点座標と、到着日時とを記憶する。また、行動履歴作成部153は、ユーザIDと、出発地点および目的地の名称および地点座標と、出発日時および到着日時と、移動ルートを示す地点座標を含む行動履歴情報600を作成する(ステップS014)。また、行動履歴作成部153は、ユーザID情報およびパスワードと共に行動履歴情報600をサーバ200に送信する(ステップS015)。
 サーバ200のユーザ認証部251は、取得したユーザID情報およびパスワードを用いてユーザ認証を行う(ステップS016)。また、行動履歴管理部253は、認証が成功した場合、取得した行動履歴情報600を行動履歴記憶部263に格納する(ステップS017)。
 以上、本実施形態に係る行動履歴作成処理および目的地特定処理について説明した。このような発明によれば、より精度の高い目的地推定を行うための履歴情報を作成できる。特に、車載端末100は、ユーザに聞いた目的地を含む行動履歴情報600を作成し、かかる行動履歴情報600を用いて目的地の推定を行うため、目的地が設定されていない状況でも、精度よく目的地を推定することができる。
 また、車載端末100は、検索エンジン300による検索結果に基づいて目的地を特定するため、より確実に正しい目的地を特定することができる。通常、ユーザに目的地を聞いた場合でも、ユーザの応答は店舗の愛称や略称であることが多い。そのため、愛称や略称などの曖昧さを吸収し、より精度の高い目的地の検索を可能とする検索エンジン300を経由することにより、精度良く目的地を特定することができる。また、そのような検索結果により特定された目的地を含む行動履歴情報600を活用することで、精度の良い目的地推定を行うことができる。
 さらに、車載端末100が特定する目的地は、車両の駐車する場所ではなく、ユーザが実際に向かう店舗や施設などの地点である。例えば、地方や郊外などでは駐車場と店舗とが非常に離れている場所が多々存在する。そのため、車両の到着地点すなわち駐車場所を目的地とした履歴情報を作成し、かかる履歴情報を用いて目的地を推定した場合、車載端末100は、目的の店舗から非常に遠い場所を目的地としてユーザを誘導しまうことになる。また、車載端末100は、駐車場から遠い目的の店舗ではなく、駐車場により近い店舗のPOI情報をユーザに案内してしまうという問題も生じ得る。これに対し、本実施形態に係る情報提供システムでは、ユーザの向かう店舗などの地点が目的地として登録された履歴情報を用いて目的地の推定を行うため、より的確にユーザを誘導し、より適切なPOI情報をユーザに提供することができる。
 <第二実施形態>
図11は、第二実施形態に係る目的地特定処理の一例を示したシーケンス図である。前述の第一実施形態に係る目的地特定処理では、ユーザの応答音声に基づく検索結果の目的地名称を復唱する発話文を出力したが(ステップS031)、本実施形態では、検索結果の目的地の名称が正しいかどうかをユーザに確認するための発話文を出力する。なお、本実施形態に係るステップS041~ステップS049までの処理は、第一実施形態のステップS021~ステップS029までの処理と同一であるため、説明を省略する。また、本実施形態でも、図9に示す行動履歴作成処理を実行するものとする。
 ステップS049で、行動履歴作成部153は、検索結果およびPOI情報を表示するようナビゲーション部152に指示し、音声認識部155に対して、検索結果をユーザに確認するための発話文を出力するよう指示する(ステップS050)。
 かかる指示を受け付けると、音声認識部155は、音声合成を行い、検索結果の目的地が正しいかどうかをユーザに確認する発話文を出力する(ステップS051)。例えば、音声認識部155は、「**寿司 大宮店に行かれるのですか?」といった確認の発話文を音声合成してスピーカ110から出力する。なお、発話文は特に限定されるものではなく、検索結果の目的地をユーザに確認する内容であればどのような発話文であっても良い。
 次に、音声認識部155は、マイク109を介してユーザからの応答音声を取得する(ステップS052)。例えば、「はい」または「いいえ」あるいはこれらに類する応答音声をユーザから取得する。また、音声認識部155は、これを文字列の情報(文字情報)に変換して(ステップS053)、ユーザの発話内容を認識する。また、音声認識部155は、かかる音声認識結果を行動履歴作成部153に出力する(ステップS054)。
 次に、行動履歴作成部153は、音声認識の結果が「はい」またはこれに類する発話内容であったか否かを判定する(ステップS055)。そして、「はい」またはこれに類する発話内容でなかった場合(ステップS055でNo)、行動履歴作成部153は、処理をステップS042に戻し、ユーザに対して再度目的地の質問を行う。
 一方で、「はい」またはこれに類する発話内容である場合(ステップS055でYes)、行動履歴作成部153は、目的地特定処理を終了し、処理を図9のステップS013に移行する。
 このような第二実施形態に係る目的地特定処理によれば、検索結果に係る目的地をユーザに確認することで、誤った目的地が登録された行動履歴情報600の作成を防止できる。
 <第三実施形態>
図12は、第三実施形態に係る目的地特定処理の一例を示したシーケンス図である。本実施形態に係る目的地特定処理では、現在地付近への到着履歴の有無や、現在地付近の施設などの数に応じて目的地に関するユーザへの質問内容を変更する。なお、本実施形態でも、図9に示す行動履歴作成処理を実行するものとする。
 ステップS061の処理で、ナビゲーション部152は、目的地を設定済みか否かを判定する。具体的には、ナビゲーション部152は、ユーザから目的地の入力を受け付けているか否かを判定する。そして、目的地の入力を受け付けている場合(ステップS061でYES)、行動履歴作成部153は、目的地特定処理を終了し、処理を図9のステップS013に移行する。
 一方で、ユーザから目的地の入力を受け付けていない場合(ステップS061でNo)、行動履歴作成部153は、行動履歴情報600を用いて、現在地付近(例えば、駐車した地点から所定半径:例えば、50mの範囲内)への到着履歴が有るか否かを判定する(ステップS062)。そして、到着履歴がないと判定した場合(ステップS062でNo)、行動履歴作成部153は、現在地付近に施設などのPOIが2つ以上であるか否かを判定する(ステップS063)。そして、施設が2つ以上ないと判定した場合(ステップS063でNo)、行動履歴作成部153は、処理を図11のステップS050に移行する。すなわち、過去の到着履歴はないが、現在地付近にある1つの施設を特定できたため、行動履歴作成部153は、特定結果に係る目的地をユーザに確認するための発話文を出力するように音声認識部155に指示する(ステップS050)。
 一方で、現在地付近の施設が2つ以上あると判定した場合、行動履歴作成部153は、処理を図10のステップS022に移行し、ユーザに目的地を質問する発話文を音声認識部155に出力させる(例えば、「どちらに行かれるのですか?」など)。現在地付近への過去の行動履歴がなく、現在地付近の施設が複数あるため、1つの施設を特定できないからである。
 また、前述のステップS062において、現在地付近への到着履歴が有ると判定した場合(ステップS062でYes)、行動履歴作成部153は、到着履歴の地点数(例えば、施設や公園などの地点の数)が10未満であるか否かを判定する(ステップS064)。そして、地点数が10未満ではない場合(ステップS064でNo)、行動履歴作成部153は、処理を図10のステップS022に移行し、音声認識部155を介してユーザに目的地を質問する。過去の到着履歴はあるが、地点数が10以上あるため、ユーザが向かう目的地を推測するのが難しいからである。なお、地点数は特に限定されるものではなく、適宜任意の数が設定されれば良い。
 一方で、到着履歴の地点数が10未満である場合(ステップS064でYes)、行動履歴作成部153は、現在地から最も近い過去の到着地点を行動履歴情報600から特定する。また、音声認識部155は、かかる到着地点が今回の目的地であるかをユーザに質問する発話文を音声合成により生成し、スピーカ110から出力する(ステップS065)。
 次に、音声認識部155は、マイク109を介してユーザからの応答音声を取得する(ステップS066)。音声認識部155は、例えば、「はい」または「いいえ」あるいはこれらに類する応答音声をユーザから取得する。また、音声認識部155は、これを文字列の情報(文字情報)に変換して、ユーザの発話内容を認識する。また、音声認識部155は、かかる音声認識の結果を行動履歴作成部153に出力する。
 次に、行動履歴作成部153は、音声認識の結果が「はい」またはこれに類する発話内容か否かを判定する(ステップS067)。そして、「はい」またはこれに類する発話内容と判定した場合(ステップS067でYes)、行動履歴作成部153は、目的地特定処理を終了する。1つの目的地を特定できたためである。
 一方で、「はい」またはこれに類する発話内容でない場合(ステップS067でNo)、行動履歴作成部153は、現在地から最も到着回数が多い過去の到着地点を行動履歴情報600から特定する。また、音声認識部155は、かかる到着地点が今回の目的地であるかをユーザに質問する発話文を音声合成により生成し、スピーカ110から出力する(ステップS068)。
 次に、音声認識部155は、マイク109を介してユーザからの応答音声を取得する(ステップS069)。音声認識部155は、例えば、「はい」または「いいえ」あるいはこれらに類する応答音声をユーザから取得する。また、音声認識部155は、これを文字列の情報(文字情報)に変換して、ユーザの発話内容を認識する。また、音声認識部155は、かかる音声認識の結果を行動履歴作成部153に出力する。
 次に、行動履歴作成部153は、音声認識の結果が「はい」またはこれに類する発話内容であったか否かを判定する(ステップS070)。そして、「はい」またはこれに類する発話内容の場合(ステップS070でYes)、行動履歴作成部153は、目的地特定処理を終了する。
 一方で、「はい」またはこれに類する発話内容でない場合(ステップS070でNo)、行動履歴作成部153は、処理を図10のステップS022に移行し、音声認識部155を介してユーザに目的地を質問する。過去の到着履歴はあるが、目的地を特定できないためである。
 以上のような第三実施形態に係る目的地特定処理によれば、現在地付近への到着履歴の有無や、現在地付近の施設などの数に応じて目的地に関するユーザへの質問内容を変更するため、質問の回数を極力減らすことができ、ユーザが質問に対して応答する煩わしさを軽減することができる。
 <第四実施形態>
図13は、第四実施形態に係る行動履歴作成再開処理の一例を示したシーケンス図である。前述の第一実施形態において、例えば、駐車判定(ステップS011)などの処理途中で車両のエンジンが停止される場合がある。本実施形態に係る行動履歴作成再開処理は、行動履歴作成処理が処理途中で終了し、その後車載端末100が起動された時に実行される処理である。なお、ステップS083~ステップS091は、図9のステップS012~ステップS017の処理と同様であるため、説明を省略する。
 車両のアクセサリーキー(ACC)がONになると、行動履歴作成部153は、図9のステップS011の処理(駐車判定)が完了済みであるか否かを判定する(ステップS081)。完了していないと判定すると(ステップS081でNo)、行動履歴作成部153は、前回終了時から所定時間(例えば、5分)経過しているか否かを判定する(ステップS087)。そして、所定時間が経過していると判定した場合(ステップS087でYes)、行動履歴作成部153は、処理をステップS083に移行して目的地特定処理を実行する。
 一方で、所定時間を経過していないと判定した場合(ステップS087でNo)、行動履歴作成部153は、処理を図9のステップS010に移行し、移動ルートの記録を行う。前回終了時から所定時間が経過していれば、ユーザが何らかの要件を済ませた可能性があり、その場合には前回終了時の到着地点を目的地として仮定し、目的地特定処理を行うようにする。
 また、ステップS081において、ステップS011の駐車判定が完了済みと判定した場合(ステップS081でYes)、行動履歴作成部153は、図9のステップS012(目的地特定処理)が完了済みであるか否かを判定する(ステップS082)。目的地特定処理が未完了であると判定した場合(ステップS082でNo)、行動履歴作成部153は、図10の目的地特定処理を行う(ステップS083)。
 なお、ステップS081を経由して目的地特定処理を行う場合、音声認識部155は、「どちらに行かれていましたか?」という発話文の質問をユーザに行う(図10のステップS022、ステップS023)。この場合、ユーザは前回終了時に目的地に到着し、既に要件等を済ませたと考えられるためである。
 一方で、目的地特定処理が完了済みと判定した場合(ステップS082でYes)、行動履歴作成部153は、ステップS013の処理(目的地名称、地点座標および到着日時の記録)が完了済みであるか否かを判定する(ステップS088)。そして、未完了と判定した場合(ステップS088でNo)、行動履歴作成部153は、処理をステップS084に移行し、これらの項目について記録を行う。
 一方で、目的地名称などの記録が完了済みと判定した場合(ステップS088でYes)、行動履歴作成部153は、図9のステップS014およびステップS015(行動履歴情報600の生成および送信)が完了済みであるか否かを判定する(ステップS089)。そして、未完了と判定した場合(ステップS089でNo)、行動履歴作成部153は、行動履歴情報600を作成し(ステップS085)、通信部170を介して、ユーザIDおよびパスワードと共にサーバ200に送信する(ステップS086)。
 一方で、行動履歴情報600の作成およびサーバ200への送信が完了済みと判定した場合(ステップS089でYes)、行動推定部154は、処理を図9のステップS001(行動履歴情報600の取得要求)に移行する。
 以上の第四実施形態に係る処理により、前回終了時に未完了であった処理から行動履歴作成処理を再開することができる。特に、車載端末100は、前回終了時から所定時間が経過しているか否かを判定することで、前回の行動履歴作成処理が目的地に到着して終了したのか、あるいは、目的地に到着せずに終了したのかを判定することができる。これにより、より正確に再開すべき処理を特定することができる。
 なお、前述の通り、本発明は、第一実施形態に係る行動履歴作成処理に第二実施形態に係る目的地特定処理または第三実施形態に係る目的地特定処理を組み合わせることも可能であり、さらには、第一実施形態に係る行動履歴作成処理の実行前に第四実施形態に係る行動履歴作成再開処理を実行することも可能である。また、端末IDを用いて端末認証を行う後述の行動履歴作成処理が組み合わせられても良い。
 また、前述の実施形態では、ユーザIDを用いてユーザ認証を行ったが、本発明は、端末IDを用いて端末認証を行うものであっても良い。図14は、端末認証を行う行動履歴作成処理の一例を示したフロー図である。図示するように、車載端末100の行動推定部154は、端末ID情報およびパスワードと共に、行動履歴情報600の取得要求をサーバ200に送信する(ステップS101)。
 車載端末100から端末ID情報およびパスワードを取得すると、サーバ200の端末認証部252は、端末認証を行う(ステップS102)。また、車載端末100から行動履歴情報600の取得要求を受け付けると、サーバ200の行動履歴管理部253は、車載端末100から取得した端末IDが登録された行動履歴情報600を行動履歴記憶部263から抽出し、サーバ側通信部270を介して車載端末100に送信する。(ステップS103)。
 また、ステップS115では、行動履歴作成部153は、端末ID情報およびパスワードと共に行動履歴情報600をサーバ200に送信する。
 サーバ200の端末認証部252は、取得した端末ID情報およびパスワードを用いて端末認証を行う(ステップS116)。また、行動履歴管理部253は、認証が成功した場合、取得した行動履歴情報600を行動履歴記憶部263に格納する(ステップS117)。
 このような行動履歴作成処理によれば、車載端末100の使用であるユーザではなく、車載端末100に対応付けて行動履歴情報を管理することができる。
 また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
 また、上記説明では、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えて良い。
100・・・情報提供装置(車載端末)、200・・・サーバ、300・・・検索エンジン、C・・・通信端末、N・・・通信ネットワーク、150・・・情報提供部、151・・・位置特定部、152・・・ナビゲーション部、153・・・行動履歴作成部、154・・・行動推定部、155・・・音声認識部、160・・・記憶部、161・・・ユーザID記憶部、162・・・端末ID記憶部、163・・・行動履歴記憶部、164・・・地図DB、170・・・通信部、250・・・サーバ側情報提供部、251・・・ユーザ認証部、252・・・端末認証部、253・・・行動履歴管理部、254・・・目的地特定部、260・・・情報格納部、261・・・ユーザ情報記憶部、262・・・端末情報記憶部、263・・・行動履歴記憶部、270・・・サーバ側通信部

Claims (13)

  1.  ユーザに目的地を聞くための発話文を出力し、該目的地を示すユーザの応答音声を取得する音声認識部と、
     ユーザが応答した目的地の検索要求を行い、検索結果に基づいて特定した目的地を含む行動履歴情報を作成する行動履歴作成部とを備えた情報提供装置と、
     情報検索を行う検索エンジンに対して前記情報提供装置から取得した前記検索要求を行い、検索結果を前記情報提供装置に送信する目的地特定部を備えたサーバと、を有する
    ことを特徴とする情報提供システム。
  2.  請求項1に記載の情報提供システムであって、
     前記行動履歴作成部は、
     ユーザが応答した前記目的地に関するPOI情報の取得要求を前記目的地特定部に行い、
     前記目的地特定部から取得した前記POI情報の表示指示を行う
    ことを特徴とする情報提供システム。
  3.  請求項1に記載の情報提供システムであって、
     過去の前記行動履歴情報を用いてユーザの目的地を推定し、
     推定した目的地のPOI情報の取得要求を前記目的地特定部に行い、
     前記目的地特定部から取得した前記POI情報の表示指示を行う行動推定部をさらに備える
    ことを特徴とする情報提供システム。
  4.  請求項1に記載の情報提供システムであって、
     前記音声認識部は、
     前記検索結果が示す前記目的地をユーザに確認する発話文を出力し、
     前記行動履歴作成部は、
     確認結果に応じて前記目的地を特定し、
     特定した前記目的地を含む前記行動履歴情報を作成する
    ことを特徴とする情報提供システム。
  5.  請求項1に記載の情報提供システムであって、
     前記行動履歴作成部は、
     前記行動履歴情報を用いて、車両が駐車した現在地付近への到着履歴の有無を判定し、
     前記音声認識部は、
     判定結果に応じてユーザに目的地を聞く発話文の内容を変更する
    ことを特徴とする情報提供システム。
  6.  請求項5に記載の情報提供システムであって、
     前記音声認識部は、
     前記到着履歴のある到着地点の数が所定数未満である場合、車両が駐車した現在地付近から最も近い到着地点がユーザの目的地であるか否かをユーザに聞くための発話文を出力し、
     現在地付近から最も近い到着地点がユーザの目的地ではないことを示すユーザの応答音声を取得した場合、最も到着回数が多い到着地点がユーザの目的地であるか否かをユーザに聞くための発話文を出力する
    ことを特徴とする情報提供システム。
  7.  請求項1に記載の情報提供システムであって、
     前記情報提供装置が起動すると、
     前記行動履歴作成部は、
     前記情報提供装置が前回の起動時に未完了だった処理を特定し、
     特定した前記未完了の処理を実行する
    ことを特徴とする情報提供システム。
  8.  請求項7に記載の情報提供システムであって、
     前記行動履歴作成部は、
     前記情報提供装置が前回の起動時に車両の駐車判定を完了していない場合、前記の起動終了時から所定時間が経過しているか否かを判定し、
     所定時間が経過していると判定した場合、前記音声認識部によりユーザに目的地を聞くための発話文を出力させ、
     ユーザの応答音声に基づく前記検索エンジンの検索結果に基づき目的地を特定する処理を行い、
     前記検索結果に基づいて特定した目的地を含む前記行動履歴情報を作成する
    ことを特徴とする情報提供システム。
  9.  請求項7に記載の情報提供システムであって、
     前記行動履歴作成部は、
     前記情報提供装置が前回の起動時に目的地を特定する処理を完了していない場合、音声認識部によりユーザに目的地を聞くための発話文を出力させ、
     ユーザの応答に基づく前記検索エンジンの検索結果により目的地を特定する処理を行い、
     前記検索結果に基づいて特定した目的地を含む前記行動履歴情報を作成する
    ことを特徴とする情報提供システム。
  10.  請求項1に記載の情報提供システムであって、
     前記行動履歴作成部は、
     前記ユーザを識別するユーザIDおよび前記情報提供装置を識別する端末IDの少なくともいずれか一方を対応付けた前記行動履歴情報を作成し、
     前記サーバは、
     前記ユーザIDを用いてユーザ認証を行うユーザ認証部および前記端末IDを用いて端末認証を行う端末認証部の少なくともいずれか一方と、
     前記ユーザ認証または前記端末認証が成功した場合、前記ユーザIDまたは前記端末IDが対応付けられている前記行動履歴情報を前記情報提供装置に送信する行動履歴管理部とを備える
    ことを特徴とする情報提供システム。
  11.  請求項3に記載の情報提供システムであって、
     前記行動推定部は、
     前記ユーザを識別するユーザIDおよび前記情報提供装置を識別する端末IDの少なくともいずれか一方が対応付けられた前記行動履歴情報を前記サーバから取得すると、該行動履歴情報を用いて前記ユーザの目的地を推定する
    ことを特徴とする情報提供システム。
  12.  ユーザに目的地を聞くための発話文を出力し、該目的地を示すユーザの応答音声を取得する音声認識部と、
     ユーザが応答した目的地の検索要求をサーバに行い、検索結果に基づいて特定した目的地を含む行動履歴情報を作成する行動履歴作成部とを備える
    ことを特徴とする情報提供装置。
  13.  ユーザに目的地を聞くための発話文を出力し、該目的地を示すユーザの応答音声を取得するステップと、
     情報検索を行う検索エンジンに対してユーザが応答した目的地の検索要求を行うステップと、
     検索結果に基づいて特定した目的地を含む行動履歴情報を作成するステップと、を行う
    ことを特徴とする情報提供方法。
PCT/JP2016/081278 2016-04-21 2016-10-21 情報提供システム、情報提供装置および情報提供方法 WO2017183220A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680084716.1A CN109074361A (zh) 2016-04-21 2016-10-21 信息提供系统、信息提供装置和信息提供方法
EP16899491.1A EP3447658A4 (en) 2016-04-21 2016-10-21 SYSTEM, DEVICE AND METHOD FOR PROVIDING INFORMATION
US16/093,765 US20200327179A1 (en) 2016-04-21 2016-10-21 Information providing system, information providing apparatus, and information providing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016084996A JP6804865B2 (ja) 2016-04-21 2016-04-21 情報提供システム、情報提供装置および情報提供方法
JP2016-084996 2016-04-21

Publications (1)

Publication Number Publication Date
WO2017183220A1 true WO2017183220A1 (ja) 2017-10-26

Family

ID=60116767

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/081278 WO2017183220A1 (ja) 2016-04-21 2016-10-21 情報提供システム、情報提供装置および情報提供方法

Country Status (5)

Country Link
US (1) US20200327179A1 (ja)
EP (1) EP3447658A4 (ja)
JP (1) JP6804865B2 (ja)
CN (1) CN109074361A (ja)
WO (1) WO2017183220A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752021A (zh) * 2018-12-18 2019-05-14 维沃移动通信有限公司 一种行驶路线规划方法及装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068957B2 (en) * 2016-05-05 2021-07-20 Under Armour, Inc. System and method for providing recommendations based on travel path and activity data
KR102497131B1 (ko) * 2017-12-09 2023-02-07 현대자동차주식회사 교통 정보 제공 시스템 및 교통 정보 제공 방법
JP6954821B2 (ja) * 2017-12-11 2021-10-27 トヨタ自動車株式会社 対話管理装置及びプログラム
JP2019109657A (ja) * 2017-12-18 2019-07-04 株式会社Jvcケンウッド ナビゲーション装置およびナビゲーション方法、ならびにプログラム
JP6687678B2 (ja) * 2018-06-29 2020-04-28 ヤフー株式会社 推定装置、推定方法および推定プログラム
US11898866B2 (en) 2018-07-24 2024-02-13 Faurecia Clarion Electronics Co., Ltd. Information collection device, and control method
JP7027280B2 (ja) * 2018-08-10 2022-03-01 本田技研工業株式会社 個人識別装置および個人識別方法
EP3837494B1 (en) * 2018-09-13 2023-08-02 Huawei Technologies Co., Ltd. Multimodal location sensing on a mobile phone
CN111457935A (zh) * 2019-01-22 2020-07-28 阿里巴巴集团控股有限公司 一种数据处理方法、装置、设备和机器可读介质
CN111625731A (zh) * 2019-02-27 2020-09-04 上海博泰悦臻网络技术服务有限公司 基于车载终端的车主生日服务方法、系统、存储介质、车载终端
CN110268354A (zh) * 2019-05-09 2019-09-20 珊口(深圳)智能科技有限公司 更新地图的方法及移动机器人
JP7349813B2 (ja) * 2019-05-10 2023-09-25 シャープ株式会社 情報処理装置、情報処理装置制御方法、及びプログラム
KR20220073897A (ko) * 2020-11-26 2022-06-03 현대자동차주식회사 퍼스널 모빌리티 기기의 주차 인식 서버, 그를 포함한 시스템 및 그 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319098A (ja) * 2001-04-19 2002-10-31 Sony Corp 情報通信装置及び方法、移動体、記憶媒体、並びにコンピュータ・プログラム
JP2004287807A (ja) * 2003-03-20 2004-10-14 Nissan Motor Co Ltd 情報提示装置
JP2005315885A (ja) * 2002-10-10 2005-11-10 Matsushita Electric Ind Co Ltd 情報取得方法、情報提示方法、および情報取得装置
JP2006215041A (ja) 2001-08-06 2006-08-17 Matsushita Electric Ind Co Ltd 情報提供方法
JP2007108004A (ja) * 2005-10-13 2007-04-26 Denso Corp ナビゲーション装置
WO2014199428A1 (ja) * 2013-06-10 2014-12-18 パイオニア株式会社 候補告知装置、候補告知方法及び候補告知用プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
KR101027152B1 (ko) * 2008-09-08 2011-04-05 현대엠엔소프트 주식회사 차량의 위치와 검색빈도를 고려한 목적지 표출 방법 및 내비게이션
US20110017529A1 (en) * 2009-07-24 2011-01-27 A Truly Electric Car Company Truly electric car
CN102080964A (zh) * 2009-12-01 2011-06-01 汤贻芸 自动确定导航目标地址的智能导航方法和系统
JP2013101535A (ja) * 2011-11-09 2013-05-23 Alpine Electronics Inc 情報検索装置および情報検索方法
KR20130123613A (ko) * 2012-05-03 2013-11-13 현대엠엔소프트 주식회사 음성인식 경로안내장치 및 방법
JP6192666B2 (ja) * 2013-01-21 2017-09-06 三菱電機株式会社 目的地予測装置、目的地予測方法、目的地表示方法
CN103606292A (zh) * 2013-11-13 2014-02-26 山西大学 一种智能导航仪及其路径导航的实现方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319098A (ja) * 2001-04-19 2002-10-31 Sony Corp 情報通信装置及び方法、移動体、記憶媒体、並びにコンピュータ・プログラム
JP2006215041A (ja) 2001-08-06 2006-08-17 Matsushita Electric Ind Co Ltd 情報提供方法
JP2005315885A (ja) * 2002-10-10 2005-11-10 Matsushita Electric Ind Co Ltd 情報取得方法、情報提示方法、および情報取得装置
JP2004287807A (ja) * 2003-03-20 2004-10-14 Nissan Motor Co Ltd 情報提示装置
JP2007108004A (ja) * 2005-10-13 2007-04-26 Denso Corp ナビゲーション装置
WO2014199428A1 (ja) * 2013-06-10 2014-12-18 パイオニア株式会社 候補告知装置、候補告知方法及び候補告知用プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIYASHITA ET AL.: "Map matching method for destination prediction car navigation system", JOURNAL OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 50, no. 1, January 2009 (2009-01-01), pages 75 - 86
See also references of EP3447658A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752021A (zh) * 2018-12-18 2019-05-14 维沃移动通信有限公司 一种行驶路线规划方法及装置

Also Published As

Publication number Publication date
EP3447658A4 (en) 2020-04-22
CN109074361A (zh) 2018-12-21
EP3447658A1 (en) 2019-02-27
JP6804865B2 (ja) 2020-12-23
US20200327179A1 (en) 2020-10-15
JP2017194850A (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
WO2017183220A1 (ja) 情報提供システム、情報提供装置および情報提供方法
US20190120649A1 (en) Dialogue system, vehicle including the dialogue system, and accident information processing method
KR20180086718A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US10950233B2 (en) Dialogue system, vehicle having the same and dialogue processing method
JP2008058039A (ja) 車載不満情報収集装置、情報収集センタ及び不満情報収集システム
JP2017108274A (ja) 情報引継ぎシステム、車載端末および情報引継ぎ方法
JP5785063B2 (ja) 情報処理システム、情報処理装置、及びセンターサーバ
US11244566B2 (en) Map updating device, map updating system, and map updating method
JP3948441B2 (ja) 音声認識方法及び、車載装置
JP2006317573A (ja) 情報端末
EP2442073B1 (en) Route search device and route search method
JP7020098B2 (ja) 駐車場評価装置、駐車場情報提供方法およびプログラム
JP5056784B2 (ja) 音声認識システム
KR20190011458A (ko) 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
US10323953B2 (en) Input of navigational target data into a navigation system
JP6563451B2 (ja) 移動支援装置、移動支援システム、移動支援方法及び移動支援プログラム
JP7048529B2 (ja) 車両位置分析装置及び車両位置分析方法
JP2012247358A (ja) 運転支援装置
CN112119283A (zh) 用于输出导航信息的设备和方法以及车辆
JP6822780B2 (ja) 情報表示装置および情報表示方法
JP2019174509A (ja) サーバ装置およびpoi読み方通知方法
CN111578960B (zh) 导航方法、装置和电子设备
JP7477482B2 (ja) 車両管理装置、車両管理方法及びコンピュータプログラム
WO2023162192A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023218554A1 (ja) ナビゲーション装置および立ち寄り地提案方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016899491

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016899491

Country of ref document: EP

Effective date: 20181121

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16899491

Country of ref document: EP

Kind code of ref document: A1