WO2019146034A1 - 目的地検索支援装置および目的地候補の提示方法 - Google Patents

目的地検索支援装置および目的地候補の提示方法 Download PDF

Info

Publication number
WO2019146034A1
WO2019146034A1 PCT/JP2018/002247 JP2018002247W WO2019146034A1 WO 2019146034 A1 WO2019146034 A1 WO 2019146034A1 JP 2018002247 W JP2018002247 W JP 2018002247W WO 2019146034 A1 WO2019146034 A1 WO 2019146034A1
Authority
WO
WIPO (PCT)
Prior art keywords
destination
destination candidate
information
database
unit
Prior art date
Application number
PCT/JP2018/002247
Other languages
English (en)
French (fr)
Inventor
直哉 杉谷
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019567459A priority Critical patent/JPWO2019146034A1/ja
Priority to PCT/JP2018/002247 priority patent/WO2019146034A1/ja
Publication of WO2019146034A1 publication Critical patent/WO2019146034A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Definitions

  • the present invention relates to a destination search support device that presents a user with possible destinations.
  • a technique has been proposed for estimating the destination (destination) preferred by the user from the conversation content of the user.
  • a destination estimation and presentation device that extracts a keyword from the voice of the user's conversation, searches a database related to the keyword from the database, and presents the detected facility as a destination candidate to the user Is disclosed.
  • the destination estimation and presentation device of Patent Document 1 searches for facilities using a database in which map data, facility data, and the like are stored in advance. Therefore, when the information stored in the database (for example, the business day or the business hours of the facility) becomes old, there is a possibility that an inappropriate facility (for example, a facility being closed) is detected as a destination candidate.
  • a database in which map data, facility data, and the like are stored in advance. Therefore, when the information stored in the database (for example, the business day or the business hours of the facility) becomes old, there is a possibility that an inappropriate facility (for example, a facility being closed) is detected as a destination candidate.
  • the present invention has been made to solve the problems as described above, and it is an object of the present invention to provide a destination search support device that presents destination candidates to a user based on the latest information.
  • a destination search support apparatus includes a keyword extraction unit that extracts a keyword from speech, an information search unit that searches for a destination candidate based on the keyword, and information on the destination candidate detected by the information search unit.
  • a database management unit registered in a database, a destination candidate extraction unit extracting destination candidates from the database when predetermined destination candidate presentation conditions are satisfied, and a destination candidate extracted by the destination candidate extraction unit
  • a destination candidate presenting unit that presents the user information of
  • the destination search support device In the destination search support device according to the present invention, information of destination candidates based on a keyword extracted from voice is registered in a database for extracting destination candidates to be presented to the user.
  • the destination search support device can present the user with information of the destination candidate based on the latest information by extracting the destination candidate from the database.
  • FIG. 1 is a functional block diagram showing a configuration of a destination search support system according to a first embodiment. It is a flowchart which shows the process in which the destination search assistance apparatus which concerns on Embodiment 1 registers the information of the destination candidate in a database. It is a flowchart which shows the process which the destination search assistance apparatus which concerns on Embodiment 1 presents the information of a destination candidate to a user. It is a figure which shows the example of the hardware constitutions of the destination search assistance apparatus. It is a figure which shows the example of the hardware constitutions of the destination search assistance apparatus.
  • FIG. 7 is a functional block diagram showing a configuration of a destination search support system according to a second embodiment.
  • FIG. 1 is a functional block diagram showing a configuration of a destination search support system according to a first embodiment of the present invention.
  • the destination search support system includes a destination search support device 10, a voice recognition device 21, an operation input device 22, a search server 23, a database 24, and an information presentation device 25.
  • the voice recognition device 21 is a voice input device equipped with a voice recognition engine that recognizes voices uttered by the user (for example, conversations between users and monologues) and output voices of a television and a radio viewed by the user.
  • the speech recognition apparatus is specialized in recognizing speech uttered by the user. For example, during a period when the user inputs speech, the speech uttered by the user by narrowing down the output speech of the television or radio smallly It is configured not to recognize non-speech.
  • the voice recognition device 21 of the first embodiment is configured to actively recognize not only the voice uttered by the user but also the output voice of the television or radio.
  • the operation input device 22 is an input device that receives a user's operation.
  • the operation input device 22 may be a hardware key such as an operation button or a keyboard, or may be a software key such as an icon displayed on the screen.
  • the search server 23 is a server equipped with a search engine that searches for information corresponding to the input keyword on the Internet.
  • the search server 23 exists outside the destination search support apparatus 10, and the destination search support apparatus 10 and the search server 23 are connected by communication via the Internet.
  • the search server 23 is configured to be able to always search for the latest information by collecting various types of information from the Internet independently of the operation of the destination search support device 10.
  • the destination search support device 10 extracts a keyword from the voice recognized by the voice recognition device 21, and searches for a destination candidate corresponding to the keyword using the search server 23.
  • the destination candidate information searched by the destination search support device 10 includes the name, address and business schedule (business day and business hours) of the destination candidate, the name of the event to be held in the destination candidate, and the event schedule ((7) Day and time) shall be included.
  • the database 24 is a recording medium for registering information on destination candidates detected by the destination search support device 10 using the search server 23.
  • the destination search support apparatus 10 registers in the database 24 the keywords used for the search together with the information of the destination candidate.
  • the destination search support apparatus 10 can not only obtain information on destination candidates registered in the database 24, but can also refer to a keyword used for the search, the number of times of detection of the keyword, and the like.
  • the information presentation device 25 is an output device for the destination search support device 10 to present information of a destination candidate to the user.
  • the information presentation device 25 is provided with a speaker for outputting information of a destination candidate by voice and a screen for displaying characters and images (for example, a map).
  • the information presentation device 25 may have only one of the speaker and the screen.
  • the software key as the operation input device 22 may be displayed on the screen of the information presentation device 25. In that case, the operation input device 22 and the information presentation device 25 may be configured by one touch panel.
  • FIG. 1 shows a configuration in which the voice recognition device 21, the operation input device 22, the database 24, and the information presentation device 25 are externally attached to the destination search support device 10, a part or all of them are It may be built in the destination search support device 10.
  • the destination search support device 10 includes a keyword extraction unit 11, an information search unit 12, a database management unit 13, a destination candidate extraction unit 14, and a destination candidate presentation unit 15.
  • the keyword extraction unit 11 extracts a keyword for searching for a destination candidate from the speech recognized by the speech recognition device 21.
  • the speech recognized by the keyword extraction unit 11 includes not only the speech uttered by the user but also the speech output from a television or radio.
  • the keywords extracted by the keyword extraction unit 11 are, for example, words that can be used to estimate a place that meets the user's preference, such as the name of a facility, the name of an event, and the name of food.
  • the information search unit 12 communicates with the search server 23 and uses the search server 23 to search for a destination candidate corresponding to the keyword extracted by the keyword extraction unit 11. Further, the information search unit 12 can also re-search information on destination candidates in order to update information on destination candidates registered in the database 24.
  • the database management unit 13 manages information of destination candidates registered in the database 24. Specifically, the database management unit 13 registers, updates, and the like information on destination candidates in the database 24. For example, when the information search unit 12 detects a new destination candidate, the database management unit 13 additionally registers information of the destination candidate in the database 24. In addition, when the information search unit 12 re-searches the information on the destination candidate, the database management unit 13 updates the information on the destination candidate registered in the database 24 to the information newly detected. In addition, the database management unit 13 may set an expiration date to the information on the destination candidate registered in the database 24 and delete the information on the expiration date from the database 24.
  • the destination candidate extraction unit 14 extracts destination candidates from the database 24 via the database management unit 13 when predetermined conditions (hereinafter referred to as “destination candidate presentation conditions”) are satisfied.
  • the destination candidate presentation condition for example, it may be considered that the user gives a presentation instruction of the destination candidate, the user utters a specific keyword regarded as a presentation request of the destination candidate, and the like.
  • the instruction to present the destination candidate from the user may be an instruction input by the user using the operation input device 22 or a voice instruction input to the voice recognition device 21 by the user (for example, a voice such as "finding a destination”) ) May be.
  • a specific keyword considered to be a presentation request of a destination candidate for example, a keyword that suggests that the user is searching for a destination, such as "Where should I go?"
  • the destination candidate extraction unit 14 determines the validity of the destination candidate based on the information on the destination candidate registered in the database 24, and determines an inappropriate destination. Exclude candidates from the target of extraction. For example, the destination candidate extraction unit 14 may predict arrival times for each destination candidate based on the current position of the user and the current time, and may exclude facilities that can not arrive within business hours from extraction targets.
  • the destination candidate extraction unit 14 selects a destination candidate to be extracted from the database 24 based on the information on each destination candidate. For example, one destination candidate closest to the current position of the user may be extracted, or one or more destination candidates within a certain distance from the current position of the user may be extracted.
  • priority may be assigned to each destination candidate. For example, it is conceivable to give higher priority to destination candidates closer to the current position of the user.
  • the destination candidate extraction unit 14 selects the database 24 based on the number of times the keyword corresponding to each destination candidate is extracted by the keyword extraction unit 11.
  • the destination candidate to be extracted from may be selected.
  • the destination candidate extraction unit 14 may extract a destination candidate corresponding to the keyword with the largest number of extractions from the database 24.
  • the destination candidate extraction unit 14 may extract two or more destination candidates by giving high priority to the destination candidates in the order of the destination candidates corresponding to the keywords having a large number of extractions.
  • the destination candidate extraction unit 14 selects a destination candidate to be extracted from the database 24 based on the registration date or the update date of each destination candidate. You may For example, if the destination candidate extraction unit 14 extracts the destination candidate registered last from the database 24, it is possible to extract a destination candidate that matches the current preference of the user. In addition, the destination candidate extraction unit 14 may extract two or more destination candidates by giving high priority to the destination candidates in descending order of registration date or update date and time.
  • the destination candidate presenting unit 15 presents the information of the destination candidate extracted by the destination candidate extracting unit 14 to the user using the speaker and the screen of the information presentation device 25.
  • the user can recognize the information on the destination candidate extracted by the destination candidate extraction unit 14 from the voice, characters, images, etc. output from the information presentation device 25.
  • FIG. 2 and 3 are flowcharts showing the operation of the destination search support apparatus 10 according to the first embodiment.
  • FIG. 2 shows a process in which the destination search support device 10 registers destination candidate information in the database 24.
  • the destination search support device 10 extracts destination candidate information from the database 24. Show the process presented to the user.
  • step S101 the keyword extraction unit 11 checks whether the voice recognition device 21 recognizes a voice (step S101). If the speech recognition device 21 does not recognize speech (NO in step S101), step S101 is repeated.
  • the keyword extraction unit 11 extracts a keyword for searching for a destination candidate from the speech recognized by the speech recognition device 21 (step S102).
  • the keywords extracted by the keyword extraction unit 11 are, for example, words that can be used to estimate a place that meets the user's preference, such as the name of a facility, the name of an event, and the name of food. If such a keyword is not extracted (NO in step S103), the process returns to step S101.
  • the information search unit 12 searches for a destination candidate corresponding to the keyword using the database management unit 13 (step S104).
  • the database management unit 13 confirms whether the destination candidate detected by the information search unit 12 has already been registered in the database 24 (step S105). If the destination candidate is not registered in the database 24 (NO in step S105), the database management unit 13 registers the information on the destination candidate in the database 24 (step S106). If the destination candidate has already been registered in the database 24 (YES in step S105), the database management unit 13 updates the information of the destination candidate to the newly detected information (step S107). When the process of step S106 or step S107 is completed, the process returns to step S101, and the above operation is repeated.
  • the destination search support device 10 shown in FIG. 2 uses the search server 23 to search for a destination candidate corresponding to “Hanami”.
  • a destination candidate corresponding to “Hanami”.
  • the information (the name of the park, the address, the opening time, etc.) of the destination candidate detected by the information search unit 12 is registered in the database 24 by the database management unit 13 in step S106. Also, after that, when the destination candidate registered in the database 24 is detected again by the information searching unit 12, the information of the destination candidate in the database 24 is updated in step S107.
  • the keyword is selected in step S102.
  • the extraction unit 11 extracts the keywords “XX park” and “Hanami”, and the information search unit 12 searches for destination candidates corresponding to “XX park” and “Hanami” using the search server 23 in step S104. .
  • "XX park” is detected as a destination candidate.
  • the information (address, opening time, etc.) of “XX park” detected by the information search unit 12 is registered in the database 24 by the database management unit 13 in step S106. Also, after that, when “XX park” is detected again as a destination candidate by the information search unit 12, the information on “XX park” in the database 24 is updated in step S107.
  • step S102 when a voice "the YY event is being performed from December 10 to December 25" is output from the television or radio that the user is watching, and the voice is recognized by the voice recognition device 21,
  • step S104 the keyword extraction unit 11 extracts the keyword "YY event", and in step S104, the information search unit 12 searches for a destination candidate corresponding to "YY event" using the search server 23.
  • the place where the "YY event” is held is detected as a destination candidate.
  • Information on the holding place of the “YY event” detected by the information search unit 12 (address, holding schedule of the “YY event”, etc.) is registered in the database 24 by the database management unit 13 in step S106. Further, after that, when the holding place of the “YY event” is detected again as the destination candidate by the information search unit 12, the information in the database 24 is updated in step S107.
  • the destination candidate extraction unit 14 manages the database. Destination candidates are extracted from the database 24 via the unit 13 (step S201). Then, the information search unit 12 re-searches the information on the destination candidate extracted by the destination candidate extraction unit 14 using the search server 23 (step S202).
  • a voice instruction for example, a voice such as "search for a destination
  • the destination candidate extraction unit 14 manages the database. Destination candidates are extracted from the database 24 via the unit 13 (step S201). Then, the information search unit 12 re-searches the information on the destination candidate extracted by the destination candidate extraction unit 14 using the search server 23 (step S202).
  • the database management unit 13 determines whether it is necessary to update the destination candidate information in the database 24 based on the result of the re-search in step S202 (step S203). That is, the database management unit 13 checks whether the information on the destination candidate detected in step S202 is the same as the information on the destination candidate already registered in the database 24. If the information is the same, the update is unnecessary. If not, it is determined that updating is necessary.
  • the destination candidate presentation unit 15 uses the information presentation device 25 for the information on the destination candidate extracted by the destination candidate extraction unit 14. It is presented to the user (step S206).
  • the database management unit 13 newly detects the information on the destination candidate in the database 24 (the information detected in step S202) ) (Step S204). Furthermore, the destination candidate extraction unit 14 determines whether it is necessary to change the destination candidate (step S205). For example, if the destination candidate has become inappropriate due to, for example, the business schedule of the destination candidate extracted by the destination candidate extracting unit 14 being updated, it is necessary to change the destination candidate. It is judged. When it is determined that the change of the destination candidate is necessary (YES in step S205), the process returns to step S201, and the destination candidate extraction unit 14 extracts another destination candidate from the database 24. When it is determined that the change of the destination candidate is unnecessary (NO in step S205), the process proceeds to step S206, and the destination candidate presenting unit 15 sends the information of the destination candidate to the user using the information presentation device 25 To present.
  • the destination candidate extraction unit 14 waits for an instruction from the user for a certain period (step S207). At this time, if a change instruction of a destination candidate is received from the user (YES in step S207), the process returns to step S201, and the destination candidate extraction unit 14 extracts another destination candidate from the database 24. If there is no instruction to change the destination candidate from the user, the process of FIG. 3 ends.
  • the destination search support device 10 shown in FIG. 3 will be shown.
  • "XX park” is registered in the database 24 by the process of FIG.
  • the destination candidate extraction unit 14 extracts information of "XX park” from the database 24, and step S203.
  • the latest information on "XX Park” is searched, and in step S206, the destination candidate presentation unit 15 uses the destination candidate extraction unit 14 to "show that cherry blossoms are in full bloom in XX Park. How about going to XX Park? And voice output such as "?”
  • the place where the "YY event” is held is registered in the database 24 by the process of FIG.
  • the destination candidate extraction unit 14 selects information on the holding place of the "YY event” from the database 24 in step S201.
  • the latest information of "YY event” is extracted in step S203, and in step S206, the destination candidate presenting unit 15 uses the destination candidate extracting unit 14 "currently, the YY event is held in ZZ city. How about going to the YY event?
  • the destination search support apparatus 10 can present the user with the information on the destination candidate registered in the database 24 at any timing at which the destination candidate presentation condition is satisfied. it can. Since the information of the destination candidate based on the voice uttered by the user and the keyword extracted from the output voice of the television or radio being watched by the user is registered in the database 24, the destination search support apparatus 10 Information on candidate destinations based on the latest information can be presented to the user. In particular, since the information search unit 12 re-searches the information of the destination candidate immediately before presenting the information of the destination candidate to the user, real-time information of the destination candidate can be presented to the user.
  • the destination search support device 10 may be configured as an on-vehicle device (for example, a navigation device) or a server device on the Internet, or a portable terminal device (for example, a mobile phone, a smartphone, a tablet PC (personal computer), etc. May be an application program that operates in
  • FIG. 4 and FIG. 5 are each a diagram showing an example of the hardware configuration of the destination search support device 10.
  • Each function of the constituent elements (keyword extraction unit 11, information search unit 12, database management unit 13, destination candidate extraction unit 14 and destination candidate presentation unit 15) of destination search support device 10 shown in FIG. It is realized by the processing circuit 50 shown in FIG. That is, the destination search support apparatus 10 extracts a keyword from the voice, searches for a destination candidate based on the keyword, registers information of the detected destination candidate in the database, and presents a predetermined destination candidate When the condition is satisfied, the processing circuit 50 is provided for extracting destination candidates from the database and presenting information of the destination candidates extracted from the database to the user.
  • the processing circuit 50 may be dedicated hardware, or a processor (central processing unit (CPU: Central Processing Unit), processing unit, arithmetic unit, microprocessor, microcomputer, etc.) that executes a program registered in the memory. It may be configured using a DSP (also called a digital signal processor).
  • CPU Central Processing Unit
  • DSP also called a digital signal processor
  • the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), an FPGA (field-programmable) This corresponds to Gate Array) or a combination thereof.
  • ASIC application specific integrated circuit
  • FPGA field-programmable This corresponds to Gate Array
  • the functions of the components of the destination search support apparatus 10 may be realized by individual processing circuits, or those functions may be realized collectively by one processing circuit.
  • FIG. 5 shows an example of the hardware configuration of the destination search support device 10 when the processing circuit 50 is configured using the processor 51 that executes a program.
  • the functions of the components of the destination search support device 10 are realized by software or the like (software, firmware, or a combination of software and firmware).
  • Software and the like are described as a program and registered in the memory 52.
  • the processor 51 reads out and executes the program stored in the memory 52 to implement the functions of the respective units. That is, when executed by the processor 51, the destination search support apparatus 10 performs a process of extracting a keyword from speech, a process of searching for a destination candidate based on the keyword, and information of the detected destination candidate.
  • a process of registering in the database a process of extracting a destination candidate from the database when a predetermined destination candidate presentation condition is satisfied, and a process of presenting information of the destination candidate extracted from the database to the user;
  • a memory 52 for registering a program that is to be executed as a result In other words, this program can be said to cause the computer to execute the procedure and method of the operation of the components of the destination search support device 10.
  • the memory 52 is non-volatile or non-volatile such as, for example, random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM). Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), its drive device, etc., or any storage medium used in the future May be
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable read only memory
  • EEPROM electrically erasable programmable read only memory
  • the present invention is not limited to this, and some components of the destination search support apparatus 10 may be realized by dedicated hardware, and other components may be realized by software or the like.
  • the processing circuit 50 as dedicated hardware realizes the function
  • the processing circuit 50 as the processor 51 registers the program registered in the memory 52. It is possible to realize the function by reading and executing.
  • the destination search support apparatus 10 can realize each of the functions described above by hardware, software, or the like, or a combination thereof.
  • FIG. 6 is a functional block diagram showing the configuration of the destination search support system according to the second embodiment.
  • the configuration of the destination search support system of FIG. 6 is obtained by adding a navigation system 26 to the configuration of FIG.
  • the basic operation of the destination search support apparatus 10 of the second embodiment is the same as that of the first embodiment.
  • the user recognizes the adoption or rejection of the presented destination candidate (the destination candidate extracted from the database 24 by the destination candidate extraction unit 14) by the voice recognition device 21.
  • the user can input using the operation input device 22.
  • the destination candidate adopted by the user is transmitted from the destination candidate extraction unit 14 to the navigation system 26, and is set as the destination in the navigation system 26. Therefore, according to the destination search support device 10 of the second embodiment, the operation for the user to set the destination in the navigation system 26 can be simplified.
  • a predetermined time for example, 5 minutes
  • the flow of FIG. 3 is automatically activated when the navigation system 26 is activated and a predetermined time passes without setting the destination, and high convenience is obtained.
  • the navigation system 26 is externally attached to the destination search support device 10 in FIG. 6, the destination search support device 10 may be incorporated in the navigation system 26.
  • the navigation system 26 may be a system for vehicles or a system for pedestrians.
  • each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.

Abstract

目的地検索支援装置(10)において、キーワード抽出部(11)は、音声認識装置(21)が認識した音声からキーワードを抽出し、情報検索部(12)は、キーワード抽出部(11)が抽出したキーワードに基づいて目的地候補を検索する。情報検索部(12)により検出された目的地候補の情報は、データベース管理部(13)によってデータベース(24)に登録される。予め定められた目的地候補提示条件が満たされると、目的地候補抽出部(14)が、データベース(24)から目的地候補を抽出する。目的地候補提示部(15)は、目的地候補抽出部(14)が抽出した目的地候補の情報を、情報提示装置(25)を用いてユーザに提示する。

Description

目的地検索支援装置および目的地候補の提示方法
 本発明は、ユーザに目的地の候補を提示する目的地検索支援装置に関する。
 ユーザの会話内容から、ユーザが好む行き先(目的地)を推定する技術が提案されている。例えば下記の特許文献1には、ユーザの会話の音声からキーワードを抽出し、そのキーワードに関連する施設をデータベースから検索し、検出された施設を目的地候補としてユーザに提示する目的地推定提示装置が開示されている。
特開2009-115594号公報
 特許文献1の目的地推定提示装置は、地図データや施設データなどが予め格納されたデータベースを用いて施設の検索を行う。そのため、データベースに格納された情報(例えば施設の営業日や営業時間など)が古くなった場合に、不適切な施設(例えば休業中の施設など)が目的地候補として検出されるおそれがある。
 本発明は以上のような課題を解決するためになされたものであり、最新の情報に基づいて目的地候補をユーザに提示する目的地検索支援装置を提供することを目的とする。
 本発明に係る目的地検索支援装置は、音声からキーワードを抽出するキーワード抽出部と、キーワードに基づいて目的地候補を検索する情報検索部と、情報検索部により検出された目的地候補の情報をデータベースに登録するデータベース管理部と、予め定められた目的地候補提示条件が満たされると、データベースから目的地候補を抽出する目的地候補抽出部と、目的地候補抽出部により抽出された目的地候補の情報をユーザに提示する目的地候補提示部と、を備える。
 本発明に係る目的地検索支援装置では、ユーザに提示する目的地候補を抽出するためのデータベースに、音声から抽出されたキーワードに基づく目的地候補の情報が登録される。目的地検索支援装置が、当該データベースから目的地候補を抽出することにより、最新の情報に基づいた目的地候補の情報をユーザに提示することができる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る目的地検索支援システムの構成を示す機能ブロック図である。 実施の形態1に係る目的地検索支援装置が目的地候補の情報をデータベースに登録する処理を示すフローチャートである。 実施の形態1に係る目的地検索支援装置が目的地候補の情報をユーザに提示する処理を示すフローチャートである。 目的地検索支援装置のハードウェア構成の例を示す図である。 目的地検索支援装置のハードウェア構成の例を示す図である。 実施の形態2に係る目的地検索支援システムの構成を示す機能ブロック図である。
 <実施の形態1>
 図1は、本発明の実施の形態1に係る目的地検索支援システムの構成を示す機能ブロック図である。図1に示すように、目的地検索支援システムは、目的地検索支援装置10、音声認識装置21、操作入力装置22、検索サーバ23、データベース24および情報提示装置25を備えている。
 音声認識装置21は、ユーザが発話した音声(例えば、ユーザ同士の会話や独り言)、ユーザが視聴しているテレビやラジオの出力音声などを認識する音声認識エンジンを搭載した音声入力機器である。通常、音声認識装置は、ユーザが発話した音声を認識することに特化されており、例えばユーザが音声を入力する期間はテレビやラジオの出力音声を小さく絞るなどして、ユーザが発話した音声以外の音声を認識しないように構成されている。それに対し、実施の形態1の音声認識装置21は、ユーザが発話した音声だけでなく、テレビやラジオの出力音声も積極的に認識するように構成されている。
 操作入力装置22は、ユーザの操作を受け付ける入力機器である。操作入力装置22は、操作ボタンやキーボード等のハードウェアキーでもよいし、画面に表示されるアイコン等のソフトウェアキーでもよい。
 検索サーバ23は、入力されたキーワードに対応する情報をインターネット上で検索する検索エンジンを搭載するサーバである。検索サーバ23は、目的地検索支援装置10の外部に存在し、目的地検索支援装置10と検索サーバ23とは、インターネットを介した通信により接続される。検索サーバ23は、目的地検索支援装置10の動作とは独立してインターネットから各種の情報を収集することで、常に最新の情報を検索できるように構成されている。
 目的地検索支援装置10は、音声認識装置21が認識した音声からキーワードを抽出し、そのキーワードに対応する目的地候補を、検索サーバ23を用いて検索する。目的地検索支援装置10が検索する目的地候補の情報は、目的地候補の名称、住所および営業スケジュール(営業日および営業時間)、目的地候補で開催されるイベントの名称およびイベントの開催スケジュール(開催日および開催時間)のうちのいずれか1つ以上を含むものとする。
 データベース24は、目的地検索支援装置10が検索サーバ23を用いて検出した目的地候補の情報を登録するための記録媒体である。本実施の形態では、目的地検索支援装置10は、目的地候補の情報と共に、その検索に用いたキーワードも、データベース24に登録するものとする。目的地検索支援装置10は、データベース24に登録された目的地候補の情報を取得できるだけでなく、その検索に用いたキーワードや当該キーワードの検出回数などを参照することができる。
 情報提示装置25は、目的地検索支援装置10が目的地候補の情報をユーザに提示するための出力機器である。本実施の形態では、情報提示装置25は、目的地候補の情報を音声で出力するためのスピーカと、文字や画像(例えば地図)で表示するための画面とを備えるものとする。情報提示装置25は、スピーカおよび画面の片方だけを有するものでもよい。また、情報提示装置25の画面に、操作入力装置22としてのソフトウェアキーを表示させてもよく、その場合、操作入力装置22および情報提示装置25が1つのタッチパネルによって構成されてもよい。
 なお、図1では、音声認識装置21、操作入力装置22、データベース24および情報提示装置25が、目的地検索支援装置10に外付けされた構成を示したが、それらの一部または全部は、目的地検索支援装置10に内蔵されていてもよい。
 図1に示すように、目的地検索支援装置10は、キーワード抽出部11、情報検索部12、データベース管理部13、目的地候補抽出部14および目的地候補提示部15を備えている。
 キーワード抽出部11は、音声認識装置21が認識した音声から、目的地候補を検索するためのキーワードを抽出する。キーワード抽出部11が認識する音声には、ユーザが発話した音声だけでなく、テレビやラジオの出力音声も含まれる。キーワード抽出部11が抽出するキーワードは、例えば、施設の名称、イベントの名称、食べ物の名称など、ユーザの好みに合った場所の推定に利用できるワードである。
 情報検索部12は、検索サーバ23との通信を行い、検索サーバ23を用いて、キーワード抽出部11が抽出したキーワードに対応する目的地候補を検索する。また、情報検索部12は、データベース24に登録済みの目的地候補の情報を更新するために、目的地候補の情報を再検索することもできる。
 データベース管理部13は、データベース24に登録される目的地候補の情報を管理する。具体的には、データベース管理部13は、データベース24に対し、目的地候補の情報の登録、更新などを行う。例えば、情報検索部12が新たな目的地候補を検出したときには、データベース管理部13はその目的地候補の情報をデータベース24に追加登録する。また、情報検索部12が目的地候補の情報を再検索したときには、データベース管理部13は、データベース24に登録されている目的地候補の情報を、新たに検出された情報に更新する。また、データベース管理部13は、データベース24に登録する目的地候補の情報に有効期限を設け、有効期限が切れの情報をデータベース24から削除するようにしてもよい。
 目的地候補抽出部14は、予め定められた条件(以下「目的地候補提示条件」という)が満たされると、データベース管理部13を介して、データベース24から目的地候補を抽出する。目的地候補提示条件としては、例えば、ユーザから目的地候補の提示指示を受けること、目的地候補の提示要求とみなされる特定のキーワードをユーザが発話すること、などが考えられる。ユーザからの目的地候補の提示指示は、ユーザが操作入力装置22を用いて入力した指示でもよいし、ユーザが音声認識装置21に入力した音声指示(例えば「目的地を探して」などの音声)であってもよい。また、目的地候補の提示要求とみなされる特定のキーワードとしては、例えば「どこへ行こうかな?」など、ユーザが目的地を探していることを示唆するキーワードが考えられる。
 目的地候補抽出部14は、データベース24から目的地候補を抽出するにあたり、データベース24に登録されている目的地候補の情報に基づいて、目的地候補の妥当性を判断し、不適切な目的地候補を抽出対象から除外する。例えば、目的地候補抽出部14が、ユーザの現在位置と現在時刻とに基づいて各目的地候補への到着時刻を予想し、営業時間内に到着できない施設を抽出対象から除外するとよい。
 また、複数の目的地候補がデータベース24に登録されている場合、目的地候補抽出部14は、各目的地候補の情報に基づいて、データベース24から抽出する目的地候補を選択する。例えば、ユーザの現在位置から最も近い1つの目的地候補が抽出されてもよいし、ユーザの現在位置から一定距離内にある1つ以上の目的地候補が抽出されてもよい。目的地候補抽出部14が2つ以上の目的地候補をデータベース24から抽出する場合、それぞれの目的地候補に優先順位を付与してもよい。例えば、ユーザの現在位置に近い目的地候補ほど、高い優先順位が付与されるようにすることが考えられる。
 さらに、複数の目的地候補がデータベース24に登録されている場合、目的地候補抽出部14は、それぞれの目的地候補に対応するキーワードがキーワード抽出部11に抽出された回数に基づいて、データベース24から抽出する目的地候補を選択してもよい。例えば、目的地候補抽出部14が、抽出回数の最も多いキーワードに対応する目的地候補をデータベース24から抽出するとよい。また、目的地候補抽出部14が、抽出回数の多いキーワードに対応する目的地候補順に高い優先順位をつけて、2つ以上の目的地候補を抽出するようにしてもよい。
 また、複数の目的地候補がデータベース24に登録されている場合、目的地候補抽出部14は、それぞれの目的地候補の登録日時または更新日時に基づいて、データベース24から抽出する目的地候補を選択してもよい。例えば、目的地候補抽出部14が、最後に登録された目的地候補をデータベース24から抽出するようすれば、ユーザの現在の嗜好に合った目的地候補を抽出することができる。また、目的地候補抽出部14が、登録日時または更新日時が新しい目的地候補順に高い優先順位をつけて、2つ以上の目的地候補を抽出するようにしてもよい。
 目的地候補提示部15は、目的地候補抽出部14が抽出した目的地候補の情報を、情報提示装置25のスピーカおよび画面を用いてユーザに提示する。ユーザは、情報提示装置25から出力される音声、文字、画像などから、目的地候補抽出部14によって抽出された目的地候補の情報を認識することができる。
 図2および図3は、実施の形態1に係る目的地検索支援装置10の動作を示すフローチャートである。図2は、目的地検索支援装置10が目的地候補の情報をデータベース24に登録する処理を示しており、図3は、目的地検索支援装置10が目的地候補の情報をデータベース24から抽出してユーザに提示する処理を示している。
 まず、図2を参照し、目的地検索支援装置10が目的地候補の情報をデータベースに登録する処理を説明する。
 目的地検索支援装置10が起動すると、キーワード抽出部11は、音声認識装置21により音声が認識されたかどうかを確認する(ステップS101)。音声認識装置21が音声を認識していなければ(ステップS101でNO)、ステップS101が繰り返される。
 音声認識装置21が音声を認識すると(ステップS101でYES)、キーワード抽出部11は、音声認識装置21が認識した音声から目的地候補を検索するためのキーワードを抽出する(ステップS102)。キーワード抽出部11が抽出するキーワードは、例えば、施設の名称、イベントの名称、食べ物の名称など、ユーザの好みに合った場所の推定に利用できるワードである。そのようなキーワードが抽出されなかった場合は(ステップS103でNO)、ステップS101へと戻る。
 キーワード抽出部11によりキーワードが抽出された場合(ステップS103でYES)、情報検索部12が、データベース管理部13を用いて、そのキーワードに対応する目的地候補を検索する(ステップS104)。
 続いて、データベース管理部13が、情報検索部12が検出した目的地候補がデータベース24に登録済みかどうかを確認する(ステップS105)。当該目的地候補がデータベース24に未登録であれば(ステップS105でNO)、データベース管理部13は、その目的地候補の情報をデータベース24に登録する(ステップS106)。当該目的地候補が既にデータベース24に既に登録されていれば(ステップS105でYES)、データベース管理部13は、その目的地候補の情報を新たに検出された情報へと更新する(ステップS107)。ステップS106またはステップS107の処理が完了すると、ステップS101へと戻り、以上の動作が繰り返される。
 ここで、図2に示した目的地検索支援装置10の動作の具体例を示す。例えば、ユーザが「花見の季節だね」と発話し、その音声が音声認識装置21に認識された場合、ステップS102で、キーワード抽出部11が「花見」というキーワードを抽出し、ステップS104で、情報検索部12が検索サーバ23を用いて「花見」に対応する目的地候補を検索する。この場合、例えば花見のできる公園などが目的地候補として検出される。情報検索部12が検出した目的地候補の情報(公園の名称、住所、開園時間など)は、ステップS106で、データベース管理部13によりデータベース24に登録される。またその後、データベース24に登録済みの目的地候補が情報検索部12により再度検出されたときは、ステップS107で、データベース24内の当該目的地候補の情報が更新される。
 また例えば、ユーザが視聴中のテレビまたはラジオから「XX公園は花見をする観光客で賑わっています」という音声が出力され、その音声が音声認識装置21に認識された場合、ステップS102で、キーワード抽出部11が「XX公園」と「花見」というキーワードを抽出し、ステップS104で、情報検索部12が検索サーバ23を用いて「XX公園」および「花見」に対応する目的地候補を検索する。この場合、「XX公園」が目的地候補として検出される。情報検索部12が検出した「XX公園」の情報(住所、開園時間など)は、ステップS106で、データベース管理部13によりデータベース24に登録される。またその後、情報検索部12により「XX公園」が目的地候補として再度検出されたときは、ステップS107で、データベース24内の「XX公園」の情報が更新される。
 また例えば、ユーザが視聴中のテレビまたはラジオから「YYイベントは12月10日から12月25日まで行われています」という音声が出力され、その音声が音声認識装置21に認識された場合、ステップS102で、キーワード抽出部11が「YYイベント」というキーワードを抽出し、ステップS104で、情報検索部12が検索サーバ23を用いて「YYイベント」に対応する目的地候補を検索する。この場合、「YYイベント」の開催場所が目的地候補として検出される。情報検索部12が検出した「YYイベント」の開催場所の情報(住所、「YYイベント」の開催スケジュールなど)は、ステップS106で、データベース管理部13によりデータベース24に登録される。またその後、情報検索部12により「YYイベント」の開催場所が目的地候補として再度検出されたときは、ステップS107で、データベース24内の情報が更新される。
 次に、図3を参照し、目的地検索支援装置10が目的地候補の情報をユーザに提示する処理を説明する。図3のフローは、目的地候補提示条件が満たされたときに実行される。
 例えば、ユーザが音声指示(例えば「目的地を探して」などの音声)を音声認識装置21に入力するなどして目的地候補提示条件が満たされると、目的地候補抽出部14は、データベース管理部13を介して、データベース24から目的地候補を抽出する(ステップS201)。そして、情報検索部12が、目的地候補抽出部14により抽出された目的地候補の情報を、検索サーバ23を用いて再検索する(ステップS202)。
 続いて、データベース管理部13は、ステップS202での再検索の結果に基づいて、データベース24内の目的地候補の情報を更新する必要があるか否かを判断する(ステップS203)。すなわち、データベース管理部13は、ステップS202で検出された目的地候補の情報が、データベース24に既に登録されている当該目的地候補の情報と同じかどうかを確認し、同じであれば更新が不要、異なれば更新が必要と判断する。
 データベース24の更新が不要と判断された場合(ステップS203でNO)、目的地候補提示部15は、目的地候補抽出部14により抽出された目的地候補の情報を、情報提示装置25を用いてユーザに提示する(ステップS206)。
 一方、データベース24の更新が必要と判断された場合(ステップS203YES)、データベース管理部13は、データベース24内の当該目的地候補の情報を、新たに検出された情報(ステップS202で検出された情報)に更新する(ステップS204)。さらに、目的地候補抽出部14は、目的地候補の変更が必要か否かを判断する(ステップS205)。例えば、目的地候補抽出部14により抽出された目的地候補の営業スケジュールが更新になるなどして、当該目的地候補が不適切なものになった場合には、目的地候補の変更が必要と判断される。目的地候補の変更が必要と判断されたときは(ステップS205でYES)、ステップS201へ戻り、目的地候補抽出部14はデータベース24から別の目的地候補を抽出する。目的地候補の変更が不要と判断されたときは(ステップS205でNO)、ステップS206へ進み、目的地候補提示部15が、当該目的地候補の情報を、情報提示装置25を用いてユーザに提示する。
 目的地候補提示部15が目的地情報をユーザに提示した後、目的地候補抽出部14は、一定期間、ユーザからの指示を待つ(ステップS207)。このとき、ユーザから目的地候補の変更指示を受けた場合は(ステップS207でYES)、ステップS201へ戻り、目的地候補抽出部14がデータベース24から別の目的地候補を抽出する。ユーザから目的地候補の変更指示がなければ、図3の処理は終了する。
 ここで、図3に示した目的地検索支援装置10の動作の具体例を示す。例えば、図2の処理によって、データベース24に「XX公園」が登録されているものと仮定する。この場合、ユーザが音声認識装置21に「目的地を探して」という音声指示を入力すると、ステップS201で、目的地候補抽出部14がデータベース24から「XX公園」の情報を抽出し、ステップS203で「XX公園」の最新の情報が検索され、ステップS206で、目的地候補提示部15が、目的地候補抽出部14を用いて「XX公園では桜が満開です。XX公園へ行くのはいかがですか?」などの音声出力や文字表示を行う。
 また、図2の処理によって、データベース24に「YYイベント」の開催場所が登録されているものと仮定する。この場合、例えばユーザの「どこに行こうかな?」という発話が音声認識装置21に認識されると、ステップS201で、目的地候補抽出部14がデータベース24から「YYイベント」の開催場所の情報を抽出し、ステップS203で「YYイベント」の最新の情報が検索され、ステップS206で、目的地候補提示部15が、目的地候補抽出部14を用いて「現在、ZZ市ではYYイベントが開催されています。YYイベントへ行くのはいかがですか?」などの音声出力や文字表示を行う。
 このように、実施の形態1に係る目的地検索支援装置10は、目的地候補提示条件が満たされる任意のタイミングで、データベース24に登録されている目的地候補の情報をユーザに提示することができる。データベース24には、ユーザが発話した音声や、ユーザが視聴中のテレビやラジオの出力音声から抽出されたキーワードに基づく目的地候補の情報が登録されているため、目的地検索支援装置10は、最新の情報に基づいた目的地候補の情報をユーザに提示することができる。特に、ユーザに目的地候補の情報を提示する直前に、情報検索部12により当該目的地候補の情報の再検索が行われることで、ユーザに当該目的地候補のリアルタイムな情報を提示できる。
 なお、目的地検索支援装置10は、車載装置(例えばナビゲーション装置)やインターネット上のサーバ装置として構成されていてもよいし、携帯端末装置(例えば、携帯電話、スマートフォン、タブレットPC(パーソナルコンピュータ)等)で動作するアプリケーションプログラムであってもよい。
 図4および図5は、それぞれ目的地検索支援装置10のハードウェア構成の例を示す図である。図1に示した目的地検索支援装置10の構成要素(キーワード抽出部11、情報検索部12、データベース管理部13、目的地候補抽出部14および目的地候補提示部15)の各機能は、例えば図4に示す処理回路50により実現される。すなわち、目的地検索支援装置10は、音声からキーワードを抽出し、キーワードに基づいて目的地候補を検索し、検出された目的地候補の情報をデータベースに登録し、予め定められた目的地候補提示条件が満たされると、データベースから目的地候補を抽出し、データベースから抽出された目的地候補の情報をユーザに提示するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに登録されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
 処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。目的地検索支援装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
 図5は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における目的地検索支援装置10のハードウェア構成の例を示している。この場合、目的地検索支援装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に登録される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、目的地検索支援装置10は、プロセッサ51により実行されるときに、音声からキーワードを抽出する処理と、キーワードに基づいて目的地候補を検索する処理と、検出された目的地候補の情報をデータベースに登録する処理と、予め定められた目的地候補提示条件が満たされると、データベースから目的地候補を抽出する処理と、データベースから抽出された目的地候補の情報をユーザに提示する処理と、が結果的に実行されることになるプログラムを登録するためのメモリ52を備える。換言すれば、このプログラムは、目的地検索支援装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
 ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、目的地検索支援装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、目的地検索支援装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に登録されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、目的地検索支援装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <実施の形態2>
 図6は、実施の形態2に係る目的地検索支援システムの構成を示す機能ブロック図である。図6の目的地検索支援システムの構成は、図1の構成に対し、ナビゲーションシステム26を追加したものである。
 実施の形態2の目的地検索支援装置10の基本的な動作は、実施の形態1と同様である。ただし、実施の形態2の目的地検索支援装置10では、ユーザが、提示された目的地候補(目的地候補抽出部14によってデータベース24から抽出された目的地候補)の採否を、音声認識装置21または操作入力装置22を用いて入力できるように構成されている。そして、ユーザによって採用された目的地候補が、目的地候補抽出部14からナビゲーションシステム26へ送信され、ナビゲーションシステム26に目的地として設定される。よって実施の形態2の目的地検索支援装置10によれば、ユーザがナビゲーションシステム26に目的地を設定するための操作を簡略化できる。
 また、本実施の形態では、ナビゲーションシステム26が起動してから目的地が設定されないまま一定時間(例えば5分)が経過することを、目的地候補提示条件の1つとするとよい。その場合、ナビゲーションシステム26が起動して目的地が設定されないまま一定時間が経過すると、自動的に図3のフローが起動するようになり、高い利便性が得られる。
 図6では、ナビゲーションシステム26が目的地検索支援装置10に外付けされた構成としたが、目的地検索支援装置10はナビゲーションシステム26に内蔵されていてもよい。また、ナビゲーションシステム26は、車両用のシステムでもよいし、歩行者用のシステムでもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 10 目的地検索支援装置、11 キーワード抽出部、12 情報検索部、13 データベース管理部、14 目的地候補抽出部、15 目的地候補提示部、21 音声認識装置、22 操作入力装置、23 検索サーバ、24 データベース、25 情報提示装置、26 ナビゲーションシステム、50 処理回路、51 プロセッサ、52 メモリ。

Claims (11)

  1.  音声からキーワードを抽出するキーワード抽出部と、
     前記キーワードに基づいて目的地候補を検索する情報検索部と、
     前記情報検索部により検出された前記目的地候補の情報をデータベースに登録するデータベース管理部と、
     予め定められた目的地候補提示条件が満たされると、前記データベースから前記目的地候補を抽出する目的地候補抽出部と、
     前記目的地候補抽出部により抽出された前記目的地候補の情報をユーザに提示する目的地候補提示部と、
    を備える目的地検索支援装置。
  2.  前記音声はラジオまたはテレビの出力音声を含む、
    請求項1に記載の目的地検索支援装置。
  3.  前記情報検索部は、外部の検索サーバを用いて前記目的地候補を検索する、
    請求項1に記載の目的地検索支援装置。
  4.  前記情報検索部により検出された前記目的地候補が前記データベースに既に登録されている場合、前記データベース管理部は、前記データベースに登録されている前記目的地候補の情報を新たに検出された情報に更新する、
    請求項3に記載の目的地検索支援装置。
  5.  前記情報検索部は、前記目的地候補抽出部により抽出された前記目的地候補の情報を、外部の検索サーバを用いて再検索し、
     前記データベース管理部は、前記データベースに登録されている前記目的地候補の情報を新たに検出された情報に更新する、
    請求項3に記載の目的地検索支援装置。
  6.  前記データベースに前記目的地候補が複数登録されている場合、前記目的地候補抽出部は、前記データベースに登録されている複数の前記目的地候補の情報に基づいて、抽出する前記目的地候補を選択する、
    請求項1に記載の目的地検索支援装置。
  7.  前記データベースに前記目的地候補が複数登録されている場合、前記目的地候補抽出部は、前記データベースに登録されている複数の前記目的地候補に対応する前記キーワードの抽出回数に基づいて、抽出する前記目的地候補を選択する、
    請求項1に記載の目的地検索支援装置。
  8.  前記データベースに前記目的地候補が複数登録されている場合、前記目的地候補抽出部は、前記データベースに登録されている複数の前記目的地候補の登録日時または更新日時に基づいて、抽出する前記目的地候補を選択する、
    請求項1に記載の目的地検索支援装置。
  9.  前記データベースに登録される前記目的地候補の情報は、前記目的地候補の名称、住所および営業スケジュール、前記目的地候補で開催されるイベントの名称および開催スケジュールのうちのいずれか1つ以上を含む、
    請求項1に記載の目的地検索支援装置。
  10.  前記目的地候補提示条件は、
     前記ユーザから前記目的地候補の提示指示を受けること、
     目的地候補の提示要求とみなされる特定のキーワードをユーザが発話すること、
     ナビゲーションシステムが起動してから目的地が設定されないまま一定時間が経過すること、
    のいずれかである、
    請求項1に記載の目的地検索支援装置。
  11.  目的地検索支援装置における目的地候補の提示方法であって、
     前記目的地検索支援装置のキーワード抽出部が、音声からキーワードを抽出し、
     前記目的地検索支援装置の情報検索部が、前記キーワードに基づいて目的地候補を検索し、
     前記目的地検索支援装置のデータベース管理部が、前記情報検索部により検出された前記目的地候補の情報をデータベースに登録し、
     予め定められた目的地候補提示条件が満たされると、前記目的地検索支援装置の目的地候補抽出部が、前記データベースから前記目的地候補を抽出し、
     前記目的地検索支援装置の目的地候補提示部が、前記目的地候補抽出部により抽出された前記目的地候補の情報をユーザに提示する、
    目的地候補の提示方法。
PCT/JP2018/002247 2018-01-25 2018-01-25 目的地検索支援装置および目的地候補の提示方法 WO2019146034A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019567459A JPWO2019146034A1 (ja) 2018-01-25 2018-01-25 目的地検索支援装置および目的地候補の提示方法
PCT/JP2018/002247 WO2019146034A1 (ja) 2018-01-25 2018-01-25 目的地検索支援装置および目的地候補の提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002247 WO2019146034A1 (ja) 2018-01-25 2018-01-25 目的地検索支援装置および目的地候補の提示方法

Publications (1)

Publication Number Publication Date
WO2019146034A1 true WO2019146034A1 (ja) 2019-08-01

Family

ID=67394912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/002247 WO2019146034A1 (ja) 2018-01-25 2018-01-25 目的地検索支援装置および目的地候補の提示方法

Country Status (2)

Country Link
JP (1) JPWO2019146034A1 (ja)
WO (1) WO2019146034A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337361A (ja) * 1998-05-28 1999-12-10 Denso Corp ナビゲーション装置
JP2001289661A (ja) * 2000-04-07 2001-10-19 Alpine Electronics Inc ナビゲーション装置
JP2005077373A (ja) * 2003-09-03 2005-03-24 Denso Corp 情報報知装置及びプログラム
JP2008196998A (ja) * 2007-02-14 2008-08-28 Denso Corp ナビゲーション装置
JP2009058542A (ja) * 2007-08-29 2009-03-19 Pioneer Electronic Corp 情報報知装置、情報報知方法、情報報知プログラムおよび記録媒体
JP2010078484A (ja) * 2008-09-26 2010-04-08 Zenrin Datacom Co Ltd 訪問候補地提示装置、訪問候補地提示装置方法、およびコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337361A (ja) * 1998-05-28 1999-12-10 Denso Corp ナビゲーション装置
JP2001289661A (ja) * 2000-04-07 2001-10-19 Alpine Electronics Inc ナビゲーション装置
JP2005077373A (ja) * 2003-09-03 2005-03-24 Denso Corp 情報報知装置及びプログラム
JP2008196998A (ja) * 2007-02-14 2008-08-28 Denso Corp ナビゲーション装置
JP2009058542A (ja) * 2007-08-29 2009-03-19 Pioneer Electronic Corp 情報報知装置、情報報知方法、情報報知プログラムおよび記録媒体
JP2010078484A (ja) * 2008-09-26 2010-04-08 Zenrin Datacom Co Ltd 訪問候補地提示装置、訪問候補地提示装置方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2019146034A1 (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
US20190370398A1 (en) Method and apparatus for searching historical data
US10719507B2 (en) System and method for natural language processing
US9188456B2 (en) System and method of fixing mistakes by going back in an electronic device
US9666188B2 (en) System and method of performing automatic speech recognition using local private data
US10514268B2 (en) Search system
US10665242B2 (en) Creating modular conversations using implicit routing
US9715877B2 (en) Systems and methods for a navigation system utilizing dictation and partial match search
US9905248B2 (en) Inferring user intentions based on user conversation data and spatio-temporal data
JP2011513795A5 (ja)
JP2007323612A (ja) 情報取得装置、プログラム、及び情報取得方法
JP2007255897A (ja) ナビゲーションシステム並びに装置、その制御方法及び制御プログラム
JP7279636B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10943587B2 (en) Information processing device and information processing method
JP6896335B2 (ja) 音声認識装置および音声認識方法
CN105987707B (zh) 将导航目标数据输入到导航系统中
JP5364412B2 (ja) 検索装置
US20140067400A1 (en) Phonetic information generating device, vehicle-mounted information device, and database generation method
US9355639B2 (en) Candidate selection apparatus and candidate selection method utilizing voice recognition
JP6712940B2 (ja) 音声入力装置、音声入力方法
WO2019146034A1 (ja) 目的地検索支援装置および目的地候補の提示方法
JP2019174509A (ja) サーバ装置およびpoi読み方通知方法
US20150100317A1 (en) Speech recognition device
JP2006349427A (ja) 車載音声認識装置
JP6115202B2 (ja) 音声認識システム、方法およびプログラム
JP2005316022A (ja) ナビゲーション装置及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019567459

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18902263

Country of ref document: EP

Kind code of ref document: A1