JP2018081102A - Communication device, communication method, and program - Google Patents

Communication device, communication method, and program Download PDF

Info

Publication number
JP2018081102A
JP2018081102A JP2017240973A JP2017240973A JP2018081102A JP 2018081102 A JP2018081102 A JP 2018081102A JP 2017240973 A JP2017240973 A JP 2017240973A JP 2017240973 A JP2017240973 A JP 2017240973A JP 2018081102 A JP2018081102 A JP 2018081102A
Authority
JP
Japan
Prior art keywords
facility
map
voice
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017240973A
Other languages
Japanese (ja)
Inventor
悟 池田
Satoru Ikeda
悟 池田
数馬 藤原
Kazuma Fujiwara
数馬 藤原
洋介 森本
Yosuke Morimoto
洋介 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017240973A priority Critical patent/JP2018081102A/en
Publication of JP2018081102A publication Critical patent/JP2018081102A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a communication device, a communication method and a program with which it is possible to determine which facility a user is introduced to when the feature of some facility out of a plurality of searched pieces of facility information is introduced by voice.SOLUTION: The communication device searches for a plurality of facilities present in the vicinity of a prescribed point on the basis of a voice uttered by a user, outputs facility information SN about one of the plurality of facilities by voice, and moves the display range of a map so that the one facility is included in the map displayed on a display screen 23. Thus, as the user can acquire the facility information SN by voice, it is possible to grasp information relating to a facility along with position information displayed on a map, without having to steadily gaze at the display screen 23 while riding in a vehicle. Especially when the user is driving, it is possible to grasp information relating to a facility while paying attention to objects ahead.SELECTED DRAWING: Figure 12

Description

本発明は、ユーザの所望する施設を検索し、検索結果をユーザに通知する技術に関する。   The present invention relates to a technique for searching a facility desired by a user and notifying a user of a search result.

従来より、ナビゲーション機能等において目的地となる施設を検索した際、検索された施設の特徴を音声で報知するシステムが知られている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, there is known a system that, when searching for a destination facility in a navigation function or the like, informs the characteristics of the searched facility by voice (for example, see Patent Document 1).

例えば、ユーザがレストランを検索すると、付近のレストランが地図上に表示され、表示されたレストランの特徴が音声で紹介される。   For example, when a user searches for a restaurant, nearby restaurants are displayed on a map, and features of the displayed restaurant are introduced by voice.

このような検索機能を用いることで、ユーザは、例えば車両の走行中に車両内の画面を注視せずとも、検索結果の詳細を知ることができる。   By using such a search function, the user can know details of the search result without gazing at the screen inside the vehicle while the vehicle is running, for example.

特開2003−122656号公報JP 2003-122656 A

だたし、このような施設の検索では、検索により得られる施設の情報は必ずしも一つとは限らない。むしろ、複数の施設情報を提示し、所望の施設をユーザが自由に選択することが好ましい。   However, in such a facility search, the facility information obtained by the search is not necessarily one. Rather, it is preferable that a plurality of facility information is presented and the user freely selects a desired facility.

しかし、複数の施設情報を示して、いずれかの施設の特徴を音声で紹介すると、ユーザは提示されたどの施設について紹介されているのか判別できない。この場合、所望の施設をユーザが適宜選択できず、利便性の低下を招く。   However, if a plurality of facility information is shown and the features of any facility are introduced by voice, the user cannot determine which facility that has been presented. In this case, the user cannot select a desired facility as appropriate, resulting in a decrease in convenience.

本発明は、上記課題に鑑み、検索された複数の施設情報のうち、いずれかの施設の特徴が音声で紹介された場合、ユーザがどの施設について紹介されているか判別できる技術を提供することを目的とする。   In view of the above-described problems, the present invention provides a technique that allows a user to determine which facility is introduced when a feature of one of the searched facility information is introduced by voice. Objective.

上記課題を解決するため、請求項1の発明は、サーバ装置と通信を行う通信装置であって、地図を表示する表示手段と、ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する検索手段と、前記複数の施設に関する情報を前記サーバ装置から取得する情報取得手段と、前記複数の施設のうちの1つの施設について、前記情報を音声で出力する音声出力手段と、前記1つの施設が、前記表示手段で表示される前記地図に含まれるように前記地図の表示範囲を移動させる移動手段と、を備える。   In order to solve the above-mentioned problem, the invention of claim 1 is a communication device that communicates with a server device, and a plurality of facilities existing near a predetermined point based on a display means for displaying a map and a voice uttered by a user Search means for searching, information acquisition means for acquiring information on the plurality of facilities from the server device, voice output means for outputting the information by voice for one of the plurality of facilities, One facility includes moving means for moving the display range of the map so as to be included in the map displayed by the display means.

また、請求項2の発明は、請求項1に記載の通信装置において、前記音声出力手段が出力する前記情報は、前記1つの施設の詳細情報を含む。   According to a second aspect of the present invention, in the communication device according to the first aspect, the information output by the voice output unit includes detailed information of the one facility.

また、請求項3の発明は、請求項1または2に記載の通信装置において、前記音声出力手段は、前記ユーザの発する音声に基づき、前記複数の施設のうち、前記1つの施設とは異なる施設の前記情報を音声で出力する。   According to a third aspect of the present invention, in the communication device according to the first or second aspect, the voice output means is a facility different from the one facility among the plurality of facilities, based on a voice uttered by the user. The above information is output by voice.

また、請求項4の発明は、請求項3に記載の通信装置において、前記移動手段は、前記異なる施設が前記地図に含まれるように前記地図の表示範囲を移動させる。   According to a fourth aspect of the present invention, in the communication device according to the third aspect, the moving means moves the display range of the map so that the different facilities are included in the map.

また、請求項5の発明は、サーバ装置と通信を行う通信方法であって、(a)地図を表示する工程と、(b)ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する工程と、(c)前記複数の施設に関する情報を前記サーバ装置から取得する工程と、(d)前記複数の施設のうちの1つの施設について、前記情報を音声で出力する工程と、(e)前記1つの施設が、前記工程(a)で表示される前記地図に含まれるように前記地図の表示範囲を移動させる工程と、を備える。   Further, the invention of claim 5 is a communication method for communicating with a server device, wherein (a) a step of displaying a map, and (b) a plurality of facilities existing in the vicinity of a predetermined point based on a voice uttered by a user (C) obtaining information about the plurality of facilities from the server device; (d) outputting the information by voice for one of the plurality of facilities; (E) The one facility includes a step of moving a display range of the map so as to be included in the map displayed in the step (a).

また、請求項6の発明は、サーバ装置と通信を行う通信装置に含まれるコンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)地図を表示する工程と、(b)ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する工程と、(c)前記複数の施設に関する情報を前記サーバ装置から取得する工程と、(d)前記複数の施設のうちの1つの施設について、前記情報を音声で出力する工程と、(e)前記1つの施設が、前記工程(a)で表示される前記地図に含まれるように前記地図の表示範囲を移動させる工程と、を実行させる。   The invention of claim 6 is a program executable by a computer included in a communication device that communicates with a server device, wherein (a) a step of displaying a map on the computer, and (b) issued by a user. A step of searching for a plurality of facilities existing in the vicinity of a predetermined point based on voice; (c) a step of acquiring information on the plurality of facilities from the server device; and (d) one of the plurality of facilities. A facility for outputting the information by voice; and (e) moving the display range of the map so that the one facility is included in the map displayed in the step (a). Let it run.

請求項1ないし6の発明によれば、ユーザは、車両へ乗車中に表示画面を注視しなくとも、施設に関する情報を地図に表示された位置情報と共に把握することができる。   According to invention of Claim 1 thru | or 6, the user can grasp | ascertain the information regarding a facility with the positional information displayed on the map, without paying attention to a display screen during boarding to a vehicle.

図1は、通信システムの概要を示す図である。FIG. 1 is a diagram showing an outline of a communication system. 図2は、通信システムの構成を示す図である。FIG. 2 is a diagram illustrating a configuration of the communication system. 図3は、音声認識サーバの構成を示す図である。FIG. 3 is a diagram showing the configuration of the voice recognition server. 図4は、ユーザデータの例を示す図である。FIG. 4 is a diagram illustrating an example of user data. 図5は、検索サーバの構成を示す図である。FIG. 5 is a diagram showing the configuration of the search server. 図6は、地図サーバの構成を示す図である。FIG. 6 is a diagram showing the configuration of the map server. 図7は、通信システムの処理手順を示す図である。FIG. 7 is a diagram illustrating a processing procedure of the communication system. 図8は、画面の表示例を示す図である。FIG. 8 is a diagram illustrating a display example of the screen. 図9は、通信システムの処理手順を示す図である。FIG. 9 is a diagram illustrating a processing procedure of the communication system. 図10は、施設データの例を示す図である。FIG. 10 is a diagram illustrating an example of facility data. 図11は、通信システムの処理手順を示す図である。FIG. 11 is a diagram illustrating a processing procedure of the communication system. 図12は、画面の表示例を示す図である。FIG. 12 is a diagram illustrating a display example of the screen. 図13は、地図拡大処理の処理手順の詳細を示す図である。FIG. 13 is a diagram illustrating details of the processing procedure of the map enlargement processing. 図14は、地図拡大処理における画面の表示例を示す図である。FIG. 14 is a diagram illustrating a display example of a screen in the map enlargement process. 図15は、地図移動処理の処理手順の詳細を示す図である。FIG. 15 is a diagram showing details of the processing procedure of the map movement process. 図16は、地図移動処理の処理手順の詳細を示す図である。FIG. 16 is a diagram showing details of the map moving process. 図17は、地図移動処理における画面の表示例を示す図である。FIG. 17 is a diagram illustrating a display example of a screen in the map movement process. 図18は、通信システムの変形例を示す図である。FIG. 18 is a diagram illustrating a modification of the communication system.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.概要>
図1は、本実施の形態に係る通信システム10の概要を示す。通信システム10は、車両用装置2及び携帯端末3を備える。
通信システム10は、車両1に搭載される車両用装置2、車両1内に持ち込まれる携帯端末3を備える。
<1. Overview>
FIG. 1 shows an overview of a communication system 10 according to the present embodiment. The communication system 10 includes a vehicle device 2 and a mobile terminal 3.
The communication system 10 includes a vehicle device 2 mounted on the vehicle 1 and a mobile terminal 3 brought into the vehicle 1.

車両用装置2は、目的地までのルートを案内するナビゲーション機能を備える電子制御装置であり、ディスプレイや、スピーカ、マイクロフォンを備える。携帯端末3は、無線回線及びインターネット等のネットワーク4を介し、音声認識サーバ5、検索サーバ6、及び地図サーバ7と相互にデータを送受信する携帯型の通信装置である。また、車両用装置2と携帯端末3とは、互いにデータの送受信を行う。   The vehicular device 2 is an electronic control device having a navigation function for guiding a route to a destination, and includes a display, a speaker, and a microphone. The portable terminal 3 is a portable communication device that transmits and receives data to and from the voice recognition server 5, the search server 6, and the map server 7 via a network 4 such as a wireless line and the Internet. Moreover, the apparatus 2 for vehicles and the portable terminal 3 mutually transmit / receive data.

ユーザは、様々な音声を発声することで、例えば所望する施設(POI:Point of interest)を検索し、検索で得られた施設の位置をナビゲーション機能の目的地に設定することができる。   By uttering various voices, the user can search for a desired facility (POI: Point of interest), for example, and set the location of the facility obtained by the search as the destination of the navigation function.

このような通信システム10による施設の検索は、まず、車両用装置2がユーザの音声を取得し、その音声を示す音声データを現在地の座標データと共に携帯端末3に送信することで開始する。携帯端末3は、受信した音声データと座標データとを音声認識サーバ5に送信する。   The facility search by the communication system 10 is started when the vehicular device 2 first acquires the user's voice and transmits the voice data indicating the voice to the portable terminal 3 together with the coordinate data of the current location. The portable terminal 3 transmits the received voice data and coordinate data to the voice recognition server 5.

音声認識サーバ5は、音声データに音声認識処理を実行し、音声データを文字データに変換し、文字データを検索サーバ6へ、座標データを地図サーバ7へ送信する。   The voice recognition server 5 executes voice recognition processing on the voice data, converts the voice data into character data, and transmits the character data to the search server 6 and the coordinate data to the map server 7.

検索サーバ6は、文字データの意味に該当する施設をデータベースから検索し、検索結果を音声認識サーバ5に送信する。   The search server 6 searches the database for a facility corresponding to the meaning of the character data, and transmits the search result to the voice recognition server 5.

地図サーバ7は、座標データに基づき、現在地周辺の地図を生成し、地図データを音声認識サーバ5に送信する。音声認識サーバ5は、検索結果データと地図データとを携帯端末3に送信する。   The map server 7 generates a map around the current location based on the coordinate data, and transmits the map data to the voice recognition server 5. The voice recognition server 5 transmits the search result data and the map data to the mobile terminal 3.

携帯端末3は、検索結果データと地図データと基づき、検索結果を一覧で表示する地図画像を生成し、車両用装置2へ送信する。例えば、ユーザが「近くのイタリアン・レストラン」と発声した場合、該当するレストランが点在する現在地周辺の地図画像が生成される。   Based on the search result data and the map data, the mobile terminal 3 generates a map image that displays the search results as a list, and transmits the map image to the vehicle device 2. For example, when the user utters “Nearby Italian restaurants”, a map image around the current location dotted with the corresponding restaurants is generated.

そして、ユーザは、車両用装置2のディスプレイに表示された地図画像から一つの施設を選択することで、例えば地図に表示されたレストランの位置をナビゲーション機能の目的地に設定することができる。   And the user can set the position of the restaurant displayed on the map as the destination of the navigation function, for example, by selecting one facility from the map image displayed on the display of the vehicle device 2.

このように、車両用装置2及び携帯端末3は、音声認識サーバ5、検索サーバ6、及び地図サーバ7と協働することで、車両1のユーザの発声に応じた情報を提供する検索機能を実現する。   As described above, the vehicle device 2 and the mobile terminal 3 cooperate with the voice recognition server 5, the search server 6, and the map server 7 to provide a search function that provides information according to the utterance of the user of the vehicle 1. Realize.

以下、このような検索機能を実現する通信システム10について、詳細に説明する。   Hereinafter, the communication system 10 that realizes such a search function will be described in detail.

<2.構成>
<2−1.通信システムの構成>
図2は、通信システム10の備える車両用装置2及び携帯端末3の構成を示す。図2下段は車両用装置2の構成である。図2上段は携帯端末3の構成である。
<2. Configuration>
<2-1. Configuration of communication system>
FIG. 2 shows a configuration of the vehicle device 2 and the mobile terminal 3 included in the communication system 10. The lower part of FIG. 2 shows the configuration of the vehicle device 2. The upper part of FIG. 2 shows the configuration of the mobile terminal 3.

まず、車両用装置2の構成を説明する。車両用装置2は、制御部21、連携部22、ディスプレイ23、スピーカ24、マイクロフォン25、ナビゲーション部26、及び記憶部27を備える。   First, the configuration of the vehicle device 2 will be described. The vehicle device 2 includes a control unit 21, a cooperation unit 22, a display 23, a speaker 24, a microphone 25, a navigation unit 26, and a storage unit 27.

制御部21は、車両用装置2の全体を統括的に制御するマイクロコンピュータであり、CPU、RAM、及びROMを備える。なお、制御部21の備える各部の動作は後述する。   The control unit 21 is a microcomputer that comprehensively controls the entire vehicle apparatus 2 and includes a CPU, a RAM, and a ROM. In addition, operation | movement of each part with which the control part 21 is provided is mentioned later.

OLE_LINK1OLE_LINK2連携部22は、OLE_LINK1OLE_LINK2携帯端末3と近距離無線通信で接続し、携帯端末3と情報の送受信を行う。近距離無線通信は、例えば、ブルートゥース(Bluetooth:登録商標)や、ワイファイ(Wi-Fi:登録商標)、ジグビー(Zig Bee:登録商標)等の無線通信規格である。なお、連携部22による通信は、無線ではなく、有線で携帯端末3と通信可能に接続されてもよい。   The OLE_LINK1OLE_LINK2 linkage unit 22 is connected to the OLE_LINK1OLE_LINK2 mobile terminal 3 by short-range wireless communication and transmits / receives information to / from the mobile terminal 3. The near field communication is a wireless communication standard such as Bluetooth (registered trademark), Wi-Fi (registered trademark), Zig Bee (registered trademark), or the like. Note that the communication performed by the cooperation unit 22 may be connected to the mobile terminal 3 so as to be communicable with a wire instead of wirelessly.

ディスプレイ23は、文字や図形を表示し、ドライバへ情報を提示する表示装置である。例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイである。また、ディスプレイ23は、タッチパネルを備え、ユーザの操作に供される。   The display 23 is a display device that displays characters and graphics and presents information to the driver. For example, a liquid crystal display, a plasma display, or an organic EL display. The display 23 includes a touch panel and is used for user operations.

スピーカ24は、制御部31からの信号に応じた音声を出力し、車両1のドライバに音声情報を報知する。   The speaker 24 outputs a sound corresponding to the signal from the control unit 31 and notifies the driver of the vehicle 1 of the sound information.

マイクロフォン25は、ユーザの発話による音声を集音する。マイクロフォン25は、集音して得られた音声情報を制御部31に送信する。なお、道路上の騒音等を不必要に集音しないよう、正面方向を高感度に設計した単一指向性のマイクロフォンを採用することが望ましい。   The microphone 25 collects sound generated by the user's utterance. The microphone 25 transmits audio information obtained by collecting the sound to the control unit 31. It is desirable to use a unidirectional microphone that is designed with high sensitivity in the front direction so as not to unnecessarily collect noise on the road.

ナビゲーション部26は、目的地までの走行経路を案内するナビゲーション機能を実行する。ナビゲーション部26は、ユーザにより目的地が設定されると、GPS等の測位システムで取得される車両1の現在位置から目的地までの経路を導出し、ユーザへ案内を行う。   The navigation unit 26 executes a navigation function for guiding a travel route to the destination. When the destination is set by the user, the navigation unit 26 derives a route from the current position of the vehicle 1 to the destination acquired by a positioning system such as GPS and provides guidance to the user.

記憶部27は、各種データを記憶するメモリである。例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)、フラッシュメモリ、磁気ディスクを備えたハードディスクドライブ等の不揮発性の記憶装置である。記憶部27は、プログラム27aを記憶している。   The storage unit 27 is a memory that stores various data. For example, it is a nonvolatile storage device such as an EEPROM (Electrical Erasable Programmable Read-Only Memory), a flash memory, or a hard disk drive having a magnetic disk. The storage unit 27 stores a program 27a.

プログラム27aは、制御部21により読み出され、制御部21が車両用装置2を制御するために実行されるファームウェアである。   The program 27 a is firmware that is read by the control unit 21 and executed for the control unit 21 to control the vehicle device 2.

前述の制御部21は、記憶部27に記憶されたプログラム27aに従い、CPUの演算処理により実現される各種機能を備える。検索指示部21a、表示制御部21b、及び音声制御部21cは、プログラム27aに従い演算処理を行うことで実現される制御部21の機能である。   The control unit 21 described above has various functions realized by arithmetic processing of the CPU in accordance with the program 27a stored in the storage unit 27. The search instruction unit 21a, the display control unit 21b, and the voice control unit 21c are functions of the control unit 21 realized by performing arithmetic processing according to the program 27a.

検索指示部21aは、ユーザのタッチパネルへの入力やマイクロフォン25への発声に基づき、施設の検索条件を含む検索指示データを生成する。生成された検索指示データは、連携部22を介して携帯端末3から検索サーバ6へ送信される。   The search instruction unit 21a generates search instruction data including a facility search condition based on the user's input to the touch panel and the utterance to the microphone 25. The generated search instruction data is transmitted from the mobile terminal 3 to the search server 6 via the linkage unit 22.

表示制御部21bは、携帯端末3から送信された画像データをディスプレイ23に表示する。   The display control unit 21 b displays the image data transmitted from the mobile terminal 3 on the display 23.

音声制御部21cは、携帯端末3から送信された音声データをスピーカ24に出力する。また、音声制御部21cは、マイクロフォン25から送信される音声データを取得する。   The voice control unit 21 c outputs the voice data transmitted from the mobile terminal 3 to the speaker 24. The voice control unit 21c acquires voice data transmitted from the microphone 25.

目的地設定部21dは、ナビゲーション部26を制御し、ナビゲーション機能における目的地の設定を行う。   The destination setting unit 21d controls the navigation unit 26 and sets a destination in the navigation function.

次に、携帯端末3の構成について説明する。携帯端末3は、制御部31、通信部32、ディスプレイ33、スピーカ34、記憶部35、及び連携部36を備える。   Next, the configuration of the mobile terminal 3 will be described. The mobile terminal 3 includes a control unit 31, a communication unit 32, a display 33, a speaker 34, a storage unit 35, and a cooperation unit 36.

制御部31は、携帯端末3全体を統括的に制御するマイクロコンピュータであり、CPU、RAM、及びROMを備える。なお、制御部31の備える各部の動作は後述する。   The control unit 31 is a microcomputer that comprehensively controls the entire mobile terminal 3 and includes a CPU, a RAM, and a ROM. In addition, operation | movement of each part with which the control part 31 is provided is mentioned later.

通信部32は、ネットワーク4を介してサーバと無線通信を行い、施設の検索や地図画像データの取得等に必要なデータの送受信を行う。例えば、施設の検索データを検索サーバ6に送信し、検索サーバ6から検索処理の施設データを取得する。携帯端末3は、通信部32を備えることにより、車両用装置2とサーバとの間におけるデータの中継器として機能する。   The communication unit 32 performs wireless communication with the server via the network 4 and transmits / receives data necessary for facility search, map image data acquisition, and the like. For example, the facility search data is transmitted to the search server 6, and the facility data for the search process is acquired from the search server 6. The mobile terminal 3 includes the communication unit 32, thereby functioning as a data relay between the vehicle device 2 and the server.

ディスプレイ33は、文字や図形等の各種情報を表示して、車両1のドライバに情報を提示する表示装置である。例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等である。なお、ディスプレイ33は、タッチパネルを備え、ユーザの操作に供される。   The display 33 is a display device that displays various information such as characters and graphics and presents the information to the driver of the vehicle 1. For example, a liquid crystal display, a plasma display, an organic EL display, or the like. The display 33 includes a touch panel and is used for user operations.

スピーカ34は、制御部31からの信号に応じた音声を出力し、車両1のドライバに音声情報を報知する。   The speaker 34 outputs a sound corresponding to the signal from the control unit 31 and notifies the driver of the vehicle 1 of the sound information.

記憶部35は、フラッシュメモリ等の不揮発性の記憶装置であり、各種情報を記憶する。記憶部35は、プログラム35aを記憶している。   The storage unit 35 is a non-volatile storage device such as a flash memory, and stores various types of information. The storage unit 35 stores a program 35a.

プログラム35aは、制御部31により読み出され、制御部31が携帯端末3を制御するために実行されるファームウェアである。   The program 35 a is firmware that is read by the control unit 31 and executed for the control unit 31 to control the mobile terminal 3.

連携部36は、車両用装置2と近距離無線通信で接続し、車両用装置2と情報の送受信を行う。近距離無線通信は、例えば、ブルートゥース(Bluetooth:登録商標)や、ワイファイ(Wi-Fi:登録商標)、ジグビー(Zig Bee:登録商標)等の無線通信規格である。なお、連携部36による通信は、無線ではなく、有線で車両用装置2と通信可能に接続されてもよい。   The cooperation unit 36 is connected to the vehicle device 2 by short-range wireless communication, and transmits and receives information to and from the vehicle device 2. The near field communication is a wireless communication standard such as Bluetooth (registered trademark), Wi-Fi (registered trademark), Zig Bee (registered trademark), or the like. Note that the communication by the cooperation unit 36 may be connected to the vehicular apparatus 2 in a communicable manner instead of wirelessly.

画像処理部31aは、ディスプレイに表示してユーザへ提示すべき画像を生成する。例えば、検索された施設の位置を地図上で指し示すPOI画像を生成し、地図画像に重畳する。画像処理部31aは、画像を生成するとスクリーンキャプチャを行い、生成した画像データを車両用装置2及びディスプレイ33へ送信する。   The image processing unit 31a generates an image to be displayed on the display and presented to the user. For example, a POI image indicating the location of the found facility on the map is generated and superimposed on the map image. When the image processing unit 31 a generates an image, the image processing unit 31 a performs screen capture, and transmits the generated image data to the vehicle device 2 and the display 33.

音声処理部31bは、車両用装置2から送信された音声データに対し、雑音や無音期間の除去等を行う。音声処理部31bにより処理された音声データは、音声認識サーバ5へストリーミング送信され、音声認識サーバ5にて音声認識処理が行われる。   The sound processing unit 31b performs removal of noise and silence periods on the sound data transmitted from the vehicle device 2. The voice data processed by the voice processing unit 31b is streamed to the voice recognition server 5, and the voice recognition server 5 performs voice recognition processing.

<2−2.サーバの構成>
次に、ネットワーク4に接続された各サーバの構成について図3から図6を参照して説明する。まず、音声認識サーバ5について説明する。図3は、音声認識サーバ5の構成である。音声認識サーバ5は、制御部51、通信部52、及び記憶部53を備える。
<2-2. Server configuration>
Next, the configuration of each server connected to the network 4 will be described with reference to FIGS. First, the voice recognition server 5 will be described. FIG. 3 shows the configuration of the voice recognition server 5. The voice recognition server 5 includes a control unit 51, a communication unit 52, and a storage unit 53.

制御部51は、CPU、RAM、及びROMを備えたコンピュータである。後述の記憶部53に記憶されたプログラム53cに従いCPUが演算処理を実行し、制御部51の各種機能が実現される。制御部51は、音声認識部51a、情報生成部51bを備える。   The control unit 51 is a computer including a CPU, a RAM, and a ROM. The CPU executes arithmetic processing in accordance with a program 53c stored in the storage unit 53 described later, and various functions of the control unit 51 are realized. The control unit 51 includes a voice recognition unit 51a and an information generation unit 51b.

音声認識部51aは、後述の音声認識辞書53aを参照し、ユーザの音声の特徴量に基づいてユーザの音声を文字に変換する。そして、音声認識処理の認識結果として、ユーザの音声を表す文字データを生成する。そして音声認識部51aは、音声認識処理の認識結果の文字データから、助詞や接続詞等の不用語を消去し、単語を抽出する。抽出した単語と、後述の意味判定辞書53bとに基づき、ユーザの音声の意味を判定する。音声認識部51aは、検索条件を満足するデータを音声データベースから検索する。検索条件は、例えば、「近く」等の距離や「レストラン」等の施設種別である。そして、音声認識部51aは、音声認識処理の処理結果として、検索結果を携帯端末3に通信部52を介して送信する。   The voice recognition unit 51a refers to a voice recognition dictionary 53a described later, and converts the user's voice into characters based on the feature amount of the user's voice. Then, character data representing the user's voice is generated as a recognition result of the voice recognition process. Then, the speech recognition unit 51a erases insignificant terms such as particles and conjunctions from the character data of the recognition result of the speech recognition processing, and extracts words. The meaning of the user's voice is determined based on the extracted word and a meaning determination dictionary 53b described later. The voice recognition unit 51a searches the voice database for data that satisfies the search condition. The search condition is, for example, a distance such as “near” or a facility type such as “restaurant”. Then, the voice recognition unit 51a transmits the search result to the portable terminal 3 via the communication unit 52 as the processing result of the voice recognition process.

情報生成部51bは、音声認識部51aが抽出した単語に基づいてユーザの嗜好に関するデータを生成し、後述のユーザデータ53dに登録及び更新を行う。この際、発生頻度の高い単語を嗜好度の上位に登録する。   The information generation unit 51b generates data relating to user preferences based on the words extracted by the voice recognition unit 51a, and registers and updates the user data 53d described later. At this time, a word having a high occurrence frequency is registered at a higher preference level.

通信部52は、ネットワーク4に接続され、ネットワーク4に接続可能な他の通信端末やサーバとデータ通信を行う。このため、通信部52は、携帯端末3及び後述の検索サーバ6とネットワーク4を介し、データの送受信を行う。   The communication unit 52 is connected to the network 4 and performs data communication with other communication terminals and servers that can be connected to the network 4. For this reason, the communication unit 52 transmits and receives data via the mobile terminal 3 and the search server 6 described later and the network 4.

記憶部53は、例えば、ハードディスク等の不揮発性の記憶装置であり、各種情報を記憶している。記憶部53は、音声認識辞書53a、意味判定辞書53b、プログラム53c、及びユーザデータ53dを記憶している。   The storage unit 53 is a non-volatile storage device such as a hard disk, and stores various types of information. The storage unit 53 stores a voice recognition dictionary 53a, a meaning determination dictionary 53b, a program 53c, and user data 53d.

音声認識辞書53aは、音声認識部51aがユーザの音声を認識する際に参照する辞書である。音声認識辞書53aは、音声の特徴量と文字との対応関係を示すデータを含む。   The voice recognition dictionary 53a is a dictionary that is referred to when the voice recognition unit 51a recognizes the user's voice. The speech recognition dictionary 53a includes data indicating the correspondence between the feature amount of speech and characters.

意味判定辞書53bは、音声認識部51aによりユーザの音声の意味を判定する際に参照される辞書である。音声認識辞書53aは、単語と意味との対応関係を示すデータを含む。   The meaning determination dictionary 53b is a dictionary that is referred to when the meaning of the user's voice is determined by the voice recognition unit 51a. The speech recognition dictionary 53a includes data indicating the correspondence between words and meanings.

プログラム53cは、制御部51により読み出され、制御部51が音声認識サーバ5を制御するために実行されるファームウェアである。   The program 53 c is firmware that is read by the control unit 51 and executed for the control unit 51 to control the voice recognition server 5.

ユーザデータ53dは、音声認識部51aが検索対象とするデータベースである。ユーザデータ53dは、ナビゲーション機能の目的地の候補となる多数の施設データを含み、情報生成部51bがユーザ情報を生成する際に参照される。ユーザデータ53dに含まれるデータは、情報生成部51bにより常時更新される。   The user data 53d is a database to be searched by the voice recognition unit 51a. The user data 53d includes a large number of facility data that are candidates for the destination of the navigation function, and is referred to when the information generation unit 51b generates user information. Data included in the user data 53d is constantly updated by the information generation unit 51b.

図4は、ユーザデータ53dの例を示す。ユーザデータ53dは、「種類」と「嗜好度」とからなるマトリックス状のデータベースである。   FIG. 4 shows an example of the user data 53d. The user data 53d is a matrix database composed of “type” and “preference level”.

「種類」は、施設の種類、及び施設で提供されるサービスの種類である。例えば、コンビニエンスストア、ガソリンスタンド、レストラン、中華、イタリアン、和食等の単語が入力される。「嗜好度」は、ユーザの嗜好の高さを「最も好き」、「次に好き」、「好き」の3段階で示す指標である。「嗜好度」には、施設の種類、又は施設で提供されるサービスの種類を示す単語が入力される。   “Type” is the type of facility and the type of service provided at the facility. For example, words such as convenience store, gas station, restaurant, Chinese, Italian, Japanese food are input. The “preference level” is an index that indicates the level of user preference in three levels: “most like”, “next like”, and “like”. In the “preference level”, a word indicating the type of facility or the type of service provided at the facility is input.

例えば、「種類」がコンビニエンスストアの場合、ユーザのコンビニエンスストアの種類に対する嗜好として「最も好き」に「Aマート」、「次に好き」に「Bチェーン」、「好き」に「Cストア」が入力される。また、例えば、「種類」が「中華料理」の場合、ユーザの中華料理の種類に対する嗜好として「最も好き」に四川料理、「次に好き」に広東料理、「好き」に北京料理が入力される。   For example, when “type” is a convenience store, “A mart” is “most favorite”, “B chain” is “next favorite”, and “C store” is “like” as the user's preference for the type of convenience store. Entered. Also, for example, when “type” is “Chinese cuisine”, Sichuan cuisine is input to “most favorite” as a preference for the type of Chinese cuisine, Cantonese cuisine is input to “next favorite”, and Beijing cuisine is input to “like”. The

これらのデータがユーザデータ53dに登録されるタイミングは、ユーザの発声が音声認識サーバ5に入力された際である。音声認識部51aは、ユーザの発声に含まれる単語をデータベースに蓄積し、発生頻度の高い単語をユーザデータ53dに登録する。この際、発生頻度のより高い単語を嗜好度の高いデータに登録する。   The timing at which these data are registered in the user data 53d is when the user's utterance is input to the voice recognition server 5. The voice recognition unit 51a accumulates words included in the user's utterance in the database, and registers words with high occurrence frequency in the user data 53d. At this time, words having a higher occurrence frequency are registered in data having a high preference.

次に、検索サーバ6について説明する。図5は、検索サーバ6の構成を示す。検索サーバ6は、制御部61、通信部62、及び記憶部63を備える。   Next, the search server 6 will be described. FIG. 5 shows the configuration of the search server 6. The search server 6 includes a control unit 61, a communication unit 62, and a storage unit 63.

制御部61は、CPU、RAM、及びROMを備えたコンピュータである。後述の記憶部63に記憶されたプログラム63bに従いCPUが演算処理を実行し、制御部61の各種機能が実現される。   The control unit 61 is a computer including a CPU, a RAM, and a ROM. The CPU executes arithmetic processing in accordance with a program 63b stored in the storage unit 63 described later, and various functions of the control unit 61 are realized.

通信部62は、ネットワーク4に接続され、ネットワーク4に接続可能な他の通信端末やサーバとデータ通信を行う。通信部62は、音声認識サーバ5とネットワーク4を介し、データの送受信を行う。   The communication unit 62 is connected to the network 4 and performs data communication with other communication terminals and servers that can be connected to the network 4. The communication unit 62 transmits and receives data via the voice recognition server 5 and the network 4.

記憶部63は、例えば、ハードディスク等の不揮発性の記憶装置であり、各種情報を記憶している。記憶部53は、音声認識辞書53a、意味判定辞書53b、プログラム53c、及びユーザデータ53dを記憶している。   The storage unit 63 is a non-volatile storage device such as a hard disk and stores various types of information. The storage unit 53 stores a voice recognition dictionary 53a, a meaning determination dictionary 53b, a program 53c, and user data 53d.

前述の制御部61は、施設検索部61aを備える。施設検索部61aは、ユーザの発声内容と後述の施設データベース63aに基づき、コンビニエンスストアやガソリンスタンド等の施設の位置を検索し、施設情報を音声認識サーバ5へ送信する。施設情報は、「施設名称」、施設の距離及び所在地を示す「簡易情報」、施設の特徴を紹介する「詳細情報」、及び施設の所在を緯度及び経度で示す「位置情報」からなる。なお、施設の距離は、目的地又は現在位置からの距離である。   The aforementioned control unit 61 includes a facility search unit 61a. The facility search unit 61a searches for the location of a facility such as a convenience store or a gas station based on the user's utterance content and a facility database 63a described later, and transmits the facility information to the voice recognition server 5. The facility information includes “facility name”, “simple information” indicating the distance and location of the facility, “detailed information” introducing the features of the facility, and “position information” indicating the location of the facility in latitude and longitude. The distance of the facility is a distance from the destination or the current position.

次に、地図サーバ7について説明する。図6は、地図サーバ7の構成を示す。地図サーバ7は、制御部71、通信部72、及び記憶部73を備える。   Next, the map server 7 will be described. FIG. 6 shows the configuration of the map server 7. The map server 7 includes a control unit 71, a communication unit 72, and a storage unit 73.

OLE_LINK3OLE_LINK4制御部71は、OLE_LINK3OLE_LINK4CPU、RAM、及びROMを備えたコンピュータである。後述の記憶部73に記憶されたプログラム73bに従いCPUが演算処理を実行し、制御部61の各種機能が実現される。また、制御部71は、地図生成部71aを備える。   The OLE_LINK3OLE_LINK4 control unit 71 is a computer including an OLE_LINK3OLE_LINK4 CPU, a RAM, and a ROM. The CPU executes arithmetic processing according to a program 73b stored in a storage unit 73 described later, and various functions of the control unit 61 are realized. The control unit 71 includes a map generation unit 71a.

地図生成部71aは、携帯端末3から位置情報を取得し、後述の地図データベース73aを参照して当該位置周辺の地図を生成し、携帯端末3へ送信する。   The map generation unit 71 a acquires position information from the mobile terminal 3, generates a map around the position with reference to a map database 73 a described later, and transmits the map to the mobile terminal 3.

通信部72は、ネットワーク4に接続され、ネットワーク4に接続可能な他の通信端末やサーバとデータ通信を行う。通信部72は、携帯端末3とネットワーク4を介し、データの送受信を行う。   The communication unit 72 is connected to the network 4 and performs data communication with other communication terminals and servers that can be connected to the network 4. The communication unit 72 transmits and receives data via the mobile terminal 3 and the network 4.

記憶部73は、例えば、ハードディスク等の不揮発性の記憶装置であり、各種情報を記憶している。記憶部73は、地図データベース73a及びプログラム73bを記憶している。   The storage unit 73 is a non-volatile storage device such as a hard disk and stores various types of information. The storage unit 73 stores a map database 73a and a program 73b.

地図データベース73aは、緯度と経度に基づく道路の地図情報であり、ラスタデータ(画像)として記憶部73に記憶されている。また、地図データベース73aでは、地図データが、複数の縮尺別に用意される。例えば、「1/5000」、「1/1万」、「1/2万」、「1/4万」、「1/8万」、「1/16万」、「1/32万」、「1/64万」「1/128万」、及び「1/256万」の10種類の縮尺の地図データが地図データベース73aに含まれる。   The map database 73a is road map information based on latitude and longitude, and is stored in the storage unit 73 as raster data (images). In the map database 73a, map data is prepared for each of a plurality of scales. For example, “1/5000”, “1 / 10,000”, “1/20000”, “1 / 40,000”, “1 / 80,000”, “1 / 160,000”, “1 / 320,000” The map database 73a includes 10 kinds of scale map data of “1 / 640,000”, “1 / 128,000”, and “1 / 25.66 million”.

<3.処理手順>
次に、通信システム10の処理手順を図7から図17を用いて説明する。図7、図9、図11、図13、図15、及び図16は、通信システム10の処理のフローチャートを示す。図8、図12、図14、図17は、車両用装置2のディスプレイ23での表示例を示す。
<3. Processing procedure>
Next, the processing procedure of the communication system 10 will be described with reference to FIGS. 7, 9, 11, 13, 15, and 16 are flowcharts of processing of the communication system 10. 8, 12, 14, and 17 show examples of display on the display 23 of the vehicle device 2.

まず、図7を参照する。通信システム10の処理の開始前は、車両用装置2の制御部21が、ディスプレイ23に車両1周辺の地図を含むナビゲーション画像を表示する。この状態において、連携部22と連携部36とで無線通信が行われ、車両用装置2と携帯端末3との通信が確立されると、通信システム10の処理が開始される。   First, referring to FIG. Before the processing of the communication system 10 starts, the control unit 21 of the vehicle device 2 displays a navigation image including a map around the vehicle 1 on the display 23. In this state, when the wireless communication is performed between the link unit 22 and the link unit 36 and communication between the vehicle device 2 and the mobile terminal 3 is established, the processing of the communication system 10 is started.

処理が開始されると、車両用装置2の制御部21が、ユーザが施設の検索を指示するために、タッチパネル上の「検索」ボタンをタッチしたか否か判断する(ステップS11)。制御部21は、ユーザのタッチがないと判断すると(ステップS11でNo)、繰り返し「検索」ボタンへのタッチの有無を判断する。   When the process is started, the control unit 21 of the vehicle device 2 determines whether or not the user has touched the “search” button on the touch panel in order to instruct a facility search (step S11). If the control unit 21 determines that there is no user touch (No in step S11), the control unit 21 repeatedly determines whether or not the “search” button is touched.

一方、制御部21が、ユーザのタッチがあったと判断すると(ステップS11でYes)、音声制御部21cは、スピーカ34へ音声データを出力し、ユーザに対し音声入力の案内を行う(ステップS12)。音声入力の案内は、例えば、「お話し下さい」という音声をスピーカ34から出力する。   On the other hand, when the control unit 21 determines that the user has touched (Yes in step S11), the voice control unit 21c outputs voice data to the speaker 34 and provides voice input guidance to the user (step S12). . For voice input guidance, for example, a voice “Please speak” is output from the speaker 34.

ユーザが検索条件を発声すると、マイクロフォン25が音声を集音する(ステップS13)。音声制御部21cは、マイクロフォン25で集音した音声を音声データとして取得する。検索指示部21aは、連携部22を介し、音声データを検索指示命令と共に携帯端末3へ送信する(ステップS14)。なお、検索指示部21aにより送信される音声データは、検索指示命令に含まれる施設の検索条件である。   When the user utters the search condition, the microphone 25 collects sound (step S13). The voice control unit 21c acquires the voice collected by the microphone 25 as voice data. The search instruction unit 21a transmits the voice data to the portable terminal 3 together with the search instruction command via the cooperation unit 22 (step S14). Note that the audio data transmitted by the search instruction unit 21a is a facility search condition included in the search instruction command.

音声データが送信されると、検索指示部21aは、緯度及び経度を示す目的地の座標データを携帯端末3へ送信する(ステップS15)。なお、検索指示部21aにより送信される座標データも、検索指示命令に含まれる施設の検索条件である。   When the audio data is transmitted, the search instruction unit 21a transmits the coordinate data of the destination indicating the latitude and longitude to the portable terminal 3 (step S15). Note that the coordinate data transmitted by the search instruction unit 21a is also a facility search condition included in the search instruction command.

ここで、車両用装置2と携帯端末3との通信が確立された後のディスプレイ23の表示について説明する。図8は、車両用装置2と携帯端末3との通信が確立された後のディスプレイ23の表示例を示す。ユーザUSがタッチパネル上の「検索」ボタンをタッチすると、携帯端末3の制御部31は、キャラクタ画像CGを生成し、車両用装置2へ送信する。車両用装置2は、ディスプレイ23の左半面に車両1周辺の地図を含むナビゲーション画像NVを表示し、右半面にキャラクタ画像CGを表示する。   Here, the display on the display 23 after the communication between the vehicle device 2 and the portable terminal 3 is established will be described. FIG. 8 shows a display example on the display 23 after the communication between the vehicle device 2 and the portable terminal 3 is established. When the user US touches the “search” button on the touch panel, the control unit 31 of the mobile terminal 3 generates a character image CG and transmits it to the vehicle device 2. The vehicle device 2 displays a navigation image NV including a map around the vehicle 1 on the left half of the display 23, and displays a character image CG on the right half.

キャラクタ画像CGが表示されると、「お話し下さい。」との文字表示TPを表示すると共に、スピーカ24から「お話し下さい」と音声出力SNを行う。ユーザUSはこれに対し、例えば、「目的地付近で食事がしたい」等をマイクロフォン25へ向けて発話VOを行う。このようにキャラクタ画像CGを表示することで、ユーザUSは、キャラクタ画像CGとの対話形式により、円滑に施設の検索を行うことができる。   When the character image CG is displayed, a character display TP “Please speak” is displayed, and a voice output SN “Please speak” is performed from the speaker 24. In response to this, the user US utters VO to the microphone 25, for example, “I want to eat near the destination”. By displaying the character image CG in this way, the user US can smoothly search for facilities in an interactive format with the character image CG.

再度図7を参照し、通信システム10の処理手順を説明する。携帯端末3の制御部31は、連携部36を介し、ステップS14で車両用装置2から送信された音声データを受信する(ステップS31)。受信した音声データに対し、音声処理部は、雑音や無音期間の除去等の処理を行う(ステップS32)。   With reference to FIG. 7 again, the processing procedure of the communication system 10 will be described. The control part 31 of the portable terminal 3 receives the audio | voice data transmitted from the apparatus 2 for vehicles via step S14 via the cooperation part 36 (step S31). The voice processing unit performs processing such as removal of noise and silence period on the received voice data (step S32).

次に、携帯端末3の制御部31は、連携部36を介し、ステップS15で車両用装置2から送信された座標データを受信する(ステップS33)。制御部31は、車両用装置2から送信された音声データと座標データとを音声認識サーバ5へ送信する(ステップS34)。   Next, the control part 31 of the portable terminal 3 receives the coordinate data transmitted from the apparatus 2 for vehicles by step S15 via the cooperation part 36 (step S33). The control part 31 transmits the audio | voice data and coordinate data which were transmitted from the apparatus 2 for vehicles to the audio | voice recognition server 5 (step S34).

音声認識サーバ5は、携帯端末3から送信された音声データと座標データとを受信すると(ステップS51)、音声データに対して音声認識部51aが音声認識辞書53a及び意味判定辞書53bを参照して音声認識処理を行う(ステップS52)。音声認識処理により、例えば、「目的地」、「付近」、及び「食事」とういう単語が抽出され、新たに音声認識データとして編集される。   When the voice recognition server 5 receives the voice data and the coordinate data transmitted from the mobile terminal 3 (step S51), the voice recognition unit 51a refers to the voice recognition dictionary 53a and the semantic determination dictionary 53b for the voice data. A voice recognition process is performed (step S52). Through the speech recognition process, for example, the words “destination”, “near”, and “meal” are extracted and newly edited as speech recognition data.

音声認識部51aが音声認識処理を行うと、制御部51は音声認識処理を行った音声認識データと座標データとを検索サーバ6へ送信する(図9のステップS53)。   When the voice recognition unit 51a performs the voice recognition process, the control unit 51 transmits the voice recognition data and the coordinate data subjected to the voice recognition process to the search server 6 (step S53 in FIG. 9).

検索サーバ6が音声認識サーバ5から音声認識データと座標データとを受信すると(ステップS71及びステップS72)、施設検索部61aが、音声認識データと座標データとに基づき、施設データベース63aを参照して施設の検索を実行する(ステップS73)。施設の検索は、座標データにより緯度・経度で示される地点付近に存在する飲食店を施設データベース63aから検索し、施設データを生成して処理される。なお、座標データにより緯度・経度で示される地点付近とは、座標データで示される緯度及び経度を中心とした位置から10分程度で移動可能な範囲が適当である。   When the search server 6 receives the voice recognition data and the coordinate data from the voice recognition server 5 (steps S71 and S72), the facility search unit 61a refers to the facility database 63a based on the voice recognition data and the coordinate data. A facility search is executed (step S73). The facility search is processed by searching the restaurant database 63a for restaurants that exist in the vicinity of the point indicated by the latitude and longitude according to the coordinate data, and generating the facility data. It should be noted that the vicinity of the point indicated by the latitude / longitude by the coordinate data is suitably a range that can be moved in about 10 minutes from the position centered on the latitude and longitude indicated by the coordinate data.

施設データは、施設名称、簡易情報、詳細情報、及び位置情報からなるデータリストである。かかる施設データが、検索サーバ6で検索された施設である抽出施設に関する施設情報である。なお、施設データの簡易情報には、施設の所在地の他、現在位置、目的地、又は所定位置から施設までの距離データが含まれる。図10は、施設データIFの具体的な例を示す。例えば、施設名称として「イタリアン “buona”」、簡易情報として「距離:8.5km 所在地:中央区」、詳細情報として「イタリア直輸入の食材を使った自家製パスタ・・・」、位置情報として「北緯34度40分26秒 東経135度6分28秒」が入力される。施設データIFには、多数の施設が含まれ、これらの情報が各施設に該当して入力されている。   The facility data is a data list including a facility name, simple information, detailed information, and position information. Such facility data is the facility information regarding the extracted facility that is the facility searched by the search server 6. The simple information of the facility data includes the current location, the destination, or distance data from the predetermined location to the facility in addition to the location of the facility. FIG. 10 shows a specific example of the facility data IF. For example, “Italian“ buona ”” as the facility name, “Distance: 8.5 km Location: Chuo-ku” as the simple information, “Homemade pasta using ingredients imported directly from Italy” as the detailed information, “ North latitude 34 degrees 40 minutes 26 seconds East 135 degrees 6 minutes 28 seconds "is entered. The facility data IF includes a large number of facilities, and these pieces of information are input for each facility.

施設データが生成されると、検索サーバ6は、施設データを音声認識サーバ5へ送信する(ステップS74)。   When the facility data is generated, the search server 6 transmits the facility data to the voice recognition server 5 (step S74).

音声認識サーバ5は、検索サーバ6から施設データを受信すると(ステップS54)、施設データに含まれる施設の簡易情報及び詳細情報を音声データに変換し(ステップS55)、受信した施設データ及び作成した音声データを携帯端末3へ送信する(ステップS56)。   When the voice recognition server 5 receives the facility data from the search server 6 (step S54), the voice recognition server 5 converts the simple information and detailed information of the facility included in the facility data into voice data (step S55). Audio data is transmitted to the portable terminal 3 (step S56).

音声認識サーバ5は、施設データ及び音声データを携帯端末3へ送信すると、検索した施設の位置を示す座標データを地図サーバ7へ送信する(ステップS57)。   When the voice recognition server 5 transmits the facility data and the voice data to the portable terminal 3, the voice recognition server 5 transmits coordinate data indicating the position of the searched facility to the map server 7 (step S57).

地図サーバ7が音声認識サーバ5から施設の位置を示す座標データを受信すると(ステップS91)、地図生成部71aが、座標データで示される全ての施設の位置が含まれる範囲とその周辺範囲の地図画像を生成する(ステップS92)。なお、周辺範囲も含めて地図画像を生成するのは、ユーザが表示された範囲を超えて、すなわち地図を移動させて、地図を参照したいと望む場合もあるからである。   When the map server 7 receives the coordinate data indicating the location of the facility from the voice recognition server 5 (step S91), the map generation unit 71a includes a map including the range of all facilities indicated by the coordinate data and the surrounding range. An image is generated (step S92). The map image including the peripheral range is generated because the user may desire to refer to the map beyond the displayed range, that is, the map is moved.

地図生成部71aにより地図画像が生成されると、地図サーバ7の制御部71は、通信部72を介して音声認識サーバ5へ地図画像を送信する(ステップS93)。   When the map image is generated by the map generation unit 71a, the control unit 71 of the map server 7 transmits the map image to the voice recognition server 5 via the communication unit 72 (step S93).

音声認識サーバ5は、地図サーバ7から地図画像を受信すると、受信した地図画像を携帯端末3へ転送する(ステップS58)。   When the voice recognition server 5 receives the map image from the map server 7, it transfers the received map image to the portable terminal 3 (step S58).

携帯端末3が地図画像を受信すると(ステップS36)、画像処理部31aが、検索結果画像を生成する(ステップS37)。検索結果画像は、POIや目的地を表示する画像を地図画像に重畳した画像である。   When the mobile terminal 3 receives the map image (step S36), the image processing unit 31a generates a search result image (step S37). The search result image is an image obtained by superimposing an image displaying the POI and the destination on the map image.

画像処理部31aが検索結果画像を生成すると、制御部31は、連携部36を介し、検索結果画像データ、音声データ、及び施設データIFを車両用装置2へ送信する(ステップS38)。   When the image processing unit 31a generates the search result image, the control unit 31 transmits the search result image data, the sound data, and the facility data IF to the vehicle device 2 via the cooperation unit 36 (step S38).

車両用装置2は、携帯端末3から検索結果画像、音声データ、及び施設データを受信すると(図11のステップS16)、POIを示す画像と共に地図画像をディスプレイ23に表示する(ステップS17)。これにより、ユーザは目的地付近の地図とともにPOIの数と位置を把握できる。このように、地図サーバ7が地図画像を作成し、携帯端末3が地図画像とPOI画像を合成して検索結果画像を作成する。そして、車両用装置2が携帯端末3で作成された検索結果画像を表示する。   When receiving the search result image, the voice data, and the facility data from the portable terminal 3 (step S16 in FIG. 11), the vehicle device 2 displays a map image on the display 23 together with the image showing the POI (step S17). Thereby, the user can grasp | ascertain the number and position of POI with the map of the destination vicinity. Thus, the map server 7 creates a map image, and the mobile terminal 3 creates a search result image by combining the map image and the POI image. And the apparatus 2 for vehicles displays the search result image produced with the portable terminal 3. FIG.

次に、車両用装置2の制御部21は、表示された地図に複数の施設が存在するか否か判断する(ステップS18)。制御部21は、複数の施設が存在すると判断する場合(ステップS18でYes)、携帯端末3から送信された施設データを参照し、ユーザの嗜好度の最も高い施設を選択する(ステップS19)。表示制御部21bは、選択された施設のPIO画像に対し、施設名を表示する吹き出し画像を表示する(ステップS20)。すなわち、表示制御部21bは、施設情報の出力の対象となっている地図上の施設を特定する図形を表示する。地図上の施設を特定する図形は、地図上における施設の位置に該施設の情報を表示する図形でもよい。なお、制御部21は、複数の施設が存在しないと判断する場合(ステップS18でNo)、すなわち1つの施設しか存在しないと判断する場合は、かかる施設のPIO画像に対し、施設名を表示する吹き出し画像を表示する(ステップS20)。   Next, the control unit 21 of the vehicle device 2 determines whether or not there are a plurality of facilities on the displayed map (step S18). When determining that there are a plurality of facilities (Yes in Step S18), the control unit 21 refers to the facility data transmitted from the mobile terminal 3 and selects the facility having the highest user preference (Step S19). The display control unit 21b displays a balloon image for displaying the facility name with respect to the PIO image of the selected facility (step S20). That is, the display control unit 21b displays a graphic that identifies the facility on the map that is the target of the facility information output. The graphic for specifying the facility on the map may be a graphic for displaying information on the facility at the location of the facility on the map. If the control unit 21 determines that there are not a plurality of facilities (No in step S18), that is, if it is determined that only one facility exists, the control unit 21 displays the facility name on the PIO image of the facility. A balloon image is displayed (step S20).

施設のPIO画像に対し、施設名を表示する吹き出し画像が表示されると、音声制御部21cは、携帯端末3から送信された音声データに基づき、吹き出し画像を表示した施設の簡易情報の内容をスピーカ24から音声出力する(ステップS21)。これにより、ユーザは、車両1へ乗車中にディスプレイ23を注視しなくとも、施設に関する情報を地図上の位置情報と共に把握することができる。また、ユーザは、嗜好に合致する施設の情報を優先して取得することができる。さらに、ユーザは、施設に関する情報に加え、どの施設が音声出力されているかを吹き出し画像により直ちに判別することができる。   When a balloon image that displays a facility name is displayed with respect to the PIO image of the facility, the voice control unit 21c displays the contents of the simple information of the facility that displays the balloon image based on the voice data transmitted from the mobile terminal 3. Audio is output from the speaker 24 (step S21). Thereby, even if the user does not watch the display 23 while getting on the vehicle 1, the user can grasp the information about the facility together with the position information on the map. In addition, the user can preferentially acquire information on the facility that matches the preference. Furthermore, in addition to the information regarding the facility, the user can immediately determine which facility is outputting the sound based on the balloon image.

ここで、車両用装置2のディスプレイ23に施設のPIO画像に対し、施設名を表示する吹き出し画像が表示された例について説明する。図12は、目的地GL付近に存在する複数の施設のPIO画像PIのうち、ユーザの嗜好度の高いPIO画像PIaに吹き出し画像BLが表示された車両用装置2のディスプレイ23の表示である。このようなディスプレイ23の表示状態において、簡易情報SNとして「イタリアン ブゥオナ、距離は8.5km、所在地は中央区です」がスピーカ24から音声出力される。これにより、ユーザはディスプレイ23を注視せずとも、目的地GLとPIO画像PIaとの位置関係及び簡易情報SNを把握できる。   Here, an example in which a balloon image for displaying the facility name is displayed on the display 23 of the vehicle device 2 with respect to the PIO image of the facility will be described. FIG. 12 is a display on the display 23 of the vehicle apparatus 2 in which the balloon image BL is displayed on the PIO image PIa having a high user preference among the PIO images PI of a plurality of facilities existing near the destination GL. In such a display state of the display 23, “Italian Buona, distance is 8.5 km, and the location is Chuo-ku” is output from the speaker 24 as the simple information SN. Thereby, the user can grasp the positional relationship between the destination GL and the PIO image PIa and the simple information SN without gazing at the display 23.

再度図11を参照し、通信システム10の処理手順を説明する。ステップS21において、音声制御部21cが簡易情報を音声出力すると、表示制御部21bは、ユーザがディスプレイ23のタッチパネルを操作して地図の拡大操作を行っているか否か判断する(ステップS22)。なお、この場合、表示制御部21bは、タッチパネルに対する操作として、いわゆるピンチ・アウト操作を検出する。   With reference to FIG. 11 again, the processing procedure of the communication system 10 will be described. In step S21, when the voice control unit 21c outputs the simple information as a voice, the display control unit 21b determines whether the user operates the touch panel of the display 23 to perform a map enlargement operation (step S22). In this case, the display control unit 21b detects a so-called pinch-out operation as an operation on the touch panel.

表示制御部21bは、地図の拡大操作が行われていると判断すると(ステップS22でYes)、地図拡大処理を実行する(ステップS23)。なお、地図拡大処理の詳細は後述する。   When the display control unit 21b determines that a map enlargement operation is performed (Yes in step S22), the display control unit 21b executes a map enlargement process (step S23). Details of the map enlargement process will be described later.

一方、表示制御部21bは、地図の拡大操作が行われていないと判断すると(ステップS22でNo)、ユーザがディスプレイ23のタッチパネルを操作して地図の移動操作を行っているか否か判断する(ステップS24)。なお、この場合、表示制御部21bは、タッチパネルに対する操作として、いわゆるフリック操作を検出する。地図の移動とは、すなわち地図画像のスクロールである。   On the other hand, when the display control unit 21b determines that the map enlargement operation is not performed (No in step S22), the display control unit 21b determines whether the user operates the touch panel of the display 23 to perform the map movement operation ( Step S24). In this case, the display control unit 21b detects a so-called flick operation as an operation on the touch panel. The movement of the map is a scroll of the map image.

表示制御部21bは、地図の移動操作が行われていると判断すると(ステップS24でYes)、地図移動処理を実行する(ステップS25)。なお、地図移動処理の詳細は後述する。   When the display control unit 21b determines that a map moving operation is being performed (Yes in step S24), the display control unit 21b executes a map moving process (step S25). Details of the map moving process will be described later.

一方、表示制御部21bが、地図の移動操作が行われていないと判断すると(ステップS24でNo)、目的地設定部21dが、ユーザにより目的地設定の操作が行われているか否か判断する(ステップS26)。ユーザはPOIを含む地図を参照し、簡易情報を聴取することで、該当のPOIに立ち寄りたいと考える場合があるからである。   On the other hand, when the display control unit 21b determines that the map moving operation is not performed (No in step S24), the destination setting unit 21d determines whether the destination setting operation is performed by the user. (Step S26). This is because the user may want to stop at the POI by referring to the map including the POI and listening to the simple information.

目的地設定部21dは、目的地設定の操作が行われていると判断すると(ステップS26でYes)、ナビゲーション部26を制御し、目的地の設定処理を実行する(ステップS27)。これにより、ユーザは、関心のあるPOIへ向け、ナビゲーションの支援を受けつつ移動することができる。目的地の設定処理が実行されると、本処理手順は終了する。   If the destination setting unit 21d determines that the destination setting operation is being performed (Yes in step S26), the destination setting unit 21d controls the navigation unit 26 and executes destination setting processing (step S27). Accordingly, the user can move toward the POI in which the user is interested while receiving navigation assistance. When the destination setting process is executed, this processing procedure ends.

一方、目的地設定部21dが、目的地設定の操作が行われていないと判断すると(ステップS26でNo)、音声制御部21cが、ディスプレイ23に表示されているPOIの全てについて簡易情報が音声出力されたか否か判断する(ステップS28)。   On the other hand, when the destination setting unit 21d determines that the destination setting operation has not been performed (No in step S26), the voice control unit 21c outputs simple information for all the POIs displayed on the display 23. It is determined whether or not it has been output (step S28).

全POIについて簡易情報が音声出力されていないと判断すると(ステップS28でNo)、処理はステップS19に戻る。再度実行されるステップS19では、制御部21は、携帯端末3から送信された施設データを参照し、簡易情報が音声出力されていない施設のうちユーザの嗜好度の最も高い施設を選択する。以降、前述のステップS20以下の処理が実行される。   If it is determined that the simple information is not output for all POIs (No in step S28), the process returns to step S19. In step S <b> 19 executed again, the control unit 21 refers to the facility data transmitted from the mobile terminal 3 and selects the facility having the highest user preference among the facilities for which simple information is not output by voice. Thereafter, the processing after step S20 described above is executed.

一方、全POIについて簡易情報が音声出力されたと判断すると(ステップS28でYes)、本処理手順は終了する。簡易情報が全て音声出力された以上、ユーザに対してさらに通知すべき情報はないからである。   On the other hand, when it is determined that the simple information has been output for all the POIs (Yes in step S28), this processing procedure ends. This is because there is no information to be further notified to the user as long as all the simple information is output by voice.

次に、ステップS23における地図拡大処理の詳細について説明する。地図拡大処理とは、ディスプレイ23に表示された地図を拡大して表示させ、拡大された地図中に表示された施設の内容について、音声で詳細に説明を行う処理である。これにより、ユーザは、地図に表示された複数の施設のうち、関心のある施設について地図を拡大操作することで、施設周辺を拡大された地図で把握できると共に、施設の内容を音声で詳細に知ることができる。図13は、地図拡大処理の詳細を示すフローチャートである。   Next, the details of the map enlargement process in step S23 will be described. The map enlargement process is a process for enlarging and displaying the map displayed on the display 23 and explaining in detail the contents of the facility displayed in the enlarged map by voice. As a result, the user can grasp the area around the facility with the enlarged map by enlarging the map for the facility of interest among the plurality of facilities displayed on the map, and the contents of the facility in detail by voice. I can know. FIG. 13 is a flowchart showing details of the map enlargement process.

なお、本処理は、ユーザがタッチパネル上に親指と人差し指等を乗せ、二本の指の間隔を押し広げる操作、いわゆるピンチ・アウト操作を行った場合に実行される。処理が開始されると、表示制御部21bは、ユーザのピンチ・アウト操作に対応して地図を拡大して表示する(ステップS111)。   This process is executed when the user performs an operation of placing a thumb and forefinger or the like on the touch panel to increase the distance between the two fingers, that is, a so-called pinch-out operation. When the process is started, the display control unit 21b displays an enlarged map corresponding to the user's pinch-out operation (step S111).

地図が拡大して表示されると、音声制御部21cは、拡大された地図中に施設が存在するか否か判断する(ステップS112)。   When the map is enlarged and displayed, the voice control unit 21c determines whether or not a facility exists in the enlarged map (step S112).

音声制御部21cは、拡大された地図中に施設が存在しないと判断すると(ステップS112でNo)、地図中に施設が存在しない旨を、音声制御部21が音声で出力し、表示制御部21bがディスプレイ23に文字で表示してユーザへ通知する(ステップS113)。このように、音声と文字とで施設が存在しない旨をユーザに通知することで、ユーザに所望の施設を地図中に表示させるよう操作を促すことができる。ユーザに通知を行うと、表示制御部21bは、地図の拡大処理前の地図表示を行う(ステップS114)。拡大処理前の地図表示を行うと、本処理は図11に示す処理手順に戻り、ステップS26以下を実行する。   When the voice control unit 21c determines that no facility exists in the enlarged map (No in step S112), the voice control unit 21 outputs a voice indicating that no facility exists in the map, and the display control unit 21b. Is displayed in characters on the display 23 and notified to the user (step S113). In this way, by notifying the user that the facility does not exist by voice and text, the user can be prompted to display the desired facility on the map. When the user is notified, the display control unit 21b performs map display before the map enlargement process (step S114). If the map display before an expansion process is performed, this process will return to the process sequence shown in FIG.

一方、音声制御部21cが、拡大された地図中に施設が存在すると判断すると(ステップS112でYes)、表示制御部21bは、施設の位置を示すPOI画像に吹き出し画像を付加して表示する(ステップS115)。   On the other hand, when the voice control unit 21c determines that the facility exists in the enlarged map (Yes in step S112), the display control unit 21b adds the balloon image to the POI image indicating the location of the facility and displays the same (displayed) Step S115).

表示制御部21bが吹き出し画像を表示すると、音声制御部21cが、吹き出しが表示された施設の詳細情報を携帯端末3から送信された施設データから取得して音声出力する(ステップS116)。施設の詳細情報を音声出力すると、本処理は図11に示す処理手順に戻り、ステップS26以下を実行する。   When the display control unit 21b displays the balloon image, the voice control unit 21c acquires the detailed information of the facility where the balloon is displayed from the facility data transmitted from the mobile terminal 3, and outputs the information (step S116). When the detailed information on the facility is output by voice, the processing returns to the processing procedure shown in FIG.

次に、地図拡大処理におけるディスプレイ23に表示される画像の例を説明する。図14は、地図拡大処理におけるディスプレイ23に表示される画像の例を示す。図14上段は、ユーザがディスプレイ23のタッチパネルへピンチ・アウト操作POを行った図である。図において、ユーザは施設PIoを含む領域に対し、ピンチ・アウト操作POを行っている。   Next, an example of an image displayed on the display 23 in the map enlargement process will be described. FIG. 14 shows an example of an image displayed on the display 23 in the map enlargement process. The upper part of FIG. 14 is a diagram in which the user performs a pinch-out operation PO on the touch panel of the display 23. In the figure, the user performs a pinch-out operation PO for an area including the facility PIo.

図14下段は、ユーザのピンチ・アウト操作POに基づき、拡大された地図表示である。地図中に施設PIoが存在し、POI画像に吹き出し画像BLが付加されている。また、スピーカ24からは、施設の詳細情報である「広東菜館、中国人シェフによる本格的な中華料理と・・・」が音声出力されている。これにより、ユーザは所望の施設PIo周辺の様子を詳細に視認できると共に、施設の詳細な特徴を聴取できる。   The lower part of FIG. 14 is an enlarged map display based on the user's pinch-out operation PO. A facility PIo exists in the map, and a balloon image BL is added to the POI image. In addition, the speaker 24 outputs the detailed information of the facility “Guangdong vegetable building, authentic Chinese cuisine by a Chinese chef”. Thereby, the user can visually recognize the state around the desired facility PIo in detail and can listen to the detailed characteristics of the facility.

次に、ステップS25における地図移動処理の詳細について説明する。地図移動処理とは、ディスプレイ23に表示された地図を移動して表示させ、移動された地図中に施設が存在するか検索し、移動して表示された新たな地図に検索された施設を表示する処理である。これにより、ユーザは、地図を移動させることで、当初表示された地図周辺に存在する施設をも把握できる。なお、地図表示の移動は、ユーザによるタッチパネルへのフリック操作等により行われる。   Next, the details of the map movement process in step S25 will be described. The map movement process is to move and display the map displayed on the display 23, to search for the existence of facilities in the moved map, and to display the searched facilities on the new map that has been moved and displayed. It is processing to do. Thereby, the user can also grasp the facilities existing around the initially displayed map by moving the map. The map display is moved by a flick operation on the touch panel by the user.

図15及び図16は、地図移動処理の詳細を示すフローチャートである。なお、車両用装置が地図移動処理に関する処理を実行すると、実行された処理に対応して携帯端末3、音声認識サーバ5、検索サーバ6も所定の処理を実行する。   15 and 16 are flowcharts showing details of the map movement process. In addition, when the apparatus for vehicles performs the process regarding a map movement process, the portable terminal 3, the speech recognition server 5, and the search server 6 will also perform a predetermined process corresponding to the performed process.

本処理は、ユーザがタッチパネルに触れた指をスライドさせる操作、いわゆるフリック操作を行った場合に実行される。処理が開始されると、表示制御部21bは、ユーザのフリック操作に対応して地図を移動して表示する(ステップS211)。なお、地図データは、前述の通り表示範囲に隣接する範囲も予め取得しているので、新たに地図データを取得する必要はない。移動範囲が大きく、新たな地図データが必要な場合は、地図サーバ7から取得すればよい。   This process is executed when the user performs an operation of sliding a finger touching the touch panel, a so-called flick operation. When the process is started, the display control unit 21b moves and displays the map in response to the user's flick operation (step S211). In addition, since the map data has also acquired beforehand the range adjacent to a display range as mentioned above, it is not necessary to acquire map data newly. What is necessary is just to acquire from the map server 7, when a movement range is large and new map data is required.

地図を移動して表示すると、音声制御部21cは、ユーザがマイクロフォン25へ発声を行ったか否か判断する(ステップS212)。ユーザの発声がないと判断する場合(ステップS212でNo)、処理は、ステップS211に戻り、地図表示を継続すると共にマイクロフォン25へ発声があるか判断する。なお、ユーザによる更なる地図移動のためのフリック操作の有無を判断し、かかる操作があった場合に地図を移動させて表示してもよい。   When the map is moved and displayed, the voice control unit 21c determines whether or not the user has uttered the microphone 25 (step S212). If it is determined that there is no user utterance (No in step S212), the process returns to step S211 to continue the map display and determine whether there is utterance to the microphone 25. Note that the presence or absence of a flick operation for further map movement by the user may be determined, and the map may be moved and displayed when such operation is performed.

一方、音声制御部21cが、ユーザがマイクロフォン25へ発声を行ったと判断すると(ステップS212でNo)、マイクロフォン25で集音した音声データを携帯端末3へ送信する(ステップS213)。音声データを受信した携帯端末3は、音声データを音声認識サーバ5へ転送する(ステップS231)。   On the other hand, when the voice control unit 21c determines that the user has uttered the microphone 25 (No in step S212), the voice data collected by the microphone 25 is transmitted to the portable terminal 3 (step S213). The mobile terminal 3 that has received the voice data transfers the voice data to the voice recognition server 5 (step S231).

音声認識サーバ5は、音声データを受信すると(ステップS251)、音声認識処理を実行し(ステップS252)、音声認識処理の結果データを携帯端末3へ送信する(ステップS253)。   When receiving the voice data (step S251), the voice recognition server 5 executes the voice recognition process (step S252), and transmits the result data of the voice recognition process to the portable terminal 3 (step S253).

携帯端末3は、音声認識処理の結果データを音声認識サーバ5から受信すると、車両用装置2へ転送する(ステップS232)。   When the portable terminal 3 receives the result data of the voice recognition process from the voice recognition server 5, the portable terminal 3 transfers it to the vehicle device 2 (step S232).

車両用装置2が音声認識処理の結果データを携帯端末3から受信すると(ステップS214)、音声制御部21cは、音声認識処理された音声が所定の音声であるか、すなわちユーザが所定の発声をしたか否か判断する(ステップS215)。なお、所定の発声とは、「この辺り」や「この付近」等の位置を表す言葉であり、かつ否定的意味の含まない言葉の発声である。このような言葉が、ユーザが表示されている地図において施設の検索を望むと判断できるからである。また、ユーザの発声が所定の発声であるか否かの判断処理(ステップS215)、及びかかる処理に付随する処理(ステップS216)は、携帯端末3又はサーバ5で行ってもよい。   When the vehicular device 2 receives the result data of the voice recognition process from the mobile terminal 3 (step S214), the voice control unit 21c determines whether the voice subjected to the voice recognition process is a predetermined voice, that is, the user makes a predetermined utterance. It is determined whether or not (step S215). The predetermined utterance is a utterance of a word that represents a position such as “this neighborhood” or “this neighborhood” and does not have a negative meaning. This is because such a word can be determined that the user desires to search for facilities on the displayed map. Further, the determination process of whether or not the user's utterance is a predetermined utterance (step S215) and the process accompanying the process (step S216) may be performed by the mobile terminal 3 or the server 5.

音声制御部21cが、音声認識処理された音声が所定の音声でないと判断する場合(ステップS215でNo)、処理は、ステップS211に戻り、ユーザによる更なる地図移動のためのフリック操作及びマイクロフォン25への発声に備えて待機する。   When the voice control unit 21c determines that the voice subjected to the voice recognition process is not a predetermined voice (No in step S215), the process returns to step S211 to perform a flick operation and a microphone 25 for further map movement by the user. Wait for the voice to speak.

一方、音声制御部21cが、音声認識処理された音声が所定の音声であると判断する場合(ステップS215でYes)、検索指示部21aは、移動した地図の表示上の中心点の座標データを検索指示命令と共に携帯端末3へ送信する(図16のステップS216)。なお、検索指示部21aにより送信される座標データは、検索指示命令に含まれる施設の検索条件である。また、座標データは、緯度及び経度を示すデータである。   On the other hand, when the voice control unit 21c determines that the voice subjected to the voice recognition process is a predetermined voice (Yes in step S215), the search instruction unit 21a uses the coordinate data of the center point on the display of the moved map. It transmits to the portable terminal 3 with a search instruction | indication command (step S216 of FIG. 16). Note that the coordinate data transmitted by the search instruction unit 21a is a facility search condition included in the search instruction command. The coordinate data is data indicating latitude and longitude.

座標データを受信した携帯端末3は、受信した座標データを音声認識サーバ5へ転送する(ステップS233)。そして、座標データを受信した音声認識サーバ5は、受信した座標データを検索サーバ6へ転送する(ステップS254)。   The mobile terminal 3 that has received the coordinate data transfers the received coordinate data to the voice recognition server 5 (step S233). Then, the voice recognition server 5 that has received the coordinate data transfers the received coordinate data to the search server 6 (step S254).

検索サーバ6が座標データを受信すると(ステップS271)、施設検索部61aが座標データで示される緯度及び経度を中心とした所定範囲内において、前述の手法により施設の検索を行う(ステップS272)。なお、所定範囲とは、座標データで示される緯度及び経度を中心とした位置から10分程度で移動可能な範囲が適当である。検索サーバ6は、施設の検索を行うと、施設データIFを生成し、生成した施設データIFを音声認識サーバ5へ送信する(ステップS273)。   When the search server 6 receives the coordinate data (step S271), the facility search unit 61a searches for the facility by the above-described method within a predetermined range centered on the latitude and longitude indicated by the coordinate data (step S272). The predetermined range is suitably a range that can be moved in about 10 minutes from the position centered on the latitude and longitude indicated by the coordinate data. When searching for the facility, the search server 6 generates a facility data IF and transmits the generated facility data IF to the voice recognition server 5 (step S273).

音声認識サーバ5が検索サーバ6から施設データIFを受信すると(ステップS255)、情報生成部51bが施設データIFから音声データを作成する(ステップS256)。音声データは、施設データIFに含まれる施設の簡易情報及び詳細情報をスピーカ24から音声出力可能なデータ形式としたデータである。音声認識サーバ5は、音声データが作成されると、検索サーバ6から受信した施設データ及び作成した音声データを携帯端末3へ送信する(ステップS257)。   When the voice recognition server 5 receives the facility data IF from the search server 6 (step S255), the information generating unit 51b creates voice data from the facility data IF (step S256). The sound data is data in a data format in which simple information and detailed information of the facility included in the facility data IF can be output from the speaker 24 as sound. When the voice data is created, the voice recognition server 5 transmits the facility data received from the search server 6 and the created voice data to the portable terminal 3 (step S257).

携帯端末3は、施設データ及び音声データを音声認識サーバ5から受信すると(ステップS234)、検索結果画像を生成し(ステップS235)、生成した検索結果画像及び施設データを車両用装置2へ送信する(ステップS236)。ここで生成される検索結果画像は、POI画像及び吹き出し画像である。   When the portable terminal 3 receives the facility data and voice data from the voice recognition server 5 (step S234), the portable terminal 3 generates a search result image (step S235), and transmits the generated search result image and facility data to the vehicle device 2. (Step S236). The search result image generated here is a POI image and a balloon image.

車両用装置2が、検索結果画像及び施設データを携帯端末3から受信すると(ステップS217)、処理は図11のフローチャートへ戻り、ステップS17以降の処理が実行される。すなわち、車両用装置2の表示制御部21bにより、携帯端末3から受信した検索結果画像及び施設データに基づき、ユーザにより移動された地図にPOI画像及び吹き出し画像が付加されて表示される。これにより、ユーザは、地図を移動して所定の発声を行うことで、関心のある地点に立地する施設を参照することが可能となる。   When the vehicle device 2 receives the search result image and the facility data from the portable terminal 3 (step S217), the process returns to the flowchart of FIG. 11, and the processes after step S17 are executed. That is, the display control unit 21b of the vehicle device 2 displays the POI image and the balloon image added to the map moved by the user based on the search result image and the facility data received from the portable terminal 3. Thereby, the user can refer to a facility located at a point of interest by moving the map and performing a predetermined utterance.

次に、地図移動処理におけるディスプレイ23に表示される画像の例を説明する。図17は、地図移動処理においてディスプレイ23に表示される画像の例を示す。図17上段は、ユーザがディスプレイ23のタッチパネルに対し、画面右端から左側へフリック操作FLを行った図である。   Next, an example of an image displayed on the display 23 in the map movement process will be described. FIG. 17 shows an example of an image displayed on the display 23 in the map movement process. The upper part of FIG. 17 is a diagram in which the user performs a flick operation FL on the touch panel of the display 23 from the right end of the screen to the left side.

図17中段は、ユーザUSのフリック操作FLにより、地図が移動して表示され、ユーザUSが「この付近」と発声VOを行った図である。移動して表示された地図には、目的地マーク「G」が画面の左端に移動している。また、POI画像PIは一つのみ表示されている。なお、前述の通り、「この辺り」や「この付近」等の位置を表し、かつ否定的意味の含まない言葉は、ユーザUSが表示されている地図において施設の検索を望むと判断できる言葉である。   The middle part of FIG. 17 is a diagram in which the map is moved and displayed by the user US flick operation FL, and the user US utters “this neighborhood” and utters VO. The destination mark “G” has moved to the left end of the screen in the moved and displayed map. Only one POI image PI is displayed. Note that, as described above, words that indicate positions such as “this neighborhood” and “this neighborhood” and that do not include a negative meaning are words that can be determined to search for a facility on the map on which the user US is displayed. is there.

図17下段は、ユーザの発声に基づき、移動された地図上における施設の検索結果がPIO画像として表示され、かつ最もユーザの嗜好度の高い施設PIaの簡易情報が音声出力された図である。地図中に複数の施設PIが存在し、施設PIaに吹き出し画像BLが付加されている。また、スピーカ24からは、施設PIaの簡易情報SNである「蕎麦処K、距離は18.8km、所在地は東灘区です」が音声出力されている。これにより、ユーザは地図を移動して所定の発声を行うことで、関心のある地点に立地し、かつ嗜好度の高い施設PIaの位置を視認できると共に、施設PIaの簡易な情報を聴取できる。   The lower part of FIG. 17 is a diagram in which, based on the user's utterance, the search result of the facility on the moved map is displayed as a PIO image, and the simple information of the facility PIa having the highest user preference level is output as voice. A plurality of facilities PI exist in the map, and a balloon image BL is added to the facility PIa. In addition, the speaker 24 outputs the voice “Soba restaurant K, distance is 18.8 km, location is Higashinada-ku”, which is the simplified information SN of the facility PIa. Thereby, the user can visually recognize the position of the facility PIa located at a point of interest and having a high degree of preference by moving the map and performing a predetermined utterance, and can listen to simple information of the facility PIa.

以上のように、本実施の形態においては、サーバと通信を行う車両用装置2は、ユーザの検索指示に応じて検索された施設の位置をサーバから取得し、かかる施設の位置を含む地図を表示する。そして、地図に表示された抽出施設に関する施設情報を音声でユーザへ報知する。これにより、ユーザは、施設に関する情報を音声で取得できるので、車両へ乗車中に表示画面を注視しなくとも、地図に表示された位置情報と共に施設に関する情報を把握することができる。特に、ユーザが運転中である場合には、前方に注意を払いつつ、施設に関する情報を把握することができる。   As described above, in the present embodiment, the vehicle device 2 that communicates with the server acquires the location of the facility searched according to the search instruction from the user from the server, and displays a map including the location of the facility. indicate. And the facility information regarding the extracted facility displayed on the map is notified to the user by voice. Thereby, since the user can acquire information related to the facility by voice, it is possible to grasp the information related to the facility together with the position information displayed on the map without paying attention to the display screen while getting on the vehicle. In particular, when the user is driving, it is possible to grasp information about the facility while paying attention to the front.

また、車両用装置2は、地図の表示範囲が移動されると、地図の表示範囲内に抽出施設が複数存在する場合に、ユーザの嗜好に合致する抽出施設の施設情報を優先して音声で出力する。このため、ユーザは、嗜好に合致する施設の情報を優先して取得することができる。   In addition, when the map display range is moved, the vehicular device 2 gives priority to the facility information of the extraction facility that matches the user's preference when there are a plurality of extraction facilities in the map display range. Output. For this reason, the user can preferentially acquire information on the facility that matches the preference.

また、車両用装置2は、施設情報の音声出力の対象となっている施設に対し、地図上でかかる施設を特定する図形を表示する。これにより、ユーザは、施設に関する情報と、どの施設の情報が音声出力されているかを直ちに判別することができる。   Moreover, the apparatus 2 for vehicles displays the figure which identifies this facility on a map with respect to the facility which is the object of the audio | voice output of facility information. As a result, the user can immediately discriminate between the information related to the facility and which facility information is output as voice.

また、車両用装置2は、地図の表示が拡大されると、地図の表示範囲内に抽出施設が存在する場合、抽出施設の施設情報に含まれる詳細情報を音声で出力する。これにより、ユーザは、地図を拡大して表示することにより、関心のある施設について詳細な情報を取得できる。   In addition, when the map display is enlarged, the vehicular device 2 outputs the detailed information included in the facility information of the extracted facility by voice when the extracted facility exists within the map display range. Thereby, the user can acquire detailed information about the facility of interest by enlarging and displaying the map.

また、車両用装置2は、地図の表示範囲を移動され、かつユーザの所定の発声を取得した場合、施設の検索条件として表示されている地図の位置情報を含む検索指示を検索サーバへ送信する。これにより、ユーザは、施設の検索条件として、表示されている地図の位置情報を発声により検索サーバへ送信できる。なお、ユーザの所定の発声に、「この辺り」や「この付近」等の言葉を設定すると、ユーザは車両用装置2と対話するように操作が可能となり、利便性が向上する。   Further, when the vehicle display device 2 is moved within the display range of the map and acquires a predetermined utterance of the user, the vehicle device 2 transmits a search instruction including the position information of the map displayed as the facility search condition to the search server. . Thereby, the user can transmit the position information of the displayed map to the search server by speaking as a facility search condition. If words such as “this neighborhood” or “this neighborhood” are set in the user's predetermined utterance, the user can perform an operation to interact with the vehicle device 2 and the convenience is improved.

<4.変形例>
以上、本発明の実施の形態について説明したが、この発明は上記実施の形態に限定されるものではない。様々な変形が可能である。以下、このような変形例について説明する。なお、上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜、組み合わせ可能である。
<4. Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. Various modifications are possible. Hereinafter, such a modification will be described. In addition, all the forms including the said embodiment and the form demonstrated below are combinable suitably.

上記実施の形態では、POI画像を表示した地図画像には、ナビゲーションのルート案内用の表示を行っていなかった。しかし、POI画像を表示した地図画像にナビゲーションのルート案内用の表示を行ってもよい。図18は、POI画像を表示した地図画像にナビゲーションのルート案内用の表示RTを行った画像の例である。このように、ルート案内の表示RTを行うことで、ユーザは走行ルートからどれだけ離れた位置に検索した施設が立地するか把握できる。ユーザは、ルート案内の表示RTとPOI画像の位置とを比較し、検索した施設に立ち寄るか否か判断できる。ユーザにとっては、案内されたルートに近い施設のほうが立ち寄りやすいからである。   In the above embodiment, the navigation route guidance display is not performed on the map image displaying the POI image. However, navigation map guidance display may be performed on the map image displaying the POI image. FIG. 18 is an example of an image obtained by performing a display RT for navigation route guidance on a map image displaying a POI image. Thus, by performing the route guidance display RT, the user can grasp how far the searched facility is located from the travel route. The user compares the route guidance display RT with the position of the POI image, and can determine whether or not to stop at the searched facility. This is because it is easier for the user to drop in at a facility closer to the guided route.

また、上記実施の形態では、処理手順において車両用装置2が各種の判断処理、及びかかる判断処理に付随する処理を行っていたが、これら判断処理及び付随処理は携帯端末3又はサーバ5で行ってもよい。例えば、地図に表示された施設が複数であるか否かの判断(図11のステップS18)、地図が拡大されたか否かの判断(図11のステップS22)、地図が移動されたか否かの判断(図11のステップS24)、目的地が設定されたか否かの判断(図11のステップS26)、全ての施設が音声出力されたか否かの判断(図11のステップS28)、地図中に施設があるか否かの判断(図13のステップS112)、ユーザの発声が所定の発声であるか否かの判断(図15のステップS215)、及びこれら判断処理に付随する処理は、携帯端末3又はサーバ5で行ってもよい。   In the above embodiment, the vehicle apparatus 2 performs various determination processes and processes associated with the determination processes in the processing procedure. The determination processes and the accompanying processes are performed by the mobile terminal 3 or the server 5. May be. For example, it is determined whether or not there are a plurality of facilities displayed on the map (step S18 in FIG. 11), whether or not the map is enlarged (step S22 in FIG. 11), and whether or not the map is moved. Judgment (Step S24 in FIG. 11), Judgment whether or not the destination has been set (Step S26 in FIG. 11), Judgment whether or not all the facilities have been output as voice (Step S28 in FIG. 11), The determination as to whether or not there is a facility (step S112 in FIG. 13), the determination as to whether or not the user's utterance is a predetermined utterance (step S215 in FIG. 15), and the processes accompanying these determination processes are as follows: 3 or the server 5 may be used.

また、上記実施の形態では、施設の詳細情報を音声で出力したが、ディスプレイ23に文字で表示してもよい。この場合、吹き出し画像BLに詳細情報を文字で表示させるためのタッチパネル用ボタンを設けてもよい。図18は、吹き出し画像BLに詳細情報を文字で表示させるためのタッチパネル用の詳細表示ボタンDBを設けた画像の例である。ユーザは、詳細表示ボタンDBをタッチすることで、該当施設の詳細な情報を表示させることができる。   Moreover, in the said embodiment, although the detailed information of the facility was output with the audio | voice, you may display on the display 23 with a character. In this case, a touch panel button for displaying detailed information in characters on the balloon image BL may be provided. FIG. 18 is an example of an image provided with a detail display button DB for a touch panel for displaying detailed information in characters on the balloon image BL. The user can display detailed information of the corresponding facility by touching the detail display button DB.

また、上記実施の形態では、車両用装置2にマイクロフォンを備えたが、携帯端末3にマイクロフォンを備え、携帯端末3のマイクロフォンからユーザの音声を入力し、所定のサーバへ送信してもよい。   Moreover, in the said embodiment, although the microphone was provided in the apparatus 2 for vehicles, a portable terminal 3 may be equipped with a microphone, a user's audio | voice may be input from the microphone of the portable terminal 3, and you may transmit to a predetermined | prescribed server.

また、上記実施の形態では、車両用装置2は、車両1に搭載される装置として説明したが、携帯電話やスマートフォン等の車両1に固定して設置されない可搬性の装置であってもよい。   In the above-described embodiment, the vehicular device 2 has been described as a device mounted on the vehicle 1. However, the vehicular device 2 may be a portable device that is not fixedly installed on the vehicle 1, such as a mobile phone or a smartphone.

また、上記実施の形態では、携帯端末3と車両用装置2とは、別体の装置として説明したが、一体の装置であってもよい。すなわち、上記実施の形態の通信システム10の機能と同等の機能を、車両で用いられる一つの車両用装置が備えていてもよい。   In the above embodiment, the mobile terminal 3 and the vehicle device 2 have been described as separate devices, but may be integrated devices. That is, one vehicle device used in a vehicle may have a function equivalent to the function of the communication system 10 of the above embodiment.

また、上記実施の形態では、携帯端末3及び車両用装置2のユーザは、車両1のドライバであると説明したが、ドライバ以外のユーザであってもよい。   Moreover, although the said embodiment demonstrated that the user of the portable terminal 3 and the apparatus 2 for vehicles was a driver of the vehicle 1, users other than a driver may be sufficient.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によりソフトウェアとして各機能が実現されると説明した。しかし、機能の一部は電気的なハードウェア回路により実現されてもよい。   Further, in the above embodiment, it has been described that each function is realized as software by the arithmetic processing of the CPU according to the program. However, some of the functions may be realized by an electrical hardware circuit.

1 車両
2 車両用装置
3 携帯端末
4 ネットワーク
5 音声認識サーバ
6 検索サーバ
7 地図サーバ
10 通信システム
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Apparatus for vehicles 3 Portable terminal 4 Network 5 Voice recognition server 6 Search server 7 Map server 10 Communication system

Claims (6)

サーバ装置と通信を行う通信装置であって、
地図を表示する表示手段と、
ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する検索手段と、
前記複数の施設に関する情報を前記サーバ装置から取得する情報取得手段と、
前記複数の施設のうちの1つの施設について、前記情報を音声で出力する音声出力手段と、
前記1つの施設が、前記表示手段で表示される前記地図に含まれるように前記地図の表示範囲を移動させる移動手段と、
を備えることを特徴とする通信装置。
A communication device that communicates with a server device,
Display means for displaying a map;
Search means for searching for a plurality of facilities existing in the vicinity of a predetermined point based on the voice uttered by the user;
Information acquisition means for acquiring information on the plurality of facilities from the server device;
Voice output means for outputting the information by voice for one of the plurality of facilities;
Moving means for moving the display range of the map so that the one facility is included in the map displayed by the display means;
A communication apparatus comprising:
請求項1に記載の通信装置において、
前記音声出力手段が出力する前記情報は、前記1つの施設の詳細情報を含むことを特徴とする通信装置。
The communication device according to claim 1,
The communication apparatus, wherein the information output by the voice output unit includes detailed information of the one facility.
請求項1または2に記載の通信装置において、
前記音声出力手段は、前記ユーザの発する音声に基づき、前記複数の施設のうち、前記1つの施設とは異なる施設の前記情報を音声で出力することを特徴とする通信装置。
The communication device according to claim 1 or 2,
The said audio | voice output means outputs the said information of the facilities different from said one facility among the said some facilities with an audio | voice based on the audio | voice which the said user utters, The communication apparatus characterized by the above-mentioned.
請求項3に記載の通信装置において、
前記移動手段は、前記異なる施設が前記地図に含まれるように前記地図の表示範囲を移動させることを特徴とする通信装置。
The communication device according to claim 3.
The communication device is characterized in that the display range of the map is moved so that the different facilities are included in the map.
サーバ装置と通信を行う通信方法であって、
(a)地図を表示する工程と、
(b)ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する工程と、
(c)前記複数の施設に関する情報を前記サーバ装置から取得する工程と、
(d)前記複数の施設のうちの1つの施設について、前記情報を音声で出力する工程と、
(e)前記1つの施設が、前記工程(a)で表示される前記地図に含まれるように前記地図の表示範囲を移動させる工程と、
を備えることを特徴とする通信方法。
A communication method for communicating with a server device,
(A) displaying a map;
(B) a step of searching for a plurality of facilities existing in the vicinity of a predetermined point based on the voice uttered by the user;
(C) obtaining information about the plurality of facilities from the server device;
(D) outputting the information by voice for one of the plurality of facilities;
(E) moving the display range of the map so that the one facility is included in the map displayed in the step (a);
A communication method comprising:
サーバ装置と通信を行う通信装置に含まれるコンピュータによって実行可能なプログラムであって、
前記コンピュータに、
(a)地図を表示する工程と、
(b)ユーザの発する音声に基づき、所定地点付近に存在する複数の施設を検索する工程と、
(c)前記複数の施設に関する情報を前記サーバ装置から取得する工程と、
(d)前記複数の施設のうちの1つの施設について、前記情報を音声で出力する工程と、
(e)前記1つの施設が、前記工程(a)で表示される前記地図に含まれるように前記地図の表示範囲を移動させる工程と、
を実行させることを特徴とするプログラム。
A program executable by a computer included in a communication device that communicates with a server device,
In the computer,
(A) displaying a map;
(B) a step of searching for a plurality of facilities existing in the vicinity of a predetermined point based on the voice uttered by the user;
(C) obtaining information about the plurality of facilities from the server device;
(D) outputting the information by voice for one of the plurality of facilities;
(E) moving the display range of the map so that the one facility is included in the map displayed in the step (a);
A program characterized by having executed.
JP2017240973A 2017-12-15 2017-12-15 Communication device, communication method, and program Pending JP2018081102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017240973A JP2018081102A (en) 2017-12-15 2017-12-15 Communication device, communication method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017240973A JP2018081102A (en) 2017-12-15 2017-12-15 Communication device, communication method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013133337A Division JP2015007595A (en) 2013-06-26 2013-06-26 Device for vehicle, communication system, communication method, and program

Publications (1)

Publication Number Publication Date
JP2018081102A true JP2018081102A (en) 2018-05-24

Family

ID=62197646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017240973A Pending JP2018081102A (en) 2017-12-15 2017-12-15 Communication device, communication method, and program

Country Status (1)

Country Link
JP (1) JP2018081102A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140487A (en) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 Processing device, processing method, and program
JPWO2021192520A1 (en) * 2020-03-27 2021-09-30

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350151A (en) * 1999-06-02 2000-12-15 Canon Inc Information processing unit, digital camera and method for controlling them
JP2001091273A (en) * 1999-09-20 2001-04-06 Katsuyoshi Nagashima Automatic advertisement and publicity system of car navigation terminal
JP2001264088A (en) * 2000-03-17 2001-09-26 Hitachi Ltd Navigation system
JP2002350151A (en) * 2001-05-24 2002-12-04 Mitsubishi Electric Corp Navigation device
JP2006145331A (en) * 2004-11-18 2006-06-08 Kenwood Corp Navigation system, navigation method, and program for navigation
JP2007163226A (en) * 2005-12-12 2007-06-28 Denso Corp Navigation apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350151A (en) * 1999-06-02 2000-12-15 Canon Inc Information processing unit, digital camera and method for controlling them
JP2001091273A (en) * 1999-09-20 2001-04-06 Katsuyoshi Nagashima Automatic advertisement and publicity system of car navigation terminal
JP2001264088A (en) * 2000-03-17 2001-09-26 Hitachi Ltd Navigation system
JP2002350151A (en) * 2001-05-24 2002-12-04 Mitsubishi Electric Corp Navigation device
JP2006145331A (en) * 2004-11-18 2006-06-08 Kenwood Corp Navigation system, navigation method, and program for navigation
JP2007163226A (en) * 2005-12-12 2007-06-28 Denso Corp Navigation apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140487A (en) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 Processing device, processing method, and program
JPWO2021192520A1 (en) * 2020-03-27 2021-09-30
WO2021192520A1 (en) * 2020-03-27 2021-09-30 パイオニア株式会社 Information providing device, information providing method and information providing program

Similar Documents

Publication Publication Date Title
US11035688B2 (en) Map application with improved search tools
US9500492B2 (en) Map application with improved navigation tools
EP2728313B1 (en) Method of displaying objects on a navigation map
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
JPWO2016002406A1 (en) In-vehicle interactive system and in-vehicle information equipment
KR20130101505A (en) Disambiguating input based on context
US11415429B2 (en) Control apparatus and control system
US20220299335A1 (en) Content-aware navigation instructions
JP2015007595A (en) Device for vehicle, communication system, communication method, and program
KR20150050836A (en) The POI highlight system and method of navigation through the analysis of user behavior patterns
JP2018081102A (en) Communication device, communication method, and program
JP2018141742A (en) Navigation device, navigation method, and navigation program
JP2018059940A (en) Information providing device, control method, program, and storage medium
US20150192425A1 (en) Facility search apparatus and facility search method
JP6115202B2 (en) Speech recognition system, method and program
JP2010231346A (en) Retrieval support device, retrieval support method, and retrieval support program
EP3321820A1 (en) Information processing device and information presentation system
JP2008157885A (en) Information guide device, navigation device, information guide method, navigation method, information guide program, navigation program, and recording medium
JP2006145331A (en) Navigation system, navigation method, and program for navigation
WO2011030404A1 (en) Operating system and operating method
WO2023234929A1 (en) Requesting and receiving reminder instructions in a navigation session
WO2023214959A1 (en) Determining places and routes through natural conversation
WO2024019710A1 (en) Ad-hoc navigation instructions
KR20160111645A (en) Automatic destination setting method and navigation apparatus performing the same
JP2023140027A (en) Information processing apparatus and method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190625