JP2023069721A - Information processing apparatus, information processing method, program, recording medium, and data structure - Google Patents

Information processing apparatus, information processing method, program, recording medium, and data structure Download PDF

Info

Publication number
JP2023069721A
JP2023069721A JP2021181801A JP2021181801A JP2023069721A JP 2023069721 A JP2023069721 A JP 2023069721A JP 2021181801 A JP2021181801 A JP 2021181801A JP 2021181801 A JP2021181801 A JP 2021181801A JP 2023069721 A JP2023069721 A JP 2023069721A
Authority
JP
Japan
Prior art keywords
word
control unit
utterance
search
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021181801A
Other languages
Japanese (ja)
Inventor
航太朗 宮部
Kotaro Miyabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2021181801A priority Critical patent/JP2023069721A/en
Publication of JP2023069721A publication Critical patent/JP2023069721A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing apparatus configured to easily retrieve information on a target that draws the interest during travel, an information processing method, a program, a recording medium, and a data structure.SOLUTION: An information processing apparatus includes: a voice acquisition unit which acquires input voice input through a speech of a user; a speech position acquisition unit which acquires a speech position at which the user speaks; a map data acquisition unit which acquires map data; a specifying unit which specifies one or more names of places or features based on the speech position and the map data; and a search word generation unit which generates a search word including a first word to be generated based on the input voice and a second word to be generated based on the one or more names of places or features specified by the specifying unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造に関する。 The present invention relates to an information processing device, an information processing method, a program, a recording medium, and a data structure.

車両等での移動中にユーザから入力される音声を認識して、認識した内容に対する回答を行うナビゲーション装置が知られている。例えば、特許文献1には、ユーザから「左の建物は何?」といった音声入力があった場合に、音声認識の結果と自車位置と自車の進行方向と地図データベースとに基づいて自車の左に存在する施設を検索し、その施設の名称を音声で案内するナビゲーション装置が開示されている。 2. Description of the Related Art There is known a navigation device that recognizes a voice input by a user while traveling in a vehicle or the like and responds to the recognized content. For example, in Patent Document 1, when a user inputs voice such as "What is the building on the left?" A navigation device is disclosed that searches for a facility located on the left side of a street and provides voice guidance for the name of the facility.

特開2001-133283号公報Japanese Patent Application Laid-Open No. 2001-133283

特許文献1に記載のナビゲーション装置においては、例えば、上記検索結果として自車の左に存在する建物が複数ヒットした場合、当該ヒットした全ての建物が候補としてユーザに案内される。そのため、ユーザには、自身が質問した対象の建物とは関連性の低い建物まで案内されてしまい、自身の知りたい情報が検索結果に埋もれてしまうことが問題の1つとして挙げられる。 In the navigation device described in Patent Document 1, for example, when a plurality of buildings existing to the left of the own vehicle are hit as the search result, all the hit buildings are guided to the user as candidates. Therefore, one of the problems is that the user is guided to a building that has little relevance to the target building for which the user asked a question, and the information that the user wants to know is buried in the search results.

また、特許文献1に記載のナビゲーション装置において、ユーザが興味を持った対象の建物が上記地図データベースに登録されていない場合、当該対象についての情報を得ることができないという問題が挙げられる。 In addition, in the navigation device described in Patent Document 1, there is a problem that if the target building in which the user is interested is not registered in the map database, information about the target cannot be obtained.

本発明は、上記した点に鑑みてなされたものであり、移動中に興味を持った対象についての情報を容易に検索可能とする情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造を提供することを目的とする。 The present invention has been made in view of the above points, and provides an information processing apparatus, an information processing method, a program, a recording medium, and a data structure that make it possible to easily retrieve information about an object of interest while moving. intended to provide

請求項1に記載の情報処理装置は、ユーザの発話によって入力された入力音声を取得する音声取得部と、前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得部と、地図データを取得する地図データ取得部と、前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定部と、前記入力音声に基づいて生成される第1のワードと、前記特定部によって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成部と、を有することを特徴とする。 The information processing apparatus according to claim 1 comprises a voice acquisition unit that acquires an input voice input by a user's utterance, an utterance position acquisition unit that acquires a utterance position where the utterance is made by the user, and map data. a map data acquiring unit for acquiring; a specifying unit for specifying one or more place names or features based on the utterance position and the map data; a first word generated based on the input voice; and a second word generated based on the one or more place names or features specified by the search word generator that generates a search word including a second word.

請求項9に記載の情報処理方法は、情報処理装置が実行する情報処理方法であって、ユーザの発話によって入力された入力音声を取得する音声取得ステップと、前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得ステップと、地図データを取得する地図データ取得ステップと、前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定ステップと、前記入力音声に基づいて生成される第1のワードと、前記特定部によって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成ステップと、を有することを特徴とする。 An information processing method according to claim 9 is an information processing method executed by an information processing apparatus, comprising: a voice acquisition step of acquiring an input voice input by a user's utterance; an utterance position acquisition step of acquiring a position; a map data acquisition step of acquiring map data; a specifying step of specifying one or more place names or features based on the utterance position and the map data; a search word generating step of generating a search word including a first word generated based on said identification unit and a second word generated based on said one or more place names or features identified by said identifying unit; , is characterized by having

請求項10に記載のプログラムは、コンピュータに実行させるためのプログラムであって、ユーザの発話によって入力された入力音声を取得する音声取得ステップと、前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得ステップと、地図データを取得する地図データ取得ステップと、前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定ステップと、前記入力音声に基づいて生成される第1のワードと、前記特定部によって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成ステップと、を前記コンピュータに実行させることを特徴とする。 A program according to claim 10 is a program to be executed by a computer, comprising: a voice acquisition step of acquiring an input voice input by a user's utterance; an utterance position acquisition step; a map data acquisition step of acquiring map data; a specifying step of specifying one or more place names or features based on the utterance position and the map data; and a second word generated based on the one or more place names or features specified by the specifying unit. It is characterized by executing

請求項11に記載の記録媒体は、上記プログラムが記録されている記録媒体である。 A recording medium according to claim 11 is a recording medium on which the program is recorded.

請求項12に記載のデータ構造は、特定部と、検索ワード生成部と、を有する情報処理装置に用いられるデータ構造であって、ユーザの発話によって入力される入力音声と、前記ユーザによって前記発話がなされた発話位置と、を含み、前記特定部が、前記発話位置及び地図データに基づいて1又は複数の地名もしくは地物を特定する処理と、前記検索ワード生成部が、前記入力音声に基づいて生成される第1のワードと、前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する処理と、に用いられることを特徴とする。 A data structure according to claim 12 is a data structure used in an information processing apparatus having a specifying unit and a search word generating unit, wherein the input voice input by user's utterance and the user's utterance a speech position where the is made, wherein the identification unit identifies one or more place names or features based on the speech position and map data; and the search word generation unit performs processing based on the input speech and a process of generating a search word including a first word generated based on the one or more place names or features and a second word generated based on the one or more place names or features.

実施例1に係る車両の前席部分の構成及び車両の前方風景を示す図である。FIG. 2 is a diagram showing the configuration of the front seat portion of the vehicle and the front view of the vehicle according to the first embodiment; 実施例1に係る情報処理装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing apparatus according to a first embodiment; FIG. 実施例1に係る地図上の発話位置に対応付けられた検索ワードの態様を示す図である。FIG. 4 is a diagram showing a form of search words associated with utterance positions on a map according to Example 1; 実施例1に係る情報処理装置の制御ルーチンを示すフローチャートである。4 is a flow chart showing a control routine of the information processing apparatus according to the first embodiment; 実施例1に係る情報処理装置の制御サブルーチンを示すフローチャートである。4 is a flow chart showing a control subroutine of the information processing apparatus according to the first embodiment; 実施例2に係る車両の前席部分の構成及び車両の前方風景を示す図である。FIG. 10 is a diagram showing the configuration of the front seat portion of the vehicle and the front view of the vehicle according to the second embodiment; 実施例2に係る情報処理装置の構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of the configuration of an information processing apparatus according to a second embodiment; 実施例2に係る情報処理装置による地名特定の方法の一例を示す図である。FIG. 10 is a diagram illustrating an example of a method of specifying a place name by an information processing apparatus according to the second embodiment; 実施例2に係るジャンルごとに分類された名詞の例とそれに対応する距離範囲を示す表である。FIG. 10 is a table showing examples of nouns classified by genre and corresponding distance ranges according to Example 2; FIG. 実施例2に係る方位の表現例とそれに対応する角度範囲を示す表である。FIG. 11 is a table showing examples of expression of orientations and corresponding angle ranges according to Example 2; FIG. 実施例2に係る情報処理装置の制御サブルーチンを示すフローチャートである。9 is a flow chart showing a control subroutine of the information processing apparatus according to the second embodiment; 実施例3に係る車両の前席部分の構成及び車両の前方風景を示す図である。FIG. 11 is a diagram showing the configuration of the front seat portion of the vehicle and the front view of the vehicle according to the third embodiment; 実施例3に係る情報処理装置による地名特定の方法の一例を示す図である。FIG. 12 is a diagram illustrating an example of a method of specifying a place name by an information processing apparatus according to the third embodiment; 実施例3に係る方位の表現例とそれに対応する角度範囲を示す表である。FIG. 11 is a table showing examples of expression of orientations and corresponding angle ranges according to Example 3; FIG. 実施例3に係る情報処理装置の制御サブルーチンを示すフローチャートである。10 is a flow chart showing a control subroutine of the information processing apparatus according to the third embodiment; 実施例4に係る情報処理装置による地物特定の方法の一例を示す図である。FIG. 13 is a diagram illustrating an example of a feature identification method by an information processing apparatus according to a fourth embodiment; 実施例4に係る情報処理装置の制御サブルーチンを示すフローチャートである。14 is a flow chart showing a control subroutine of the information processing apparatus according to the fourth embodiment; 実施例5に係る情報処理装置による地物特定の方法の一例を示す図である。FIG. 14 is a diagram illustrating an example of a feature identification method by an information processing apparatus according to a fifth embodiment; 実施例5に係る情報処理装置の制御サブルーチンを示すフローチャートである。14 is a flow chart showing a control subroutine of the information processing apparatus according to the fifth embodiment;

以下、本発明の実施例について図面を参照して具体的に説明する。なお、図面において同一の構成要素については同一の符号を付け、重複する構成要素の説明は省略する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In the drawings, the same components are denoted by the same reference numerals, and redundant descriptions of the components are omitted.

図1は、実施例1に係る移動体としての車両Mの前席部分及び車両Mの前方風景を示す図である。車載装置10は、車両M内に設置されたマイク12、GPS受信機13、タッチパネルディスプレイ14及びスピーカー15の各々に接続されており、これらを制御する制御部を含む。車載装置10は、例えば、車両Mの前席のダッシュボードDB内の中央部に配置されている。 FIG. 1 is a diagram showing a front seat portion of a vehicle M as a mobile body and a front view of the vehicle M according to the first embodiment. The in-vehicle device 10 is connected to each of a microphone 12, a GPS receiver 13, a touch panel display 14, and a speaker 15 installed in the vehicle M, and includes a control unit that controls these. The in-vehicle device 10 is arranged, for example, in the central portion of the dashboard DB in the front seats of the vehicle M. As shown in FIG.

マイク12は、車内の音、例えば車両Mの運転者が発した音声を受けて電気信号に変換する音声入力装置である。本実施例において、マイク12は、ダッシュボードDB上に配されている。 The microphone 12 is a voice input device that receives the sound inside the vehicle, for example, the voice uttered by the driver of the vehicle M, and converts it into an electric signal. In this embodiment, the microphone 12 is arranged on the dashboard DB.

GPS受信機13は、GPS(Global Positioning System)衛星からの信号(GPS信号)を受信する受信機である。GPS受信機13は、受信したGPS信号を車載装置10に送信する。本実施例において、GPS受信機13は、ダッシュボードDB上に配されている。 The GPS receiver 13 is a receiver that receives signals (GPS signals) from GPS (Global Positioning System) satellites. The GPS receiver 13 transmits the received GPS signal to the in-vehicle device 10 . In this embodiment, the GPS receiver 13 is arranged on the dashboard DB.

タッチパネルディスプレイ14は、車載装置10の制御に基づいて画面表示を行うディスプレイと、車両Mの搭乗者からの入力操作を受け付けるタッチパネルとが組み合わされている表示装置である。タッチパネルディスプレイ14には、例えば、地図に車両Mの現在の位置が重畳されたナビゲーション画像が表示される。本実施例において、タッチパネルディスプレイ14は、ダッシュボードDBの中央部に配されている。 The touch panel display 14 is a display device in which a display that performs screen display based on the control of the in-vehicle device 10 and a touch panel that receives input operations from passengers of the vehicle M are combined. The touch panel display 14 displays, for example, a navigation image in which the current position of the vehicle M is superimposed on a map. In this embodiment, the touch panel display 14 is arranged in the center of the dashboard DB.

スピーカー15は、車載装置10の制御に基づいて音声を出力する音声出力装置である。本実施例において、スピーカー15は、2つのAピラーAPの各々にそれぞれ設けられている。 The speaker 15 is an audio output device that outputs audio based on the control of the in-vehicle device 10 . In this embodiment, the speaker 15 is provided on each of the two A-pillars AP.

上記した車両Mの前席部分における車載装置10、マイク12、GPS受信機13、タッチパネルディスプレイ14及びスピーカー15の各々の位置は例示に過ぎず、これらは他の位置に配されていてもよい。 The positions of the in-vehicle device 10, the microphone 12, the GPS receiver 13, the touch panel display 14, and the speaker 15 in the front seat portion of the vehicle M are merely examples, and they may be arranged at other positions.

図1においては、車両Mでの移動中に、当該車両Mの進行方向の右前方に行列ができているラーメン屋が車両M内から見えている様子を示している。図1において、車両Mの搭乗者(例えば運転者)は、例えば、行列ができているラーメン屋がどのようなラーメン屋であるか知りたいという興味を持ったことをして、マイク12に向けて「あの行列ができているラーメン屋ってどんなお店?」という質問を投げかけている。 FIG. 1 shows a state in which a ramen shop with a queue forming in front of the vehicle M in the direction of travel can be seen from inside the vehicle M while the vehicle M is moving. In FIG. 1, a passenger (for example, a driver) of a vehicle M expresses an interest in wanting to know what kind of ramen shop the ramen shop with a queue is, and directs it to the microphone 12. I am asking the question, "What kind of ramen shop is that ramen shop with a long line?"

本実施例において、車載装置10は、車載装置10のユーザ、例えば車両Mの運転者からの質問を音声認識可能に構成されている。すなわち、車載装置10は、車両Mの運転者の発話によって入力された音声を文字列からなるテキストに変換する。車載装置10は、変換されたテキストから所定の種類のテキストを抽出し、当該抽出したテキストを用いて文字列としての第1のワードを生成する。 In this embodiment, the in-vehicle device 10 is configured to be capable of voice recognition of questions from the user of the in-vehicle device 10, for example, the driver of the vehicle M. FIG. That is, the in-vehicle device 10 converts the voice input by the driver of the vehicle M into text consisting of character strings. The in-vehicle device 10 extracts a predetermined type of text from the converted text, and uses the extracted text to generate a first word as a character string.

また、本実施例において、車載装置10は、車両Mの搭乗者の発話によって音声入力された際の車両Mの位置、すなわち発話位置を取得可能に構成されている。車載装置10は、発話位置と地図データとに基づいて地図上の発話位置の地名を特定し、当該特定した地名を用いて文字列としての第2のワードを生成する。 In this embodiment, the in-vehicle device 10 is configured to be able to acquire the position of the vehicle M when voice input is made by the passenger of the vehicle M, that is, the utterance position. The in-vehicle device 10 identifies the place name of the utterance position on the map based on the utterance position and the map data, and generates a second word as a character string using the identified place name.

本実施例において、車載装置10は、上記した第1のワードと第2のワードとを組み合わせて、ユーザが興味を持った対象TAについて検索するための検索ワードを生成し、当該検索ワードを地図上の発話位置に対応付けて登録する。 In this embodiment, the in-vehicle device 10 combines the above-described first word and second word to generate a search word for searching for a target TA in which the user is interested, and maps the search word to a map. It is registered in association with the upper utterance position.

図2は、実施例1に係る車載装置10の構成の一例を示すブロック図である。本実施例において、車載装置10は、システムバス16を介して、制御部17と、通信部18と、入力部19と、出力部21と、大容量記憶装置22とが協働する装置である。 FIG. 2 is a block diagram showing an example configuration of the in-vehicle device 10 according to the first embodiment. In this embodiment, the in-vehicle device 10 is a device in which a control unit 17, a communication unit 18, an input unit 19, an output unit 21, and a large-capacity storage device 22 cooperate via a system bus 16. .

制御部17は、CPU(Central Processing Unit)17A、ROM(Read Only Memory)17B、RAM(Random Access Memory)17C等により構成され、コンピュータとして機能する。そして、CPU17Aが、ROM17Bや大容量記憶装置22に記憶されている各種プログラムを読み出し実行することにより各種機能を実現する。 The control unit 17 includes a CPU (Central Processing Unit) 17A, a ROM (Read Only Memory) 17B, a RAM (Random Access Memory) 17C, etc., and functions as a computer. Various functions are realized by the CPU 17A reading and executing various programs stored in the ROM 17B and the large-capacity storage device 22. FIG.

各種プログラムは、例えば、他のサーバ装置等からネットワークを介して取得されるようにしてもよいし、記録媒体に記録されて各種ドライブ装置を介して読み込まれるようにしてもよい。すなわち、大容量記憶装置22に記憶される各種プログラム(後述する車載装置10における処理を実行するためのプログラムを含む)は、ネットワークを介して伝送可能であるし、また、コンピュータ読み取り可能な記録媒体に記録して譲渡することが可能である。 Various programs may be obtained, for example, from another server device or the like via a network, or may be recorded on a recording medium and read via various drive devices. That is, various programs stored in the mass storage device 22 (including programs for executing processes in the in-vehicle device 10, which will be described later) can be transmitted via a network, and can be computer-readable recording media. It is possible to record and transfer to

通信部18は、制御部17の指示に従って外部機器とデータの送受信を行う通信装置である。通信部18は、例えば、ネットワークに接続するためのNIC(Network Interface Card)である。 The communication unit 18 is a communication device that transmits and receives data to and from an external device according to instructions from the control unit 17 . The communication unit 18 is, for example, a NIC (Network Interface Card) for connecting to a network.

本実施例において、制御部17は、通信部18を介してGoogle(登録商標)やYahoo!(登録商標)等の検索エンジンとして機能するサーバコンピュータと通信可能に接続される。車載装置10とサーバコンピュータとは、例えば、TCP/IP等の通信プロトコルを用いて相互にデータの送受信が可能になっている。車載装置10とネットワークとの接続は、例えば、3G(3rd Generation)、4G(4th Generation)又は5G(5th Generation)等の移動体通信、Wi-Fi(登録商標)等の無線通信によりなされ得る。 In this embodiment, the control unit 17 communicates with Google (registered trademark) or Yahoo! (registered trademark), etc., and is communicably connected to a server computer that functions as a search engine. The in-vehicle device 10 and the server computer can mutually transmit and receive data using a communication protocol such as TCP/IP. The connection between the in-vehicle device 10 and the network can be made, for example, by mobile communication such as 3G (3rd Generation), 4G (4th Generation) or 5G (5th Generation), or wireless communication such as Wi-Fi (registered trademark).

入力部19は、車載装置10の制御部17と、マイク12、GPS受信機13、タッチパネルディスプレイ14とを通信可能に接続されているインタフェース部である。本実施例において、制御部17は、マイク12から入力された車両Mの運転者の音声を入力部19を介して取得する音声取得部として機能する。 The input unit 19 is an interface unit to which the control unit 17 of the in-vehicle device 10, the microphone 12, the GPS receiver 13, and the touch panel display 14 are communicably connected. In this embodiment, the control unit 17 functions as a voice acquisition unit that acquires the voice of the driver of the vehicle M input from the microphone 12 via the input unit 19 .

また、本実施例において、制御部17は、車両Mの搭乗者の発話による音声入力がなされた際の、GPS受信機13からのGPS信号に基づく車両Mの位置、すなわち上記した発話位置を入力部19を介して取得する発話位置取得部として機能する。 Further, in this embodiment, the control unit 17 inputs the position of the vehicle M based on the GPS signal from the GPS receiver 13 when the voice input by the utterance of the passenger of the vehicle M is performed, that is, the position of the utterance described above. It functions as an utterance position acquisition unit acquired via the unit 19 .

出力部21は、タッチパネルディスプレイ14及びスピーカー15と通信可能に接続されているインタフェース部である。制御部17は、出力部21を介して、タッチパネルディスプレイ14に映像または画像信号を送信して表示をさせたり、スピーカー15に音声信号を送信して音を出力させたりすることが可能である。 The output unit 21 is an interface unit communicably connected to the touch panel display 14 and the speaker 15 . The control unit 17 can transmit a video or image signal to the touch panel display 14 via the output unit 21 for display, or can transmit an audio signal to the speaker 15 to output sound.

大容量記憶装置22は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成されており、オペレーティングシステムや、端末用のソフトウェア等の各種プログラムを記憶する記憶デバイスである。 The large-capacity storage device 22 is composed of, for example, a hard disk device, SSD (solid state drive), flash memory, etc., and is a storage device that stores various programs such as an operating system and terminal software.

大容量記憶装置22の音声認識用データベース(以下、音声認識用DBと称する)22Aは、入力音声の音声認識で用いるための言語モデルや発音辞書等が格納されているデータベースである。制御部17は、ユーザから音声が入力された際に、音声認識用DB22Aを参照して音声認識を実行し、当該音声を文字列からなるテキストに変換する。 A speech recognition database (hereinafter referred to as a speech recognition DB) 22A of the large-capacity storage device 22 is a database that stores language models, pronunciation dictionaries, and the like for use in speech recognition of input speech. When a voice is input from the user, the control unit 17 refers to the voice recognition DB 22A to perform voice recognition, and converts the voice into text consisting of character strings.

大容量記憶装置22の地図情報データベース(以下、地図情報DBと称する)22Bは、地図情報が格納されているデータベースである。制御部17は、上記した発話位置と地図情報DB22Bに格納されている地図情報とを参照して、地図上の地名や地物を特定する。すなわち、本実施例において、制御部17は、地図情報(地図データ)を取得する地図データ取得部である。 A map information database (hereinafter referred to as a map information DB) 22B of the mass storage device 22 is a database in which map information is stored. The control unit 17 refers to the utterance position described above and the map information stored in the map information DB 22B to identify the place names and features on the map. That is, in this embodiment, the control unit 17 is a map data acquisition unit that acquires map information (map data).

以下に、本実施例において制御部17が実行する検索ワードの生成処理の一例について説明する。 An example of search word generation processing executed by the control unit 17 in this embodiment will be described below.

[テキストの抽出]
まず、テキストの抽出について説明する。本実施例において、制御部17は、車両Mの搭乗者から入力された音声を、上記した音声認識用DB22Aを用いて文字列からなるテキストに変換する。具体的には、制御部17は、車両Mの運転者から入力された「あの行列ができているラーメン屋ってどんなお店?」との音声を音声認識してテキストに変換する。
[Extract text]
First, text extraction will be described. In this embodiment, the control unit 17 converts the voice input by the passenger of the vehicle M into text consisting of character strings using the above-described voice recognition DB 22A. Specifically, the control unit 17 recognizes the voice input from the driver of the vehicle M, “What kind of restaurant is that ramen restaurant with a long line?” and converts it into text.

そして、制御部17は、変換されたテキストから普通名詞と当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉とを抽出する。具体的には、制御部17は、音声認識によってテキスト変換された「あの行列ができているラーメン屋ってどんなお店?」との文字列から、一般名称を表す普通名詞である「ラーメン屋」と、「ラーメン屋」に係る連体修飾節を示す言葉である「あの行列ができている」とを抽出する。 Then, the control unit 17 extracts common nouns and words indicating adnominal modifiers, adnominal modifiers, or adnominal modifiers related to the common nouns from the converted text. Specifically, the control unit 17 extracts the common noun “ramen shop” representing a general name from the character string “What kind of shop is that ramen shop with a long line?” converted into text by voice recognition. ' and 'that queue is ready', which is a word indicating an adnominal modifier related to 'ramen shop'.

[第1のワードの生成]
次に、第1のワードの生成について説明する。本実施例において、制御部17は、抽出した普通名詞が示すものと当該普通名詞に係る連体修飾節を示す言葉とを第1のワードとする。
[Generation of first word]
Next, generation of the first word will be described. In this embodiment, the control unit 17 treats what the extracted common noun indicates and the word indicating the adnominal modifier related to the common noun as the first word.

本実施例において、制御部17は、普通名詞や当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉に、「これ、それ、あれ、どれ」や「この、その、あの、どの」といったいわゆる「こそあど言葉」がある場合に、これを含めずに第1のワードとする。すなわち、本実施例において、制御部17は、「ラーメン屋」及び「行列ができている」を第1のワードとする。 In this embodiment, the control unit 17 adds “this, that, that, which”, “this, that, that” to common nouns, adnominal modifiers, adnominal modifiers, or adnominal modifiers related to common nouns. When there is a so-called ``kosoado kotoba'' such as ``, ``,'', it is treated as the first word without including it. That is, in the present embodiment, the control unit 17 uses "ramen shop" and "there is a line" as the first words.

[第2のワードの生成]
次に、第2のワードの生成について説明する。本実施例において、制御部17は、車両Mの搭乗者の発話位置と、地図情報DB22Bに格納されている地図情報とに基づいて、当該発話位置の地名を特定する。すなわち、制御部17は、車両Mの搭乗者の発話位置及び地図データに基づいて地名を特定する特定部として機能する。
[Generation of second word]
Next, generation of the second word will be described. In this embodiment, the control unit 17 identifies the place name of the utterance position based on the utterance position of the passenger of the vehicle M and the map information stored in the map information DB 22B. That is, the control unit 17 functions as an identification unit that identifies the place name based on the utterance position of the passenger of the vehicle M and the map data.

本実施例において、制御部17は、地図上における発話位置の住所を特定する。具体的には、制御部17は、例えば「新宿区△△町○丁目×番□号」のように、地図上の発話位置の住所を特定する。本実施例において、制御部17は、特定した発話位置の住所の町名までを示す言葉を第2のワードとする。すなわち、本実施例において、制御部17は、「新宿区△△町」を第2のワードとする。 In this embodiment, the control unit 17 identifies the address of the utterance position on the map. Specifically, the control unit 17 specifies the address of the utterance position on the map, for example, "Shinjuku-ku △△-cho ○-chome x number □". In the present embodiment, the control unit 17 uses words indicating up to the town name of the address of the specified utterance position as the second word. That is, in the present embodiment, the control unit 17 uses "Shinjuku-ku △△ town" as the second word.

[検索ワードの生成]
次に、検索ワードの生成について説明する。制御部17は、それぞれ生成された第1のワードと第2のワードとを組み合わせて検索ワードを生成する。すなわち、制御部17は、第1のワード及び第2のワードを用いて検索ワードを生成する検索ワード生成部である。
[Generate search word]
Next, generation of search words will be described. The control unit 17 combines the generated first word and second word to generate a search word. That is, the control unit 17 is a search word generation unit that generates search words using the first word and the second word.

具体的には、制御部17は、第1のワードである「行列ができている」、「ラーメン屋」と、第2のワードである「新宿区△△町」とを間にスペースを入れて組み合わせて、「行列ができている ラーメン屋 新宿区△△町」という1つの文字列を生成する。これにより、制御部17は、検索サイトの検索窓に入力することが可能な検索ワードを生成することができる。 Specifically, the control unit 17 inserts a space between the first words "a queue is forming" and "ramen restaurant" and the second word "Shinjuku-ku △△ town". are combined to generate a single character string, "Ramen restaurant with queues, △△ town, Shinjuku Ward". Thereby, the control unit 17 can generate a search word that can be input to the search window of the search site.

以下に、図3を参照して、上記した検索ワードが登録される際の態様の一例について説明する。図3は、タッチパネルディスプレイ14に表示される発話位置周辺の地図を示す図である。 An example of a mode when the above-described search word is registered will be described below with reference to FIG. FIG. 3 is a diagram showing a map around the speech position displayed on the touch panel display 14. As shown in FIG.

本実施例において、制御部17は、検索ワードを生成した後に当該検索ワードを地図上の発話位置に対応付けて登録する。具体的には、制御部17は、図3に示すように、発話位置UPを地図に重畳させる態様で表示させ、当該発話位置UPに対応付けるように検索ワード(「行列ができている ラーメン屋 新宿区△△町」)を吹き出し表示させる。 In this embodiment, after generating a search word, the control unit 17 registers the search word in association with the utterance position on the map. Specifically, as shown in FIG. 3, the control unit 17 causes the utterance position UP to be displayed in a manner superimposed on the map, and associates the utterance position UP with a search word (“a queue is formed ramen shop Shinjuku Ward △△ Town") is displayed in a balloon.

例えば、車両Mの搭乗者によってタッチパネルディスプレイ14に表示されている吹き出し表示がタッチされた場合、制御部17は、Google(登録商標)やYahoo!(登録商標)等の検索サイトに接続する。そして、制御部17は、起動した検索サイトの検索窓に検索ワードを入力して検索を実行する。 For example, when a balloon displayed on the touch panel display 14 is touched by an occupant of the vehicle M, the control unit 17 can display Google (registered trademark) or Yahoo! (registered trademark) and other search sites. Then, the control unit 17 executes a search by inputting a search word into the search window of the activated search site.

タッチパネルディスプレイ14上には、検索ワードによる検索の結果として、当該検索ワードと関連性の高いWebページや画像などの情報が優先して表示される。これにより、車両Mの搭乗者は、自身が興味を持った対象TAと直接的又は間接的に関連性のある情報を得ることができる。 On the touch panel display 14, information such as web pages and images highly relevant to the search word is preferentially displayed as a result of the search using the search word. Thereby, the passengers of the vehicle M can obtain information directly or indirectly related to the target TA in which they are interested.

すなわち、本実施例において、「あの行列ができているラーメン屋ってどんなお店?」と質問した車両Mの運転者は、タッチパネルディスプレイ14上に表示された吹き出し表示(「行列ができている ラーメン屋 新宿区△△町」)をタッチすることにより、例えば、新宿区△△町において人気のラーメン店を紹介しているサイトを見つけることができ、そこから対象TAであるラーメン屋の情報、例えば名前、ラーメンの種類等の情報を取得することができる。 That is, in this embodiment, the driver of the vehicle M who asked "What kind of shop is that ramen shop with a long line?" By touching "Ramen Shop Shinjuku Ward △△ Town"), for example, you can find a site introducing popular ramen shops in Shinjuku Ward △△ Town. For example, information such as the name and type of ramen can be obtained.

以下に、本実施例における車載装置10の具体的な動作について説明する。図4は、車載装置10の制御部17において実行される検索ワード生成ルーチンRT1を示すフローチャートである。 A specific operation of the in-vehicle device 10 in this embodiment will be described below. FIG. 4 is a flowchart showing a search word generation routine RT1 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG.

以下の説明においては、上記にて説明したのと同様に、ユーザから「あの行列が出来ているラーメン屋ってどんなお店?」という音声が入力されたとして説明する。 In the following explanation, it is assumed that the user has input the voice "What kind of ramen shop is that ramen shop with a long line?"

制御部17は、例えば、車載装置10に電源が投入されたことをして検索ワード生成ルーチンRT1を開始する。なお、検索ワード生成ルーチンRT1は、車載装置10の電源が入っている限り制御部17によって繰り返し実行される。 For example, the control unit 17 starts the search word generation routine RT1 by turning on the in-vehicle device 10 . The search word generation routine RT1 is repeatedly executed by the control unit 17 as long as the in-vehicle device 10 is powered on.

まず、制御部17は、検索ワード生成操作を受け付けたか否かを判定する(ステップS101)。例えば、制御部17は、ユーザによって車載装置10のウェイクワードを呼ぶことや「メモして!」などの所定の音声入力がなされたことをして、検索ワード生成処理の開始のための操作がなされたと判定する。制御部17は、検索ワード生成操作を受け付けていないと判定すると(ステップS101:NO)、検索ワード生成ルーチンRT1を終了する。 First, the control unit 17 determines whether or not a search word generation operation has been received (step S101). For example, the control unit 17 detects that the user has called a wake word for the in-vehicle device 10 or that a predetermined voice input such as "Make a note!" determined to have been made. When the control unit 17 determines that the search word generation operation has not been received (step S101: NO), it ends the search word generation routine RT1.

制御部17は、検索ワード生成操作を受け付けたと判定すると(ステップS101:YES)、車両Mの搭乗者からの発話による音声入力を受け付ける(ステップS102)。例えば、制御部17は、上記したように、車両Mでの移動中にマイク12を介して車両Mの運転者からの発話による音声を取得する。なお、ステップS102において、一定時間内に車両Mの搭乗者からの音声入力がない場合は、検索ワード生成ルーチンRT1を終了するようにしてもよい。 When determining that the search word generation operation has been received (step S101: YES), the control unit 17 receives voice input by speech from the passenger of the vehicle M (step S102). For example, as described above, the control unit 17 acquires the voice uttered by the driver of the vehicle M through the microphone 12 while the vehicle M is traveling. In step S102, if there is no voice input from the passenger of the vehicle M within a certain period of time, the search word generation routine RT1 may be terminated.

制御部17は、ステップS102の後に、大容量記憶装置22の音声認識用DB22Aを用いて、入力された音声に対して音声認識を実施し、当該音声をテキストに変換する(ステップS103)。本実施例において、制御部17は、ユーザによって入力された「あの行列ができているラーメン屋ってどんなお店?」との音声を文字列からなるテキストに変換する。 After step S102, the control unit 17 uses the speech recognition DB 22A of the large-capacity storage device 22 to perform speech recognition on the input speech, and converts the speech into text (step S103). In this embodiment, the control unit 17 converts the voice input by the user, "What kind of ramen shop is that ramen shop with a long line?" into text consisting of character strings.

制御部17は、ステップS103の後に、音声認識結果としてのテキストから普通名詞を抽出する(ステップS104)。本実施例において、制御部17は、普通名詞を示す「ラーメン屋」を抽出する。 After step S103, the control unit 17 extracts common nouns from the text as the speech recognition result (step S104). In this embodiment, the control unit 17 extracts the common noun "ramen shop".

制御部17は、ステップS104の後に、音声認識結果としてのテキストから普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉を抽出する(ステップS105)。本実施例において、制御部17は、「ラーメン屋」に係る連体修飾節を示す「行列ができている」との言葉を抽出する。 After step S104, the control unit 17 extracts words indicating adnominal modifiers, adnominal modifiers, or adnominal modifiers related to common nouns from the text as the speech recognition result (step S105). In the present embodiment, the control unit 17 extracts the word "the queue is ready" indicating the adnominal modification clause related to "ramen shop".

制御部17は、ステップS105の後に、ステップS104及びS105にて抽出した普通名詞及び当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉を用いて第1のワードを生成する(ステップS106)。本実施例において、制御部17は、上記したように、普通名詞を示す「ラーメン屋」と、「ラーメン屋」に係る連体修飾節を示す「行列ができている」とを第1のワードとする。 After step S105, the control unit 17 generates the first word using the common nouns extracted in steps S104 and S105 and the adnominal modifiers, adnominal phrases, or adnominal clauses associated with the common nouns. (Step S106). In the present embodiment, as described above, the control unit 17 uses the common noun "ramen shop" and the adnominal modifier "matrix is made" as the first words. do.

制御部17は、ステップS106において第1のワードを生成した後に、発話位置及び地図情報に基づいて地名を特定し、当該特定した地名に基づいて第2のワードを生成する(ステップS107)。制御部17は、第2のワードとして「新宿区△△町」を生成する。 After generating the first word in step S106, the control unit 17 identifies a place name based on the utterance position and the map information, and generates a second word based on the identified place name (step S107). The control unit 17 generates “Shinjuku-ku △△ town” as the second word.

制御部17は、ステップS106において生成した第1のワードと、ステップS107において生成した第2のワードとを用いて文字列としての検索ワードを生成し、発話位置に対応付けて登録する(ステップS108)。 The control unit 17 generates a search word as a character string using the first word generated in step S106 and the second word generated in step S107, and registers it in association with the utterance position (step S108). ).

具体的には、制御部17は、上記したように、第1のワードである「行列ができている」及び「ラーメン屋」と、第2のワードである「新宿区△△町」とを間にスペースを入れて組み合わせて、1の検索ワードである「行列ができている ラーメン屋 新宿区△△町」を生成する。 Specifically, as described above, the control unit 17 selects the first words "a queue is forming" and "ramen restaurant" and the second words "Shinjuku Ward △△ town". By inserting a space between them, they are combined to generate one search word, ``a ramen shop with a queue, △△ town, Shinjuku-ku''.

そして、制御部17は、検索ワードを生成した後に、当該検索ワードを地図上の発話位置に対応付けて登録する。具体的には、制御部17は、図3のタッチパネルディスプレイ14に示すように、発話位置UPに対応付けるように「行列ができている ラーメン屋 新宿区△△町」を吹き出し表示させる。制御部17は、ステップS108の後に検索ワード生成ルーチンRT1を終了する。 After generating the search word, the control unit 17 registers the search word in association with the utterance position on the map. Specifically, as shown on the touch panel display 14 in FIG. 3, the control unit 17 causes a balloon display of "A queue is forming at a ramen restaurant in △△ town, Shinjuku-ku" so as to correspond to the utterance position UP. The control unit 17 terminates the search word generation routine RT1 after step S108.

図5は、上記したステップS107において制御部17によって実行される第2のワード生成サブルーチンRT2を示すフローチャートである。 FIG. 5 is a flow chart showing the second word generation subroutine RT2 executed by the control section 17 in step S107 described above.

まず、制御部17は、車両Mの搭乗者の発話位置と地図データとを取得する(ステップS201)。具体的には、制御部17は、上記したように、発話による音声入力がなされた際にGPS受信機13から受信したGPS信号に基づいて発話位置を取得する。また、制御部17は、大容量記憶装置22の地図情報DB22Bから地図情報を取得する。 First, the control unit 17 acquires the utterance position of the passenger of the vehicle M and the map data (step S201). Specifically, as described above, the control unit 17 acquires the speech position based on the GPS signal received from the GPS receiver 13 when the speech is input. Also, the control unit 17 acquires map information from the map information DB 22B of the mass storage device 22 .

制御部17は、ステップS201の後に、ステップS201において取得した発話位置及び地図情報に基づいて、発話位置の住所を特定する(ステップS202)。具体的には、制御部17は、上記したように、地図上における発話位置の住所である「新宿区△△町○丁目×番□号」を特定する。 After step S201, the control unit 17 specifies the address of the utterance position based on the utterance position and the map information acquired in step S201 (step S202). Specifically, as described above, the control unit 17 specifies the address of the utterance position on the map, ie, “X-chome, XX, Shinjuku-ku, △△-cho”.

制御部17は、ステップS202において特定した住所に基づいて、地名を特定する(ステップS203)。すなわち、制御部17は、発話位置の住所である「新宿区△△町○丁目×番□号」を地名として特定する。 The control unit 17 identifies a place name based on the address identified in step S202 (step S203). In other words, the control unit 17 specifies the address of the utterance position, "Shinjuku-ku △△-cho ○-chome x number □" as the place name.

制御部17は、特定した地名に基づいて第2のワードを生成する(ステップS204)。本実施例において、制御部17は、上記したように、ステップS203において特定した地名としての発話位置の住所のうち、町名までを示す言葉である「新宿区△△町」を第2のワードとする。制御部17は、ステップS204の後に第2のワード生成サブルーチンRT2を終了する。 The control unit 17 generates a second word based on the identified place name (step S204). In this embodiment, as described above, the control unit 17 selects, as the second word, "Shinjuku-ku △△ town", which is a word indicating the name of the town in the address of the utterance position as the place name specified in step S203. do. The control unit 17 terminates the second word generation subroutine RT2 after step S204.

本実施例によれば、上記した検索ワード生成ルーチンRT1及び第2のワード生成サブルーチンRT2により、車両Mの搭乗者からの発話による音声入力によって検索ワードが自動的に生成される。そのため、車両Mの搭乗者は、自身が興味を持った対象TAについて検索を行いたいときに、自分で検索ワードを考えて検索窓に当該検索ワードを入力する手間を省くことができる。 According to this embodiment, a search word is automatically generated by voice input by the occupant of the vehicle M by means of the search word generation routine RT1 and the second word generation subroutine RT2. Therefore, when the passenger of the vehicle M wants to search for a target TA in which he/she is interested, he/she can save the trouble of thinking up a search word by himself/herself and inputting the search word into the search window.

そして、生成された検索ワードは、地図上の発話位置に対応付けられる態様でタッチパネルディスプレイ14上に表示される。そのため、車両Mの搭乗者は、いつでも検索ワードについて簡単に検索を行うことができ、検索ワードと関連性の高い情報を得ることができる。従って、本実施例によれば、車載装置10のユーザが移動中に興味を持った対象についての情報を好きなタイミングで容易に取得することができる。 Then, the generated search word is displayed on the touch panel display 14 in a manner associated with the utterance position on the map. Therefore, the passenger of the vehicle M can easily search for the search word at any time, and can obtain information highly relevant to the search word. Therefore, according to the present embodiment, the user of the in-vehicle device 10 can easily acquire information about an object of interest during movement at a desired timing.

なお、本実施例において、制御部17は、第1のワードの生成時(ステップS106)において、抽出された普通名詞を示す「ラーメン屋」及び当該普通名詞に係る連体修飾節を示す「行列ができている」を第1のワードとするとしたが、この限りではなく、当該抽出された言葉に対して適宜加工を加えてもよい。 In the present embodiment, when generating the first word (step S106), the control unit 17 controls the extracted common noun “ramen shop” and the adnominal modifier related to the common noun “matrix ga Although the first word is "made", the extracted word may be processed as appropriate.

例えば、制御部17は、「ラーメン屋」に係る連体修飾節である「行列ができている」との言葉を、単に「行列」との言葉としてもよい。すなわち、制御部17は、「ラーメン屋」及び「行列」を第1のワードとしてもよい。 For example, the control unit 17 may simply change the word "queue is made", which is an adnominal modification clause related to "ramen shop", to the word "queue". That is, the control unit 17 may use “ramen shop” and “queue” as the first words.

また、本実施例において、制御部17は、第2のワードの生成時(ステップS204)において、特定した発話位置の住所のうち町名までを第2のワードとするとしたが、この限りではなく、適宜変更してもよい。 In the present embodiment, the control unit 17, when generating the second word (step S204), assumes that the address of the specified utterance position up to the town name is the second word. It may be changed as appropriate.

例えば、制御部17は、発話位置の住所が「新宿区△△町○丁目×番□号」である場合に、「新宿区△△町○丁目」までを第2のワードとしてもよく、また、「新宿区△△町○丁目×番」までを第2のワードとしてもよい。すなわち、制御部17は、第2のワードに採用する住所の絞り度合いを自由に変更可能であってもよい。 For example, when the address of the utterance position is "Shinjuku-ku △△-cho X-chome x No. □", the control unit 17 may set up to "Shinjuku-ku △△cho X-chome" as the second word, or , "Shinjuku Ward △△ Town ○-chome X-number" may be used as the second word. That is, the control unit 17 may be able to freely change the narrowing degree of the addresses to be used for the second word.

本実施例において、制御部17は、ユーザの発話内容から普通名詞を抽出するとしたがこれに限られず、対象を一意に特定できないような名詞を抽出してもよい。当該名詞は、例えば、複数店舗展開している会社の商号や屋号、ブランド名等である。 In this embodiment, the control unit 17 extracts common nouns from the contents of the user's utterance, but the present invention is not limited to this, and may extract nouns that cannot uniquely identify the target. The noun is, for example, a trade name, store name, or brand name of a company that has multiple stores.

具体的には、例えば、ユーザの発話内容が「あの行列ができている『ラーメン○○』ってどんなお店?」である場合に、ラーメン店の名前である「ラーメン○○」を抽出し、発話位置の住所と組み合わせて検索ワードとしてもよい。例えば、複数店舗を有するラーメン屋の場合は、ラーメン店の名前だけでは店舗が1つに特定できないため、上記検索ワードを生成することが有効である。 Specifically, for example, when the content of the user's utterance is "What kind of shop is 'ramen XX' where that line is forming?" , may be combined with the address of the utterance position as a search word. For example, in the case of a ramen shop having multiple shops, it is effective to generate the above search word because one shop cannot be specified only by the name of the ramen shop.

本実施例において、制御部17は、タッチパネルディスプレイ14に地図上の発話位置に対応付けて登録した検索ワードを吹き出し表示させ、ユーザが当該吹き出し表示をタッチすることで検索がなされるとしたが、この限りではない。 In this embodiment, the control unit 17 causes the touch panel display 14 to balloon-display the search word registered in association with the utterance position on the map, and the user searches by touching the balloon display. This is not the case.

例えば、検索ワードが地図上の発話位置に対応付けて記憶されてさえすれば、制御部17は、検索ワードそのものを表示しなくてもよい。例えば、上記した吹き出し表示は、「行列ができている」、または「ラーメン屋」など、検索ワードの一部のみを含むようにしてもよいし、音声入力されたユーザの発話の全文を含むようにしてもよいし、発話された日時を含むようにしてもよい。 For example, as long as the search word is stored in association with the utterance position on the map, the control unit 17 does not need to display the search word itself. For example, the above balloon display may include only a part of the search word such as "there is a line" or "ramen restaurant", or may include the full text of the user's utterance input by voice. and may include the date and time of the utterance.

また、例えば、制御部17は、ステップS108において検索ワードを生成した後にそのまま検索サイトを起動させ、当該生成した検索ワードを検索サイトの検索窓に入力して検索をかけるようにしてもよい。これにより、ユーザによって音声入力がなされた際に自動的に検索ワードの生成及び検索操作がなされるため、ユーザ自身の手で検索操作をする手間を省くことができる。 Further, for example, the control unit 17 may activate the search site as it is after generating the search word in step S108, and input the generated search word into the search window of the search site to perform a search. As a result, the search word is automatically generated and the search operation is performed when the user makes a voice input, so it is possible to save the trouble of performing the search operation by the user himself/herself.

また、制御部17は、検索ワードによる検索結果をスピーカー15を介して音声で出力してもよい。すなわち、ユーザがタッチパネルディスプレイ14を注視しなくても検索結果がユーザに報知されるようにしてもよい。 Further, the control unit 17 may output the search result by the search word as voice through the speaker 15 . In other words, the search result may be notified to the user without the user paying attention to the touch panel display 14 .

なお、制御部17によってなされる入力音声の音声認識は、AIによってなされてもよい。例えば、ユーザの発話によって入力された音声を、発話辞書や言語モデルを学習させた学習モデルを有するAIに入力し、その出力としての文字列からなるテキストを取得する態様としてもよい。 The speech recognition of the input speech performed by the control unit 17 may be performed by AI. For example, it is also possible to adopt a mode in which voice input by user's utterance is input to an AI having a learning model obtained by learning an utterance dictionary or a language model, and text consisting of character strings is obtained as the output.

本実施例においては、上記した検索ワードの生成処理を、移動体としての車両Mに搭載されている車載装置10が実行する例を示したが、当該処理を実行可能な装置構成であればこれに限られない。例えば、車載装置10の各々の構成を、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末に適用してもよい。 In the present embodiment, an example in which the in-vehicle device 10 mounted on the vehicle M as a moving object executes the above-described search word generation processing has been shown. is not limited to For example, each configuration of the in-vehicle device 10 may be applied to a portable communication terminal that can move with the vehicle, such as a smart phone or a tablet terminal.

また、例えば、上記した検索ワードの生成処理は、車載装置10の代わりに車載装置10と通信可能なサーバ装置によって実行されてもよく、車載装置10が当該処理の結果をサーバ装置から受け取る態様としてもよい。 Further, for example, the above-described search word generation processing may be executed by a server device capable of communicating with the in-vehicle device 10 instead of the in-vehicle device 10, and the in-vehicle device 10 may receive the result of the processing from the server device. good too.

具体的には、例えば、車両Mの搭乗者からマイク12に入力された音声及び発話位置を車載装置10からサーバ装置に送信し、当該サーバ装置において検索ワードの生成処理がなされるようにしてもよい。そして、車載装置10が、サーバ装置から送信される、地図上の発話位置に対応付けて登録された検索ワードを示す情報を、車載装置10のタッチパネルディスプレイ14に表示させるようにしてもよい。 Specifically, for example, the voice input to the microphone 12 by the passenger of the vehicle M and the utterance position are transmitted from the in-vehicle device 10 to the server device, and the search word generation process is performed in the server device. good. Then, the in-vehicle device 10 may cause the touch panel display 14 of the in-vehicle device 10 to display information indicating the search word registered in association with the utterance position on the map, which is transmitted from the server device.

また、サーバ装置から送信される、地図上の発話位置に対応付けて登録された検索ワードを示す情報を、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末で閲覧可能に構成されていてもよい。 In addition, the information indicating search words registered in association with the utterance position on the map, which is transmitted from the server device, can be viewed on portable communication terminals such as smartphones and tablet terminals that can move with the vehicle. may have been

また、ユーザは、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末に音声入力し、当該通信端末から音声及び発話位置をサーバ装置に送信し、当該サーバ装置において検索ワードの生成処理がなされるようにしてもよい。そして、車載装置10が、地図上の発話位置に対応付けて登録された検索ワードを示す情報を受信し、当該情報をタッチパネルディスプレイ14に表示させるようにしてもよい。 In addition, the user inputs voice to a portable communication terminal that can move with the vehicle, such as a smartphone or tablet terminal, transmits the voice and utterance position from the communication terminal to the server device, and the server device generates a search word. processing may be performed. Then, the in-vehicle device 10 may receive information indicating the search word registered in association with the utterance position on the map, and display the information on the touch panel display 14 .

次に、実施例2について説明する。実施例2では、車載装置10の構成の一部とユーザからの発話内容に伴う制御部17による地名の特定方法とが実施例1と異なっており、それ以外の点は実施例1と同様である。 Next, Example 2 will be described. The second embodiment differs from the first embodiment in part of the configuration of the in-vehicle device 10 and the method of specifying the place name by the control unit 17 according to the content of the speech from the user, and is otherwise the same as the first embodiment. be.

図6は、実施例2に係る車両Mの前席部分の構成及び車両Mの前方風景を示す図である。図6においては、車両Mでの移動中に、当該車両Mの進行方向の右前方に上下方向に伸長する筒状の建造物が車両M内から見えている様子を示している。 FIG. 6 is a diagram showing the configuration of the front seat portion of the vehicle M and the front view of the vehicle M according to the second embodiment. FIG. 6 shows a state in which a cylindrical building extending vertically is visible from inside the vehicle M while the vehicle M is traveling, right in front of the vehicle M in the direction of travel.

図6において、車両Mの運転者は、車両M内から見えている建造物がどのようなものであるか興味を持ったことをして、マイク12に向けて「右前の煙突みたいなものって何?」という質問を投げかけている。 In FIG. 6, the driver of the vehicle M is interested in what the building looks like from inside the vehicle M, and says to the microphone 12, "It looks like a chimney on the right front." What?"

本実施例において、車載装置10は、実施例1と同様に、車両Mの搭乗者からの入力音声から普通名詞及び当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉を抽出し、当該普通名詞と連体修飾語、連体修飾句又は連体修飾節を示す言葉とに基づいて第1のワードを生成する。 In this embodiment, as in the first embodiment, the in-vehicle device 10 extracts common nouns and words indicating adnominal modifiers, adnominal modifiers, or adnominal modifiers related to the common nouns from the input voice from the passenger of the vehicle M. extracting and generating a first word based on the common noun and a word indicating an adnominal modifier, an adnominal modifier, or an adnominal modifier clause;

また、本実施例において、車載装置10は、抽出した連体修飾語、連体修飾句又は連体修飾節を示す言葉と上記した発話位置と地図データとに基づいて地名を特定し、当該地名に基づいて第2のワードを生成する。車載装置10は、生成された第1のワードと第2のワードとを組み合わせて検索ワードを生成し、地図上の発話位置に対応付けて登録する。 In this embodiment, the in-vehicle device 10 identifies a place name based on the extracted adnominal modifier, adnominal modifier phrase, or word indicating the adnominal modifier clause, the above-described utterance position, and map data, and based on the place name, Generate a second word. The in-vehicle device 10 combines the generated first word and second word to generate a search word, and registers it in association with the utterance position on the map.

図7は、実施例2に係る車載装置10の構成の一例を示すブロック図である。図7においては、実施例1にて示した車載装置10の構成と異なる点について説明する。 FIG. 7 is a block diagram showing an example of the configuration of the in-vehicle device 10 according to the second embodiment. In FIG. 7, points different from the configuration of the in-vehicle device 10 shown in the first embodiment will be described.

本実施例において、車載装置10の大容量記憶装置22は、範囲設定用DB22Cを有している。範囲設定用DB22Cは、上記した第2のワードの生成時において、制御部17が地名を特定するために用いるデータベースである。 In this embodiment, the mass storage device 22 of the in-vehicle device 10 has a range setting DB 22C. The range setting DB 22C is a database used by the control unit 17 to specify place names when generating the above-described second word.

本実施例において、制御部17は、車両Mの移動中の、発話位置における車両Mの進行方向と地図情報DB22Bに格納されている地図データとに基づいて、車両Mの前方の方角(すなわち進行方向)をユーザが向いている方角としてとみなし、基準方角として取得する。言い換えれば、制御部17は、ユーザが向いている方角を基準方角として取得する方角取得部である。 In this embodiment, the control unit 17 determines the forward direction of the vehicle M (that is, the direction of travel) based on the traveling direction of the vehicle M at the utterance position and the map data stored in the map information DB 22B while the vehicle M is moving. direction) is regarded as the direction in which the user is facing, and is acquired as the reference direction. In other words, the control unit 17 is a direction acquisition unit that acquires the direction in which the user is facing as a reference direction.

以下に、本実施例において制御部17が実行する検索ワードの生成処理の一例について説明する。以下の説明においては、上記にて説明したのと同様に、ユーザから「右前の煙突みたいなものって何?」という音声が入力されたとして説明する。 An example of search word generation processing executed by the control unit 17 in this embodiment will be described below. In the following description, it is assumed that the user has input the voice "What is that thing that looks like a chimney on the right front?"

[テキストの抽出]
まず、テキストの抽出について説明する。制御部17は、実施例1と同様に、音声認識によって変換されたテキストから普通名詞と当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉とを抽出する。
[Extract text]
First, text extraction will be described. As in the first embodiment, the control unit 17 extracts common nouns and words indicating adnominal modifiers, adnominal phrases, or adnominal clauses related to common nouns from the text converted by speech recognition.

具体的には、制御部17は、音声認識によってテキスト変換された「右前の煙突みたいなものって何?」との文字列から、普通名詞を示す「煙突」と、「煙突」に係る連体修飾句を示す「右前の」とを抽出する。なお、本実施例において、「右前の煙突みたいなものって何?」のうち「もの」との表現は形式名詞に当たるため、制御部17は、「もの」を抽出せずに普通名詞を示す「煙突」を抽出する。 Specifically, the control unit 17 extracts the common noun "chimney" and the adnominal form related to "chimney" from the character string "What is that thing that looks like a chimney on the right front?" converted into text by voice recognition. Extract the modifier "right front". In this embodiment, the expression "mono" in "What is that thing that looks like a chimney on the right front?" Extract the "chimney".

[第1のワードの生成]
次に、第1のワードの生成について説明する。本実施例において、制御部17は、「煙突」に係る連体修飾句を示す「右前の」との言葉が、方位を示す表現であると特定する。本実施例において、制御部17は、普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉から方位を示す表現が特定される場合に、当該表現を含めずに第1のワードを生成する。すなわち、本実施例において、制御部17は、普通名詞を示す「煙突」のみを第1のワードとする。
[Generation of first word]
Next, generation of the first word will be described. In this embodiment, the control unit 17 identifies that the word "right front" indicating the adnominal modifier related to "chimney" is an expression indicating a direction. In this embodiment, when an expression indicating a direction is specified from a word indicating an adnominal modifier, an adnominal modifier, or an adnominal modifier related to a common noun, the control unit 17 generates the first word without including the expression. to generate That is, in this embodiment, the control unit 17 sets only the common noun "chimney" as the first word.

[第2のワードの生成]
次に、図8を用いて第2のワードの生成について説明する。図8は、実施例2における制御部17による地名特定の方法の一例を示す図である。図8において、1の町名が示す町の境界を一点鎖線で示している。また、図8において、車両Mの位置を車両Mの搭乗者が発話した発話位置としている。車両Mの位置には、車両Mの搭乗者によって入力された音声を示す言葉を吹き出し表示している。
[Generation of second word]
Next, generation of the second word will be described with reference to FIG. FIG. 8 is a diagram showing an example of a method of specifying a place name by the control unit 17 according to the second embodiment. In FIG. 8, the boundary of the town indicated by the name of town 1 is indicated by a dashed line. In addition, in FIG. 8, the position of the vehicle M is the utterance position where the passenger of the vehicle M uttered. At the position of the vehicle M, a word indicating the voice input by the passenger of the vehicle M is displayed in a balloon.

本実施例において、制御部17は、図8に示すように、地図上において発話位置を起点とした三角形状の範囲R(図中二点鎖線)を設定し、当該範囲R内に一部又は全部が入っている地名を特定する。そして、制御部17は、特定した地名に基づいて第2のワードを生成する。本実施例において、上記した範囲Rは、普通名詞が示すものの属性に基づいて決まる距離範囲Dと、上記した方位を示す表現に基づいて決まる角度範囲θとを用いて設定される。 In this embodiment, as shown in FIG. 8, the control unit 17 sets a triangular range R (a two-dot chain line in the drawing) with the utterance position as the starting point on the map. Identify the place name that contains all of them. Then, the control unit 17 generates a second word based on the specified place name. In this embodiment, the above-described range R is set using the distance range D determined based on the attribute of what the common noun indicates, and the angle range θ determined based on the above-described azimuth expression.

ここで、図9及び図10を参照して、距離範囲D及び角度範囲θについて説明する。 Here, the distance range D and the angle range θ will be described with reference to FIGS. 9 and 10. FIG.

図9は、本実施例におけるジャンルごとに分類された普通名詞が示すものの例とそれに対応する距離範囲Dを示す距離範囲TB1である。制御部17は、距離範囲TB1を参照して、普通名詞が示すものの属性に対応する距離範囲Dを特定する。 FIG. 9 is a distance range TB1 showing an example of common nouns classified by genre and the corresponding distance range D in this embodiment. The control unit 17 refers to the distance range TB1 to specify the distance range D corresponding to the attribute indicated by the common noun.

この距離範囲Dは、例えば、普通名詞によって示されるものがどれくらいの距離から視認できるか否かによって決定されてもよい。例えば、普通名詞によって示される物が建物であれる場合、高さが高いほど遠くから視認できるので距離範囲Dは大きくなる。 This distance range D may be determined, for example, by how far away the object indicated by the common noun is visible. For example, if the object indicated by the common noun is a building, the higher the height, the greater the distance range D, because it can be seen from a greater distance.

距離範囲TB1において、例えば、入力音声において普通名詞が示すものが「店」、「屋台」、「移動販売車」などの高さが数mほどの動産や不動産である場合、距離範囲Dは100mである。 In the distance range TB1, for example, if the common noun in the input speech indicates a movable or immovable property with a height of several meters, such as "store", "stall", or "mobile sales vehicle", the distance range D is 100m. is.

また、距離範囲TB1において、例えば、入力音声において普通名詞が示すものが「ビル」、「煙突」、「フェリー」などの高さが数十~数百mほどの動産や不動産である場合、距離範囲Dは1kmである。 Further, in the distance range TB1, for example, when the common noun indicated in the input speech is a movable or immovable property with a height of several tens to several hundred meters, such as "building", "chimney", or "ferry", the distance Range D is 1 km.

また、距離範囲TB1において、例えば、入力音声において普通名詞が示すものが「展示会」、「コンサート」、「お祭り」などの屋内外で実施されるイベントである場合、距離範囲Dは300mである。 Further, in the distance range TB1, for example, if what the common noun indicates in the input speech is an indoor or outdoor event such as "exhibition", "concert", or "festival", the distance range D is 300m. .

また、距離範囲TB1において、例えば、入力音声において普通名詞が示すものが「花火大会」やアドバルーン等遠くから視認できる物が付随するイベントである場合、距離範囲Dは3kmである。 Further, in the distance range TB1, for example, when what the common noun indicates in the input voice is an event accompanied by an object that can be visually recognized from a distance, such as a "fireworks display" or an advertising balloon, the distance range D is 3 km.

本実施例においては、入力音声において普通名詞が示すものが「煙突」であるため、制御部17は、距離範囲TB1を参照して「煙突」に対応する距離範囲Dが1kmであると特定する。 In this embodiment, since the common noun in the input speech indicates "chimney", the control unit 17 refers to the distance range TB1 and specifies that the distance range D corresponding to "chimney" is 1 km. .

なお、遠くから視認できるものは、近寄る前に発話される可能性が高いので、距離範囲Dの最低距離を定めても良い。例えば、普通名詞が示すものがビルや煙突、フェリー等である場合は、最低距離を1kmとして距離範囲Dを1kmから3kmとしてもよい。 In addition, since there is a high possibility that an object that can be visually recognized from a distance will be spoken before it approaches, the minimum distance of the distance range D may be determined. For example, when common nouns indicate buildings, chimneys, ferries, etc., the minimum distance may be 1 km and the distance range D may be 1 km to 3 km.

図10は、本実施例における方位を示す表現例とそれに対応する角度範囲を示す角度範囲TB2である。制御部17は、角度範囲TB2を参照して、方位を示す表現に対応する角度範囲θを特定する。 FIG. 10 shows an expression example showing the azimuth in this embodiment and an angle range TB2 showing the corresponding angle range. The control unit 17 refers to the angle range TB2 to specify the angle range θ corresponding to the expression indicating the orientation.

角度範囲TB2において、例えば、制御部17は、入力音声において普通名詞を修飾する言葉に「前の…」との自身の向く基準方角に対する方位を示す表現を特定した場合、角度範囲θが自身の向く方角を基準(0°)として当該基準から左に45°(-45°)から右に45°までの範囲であると特定する。 In the angle range TB2, for example, when the control unit 17 specifies an expression indicating the direction relative to the reference direction in which the control unit 17 is facing, such as "previous..." as a word that modifies common nouns in the input speech, the angle range θ Using the direction of orientation as a reference (0°), the range from 45° (-45°) to the left to 45° to the right is specified.

また、角度範囲TB2において、例えば、制御部17は、入力音声において普通名詞を修飾する言葉に「左の…」との自身の向く基準方角に対する方位を示す表現を特定した場合、角度範囲θが自身の向く方角を基準(0°)として225°から315°までの範囲であると特定する。 Further, in the angle range TB2, for example, when the control unit 17 specifies an expression indicating the direction relative to the reference direction in which the control unit 17 is facing, such as "left..." as a word that modifies a common noun in the input speech, the angle range θ is The range of 225° to 315° is specified with the direction to which it faces as a reference (0°).

本実施例においては、制御部17は、上記したように、普通名詞を示す「煙突」に係る連体修飾句を示す「右前の」との言葉が、車両Mの搭乗者が向いている基準方角に対する方位を示す表現であると特定する。これにより、制御部17は、角度範囲TB2を参照して、「右前の」に対応する角度範囲θが自身の向く方角を基準(0°)として0°から45°までの範囲であると特定する。 In this embodiment, as described above, the control unit 17 determines that the word "right front" indicating the adnominal modifier related to the common noun "chimney" indicates the reference direction to which the passenger of the vehicle M is facing. Identify it as an expression that indicates the orientation with respect to . As a result, the control unit 17 refers to the angle range TB2, and specifies that the angle range θ corresponding to "right front" is a range from 0° to 45° with the direction in which the controller 17 faces as a reference (0°). do.

再び図8を参照する。上記したように、制御部17は、「右前の煙突みたいなものって何?」との入力音声を取得した際に、普通名詞を示す「煙突」との言葉から、距離範囲TB1に基づいて、距離範囲Dが1kmであると特定する。また、制御部17は、普通名詞に係る連体修飾句を示す「右前の」との言葉から、角度範囲TB2に基づいて角度範囲θが0°から45°までの範囲であると特定する。 Refer to FIG. 8 again. As described above, when the control unit 17 acquires the input voice "What's that thing like a chimney on the right front?" , the distance range D is 1 km. Also, the control unit 17 specifies that the angle range θ is from 0° to 45° based on the angle range TB2 from the word "right front" indicating the adnominal modifier of common nouns.

制御部17は、特定した距離範囲D及び角度範囲θに基づいて、範囲Rを地図上に形成する。具体的には、制御部17は、発話位置から自身の向く方角に距離範囲Dだけ延ばしたものを第1の辺とし、発話位置から当該第1の辺を角度範囲θだけずらしたものを第2の辺とし、第1の辺の終点と第2の辺の終点とを直線で繋ぐことで、三角形状の範囲Rを形成する。 The control unit 17 forms a range R on the map based on the specified distance range D and angle range θ. Specifically, the control unit 17 defines the first side as a distance range D extending from the utterance position in the direction in which the control unit 17 is facing, and the first side as the first side shifted by an angle range θ from the utterance position. A triangular range R is formed by connecting the end point of the first side and the end point of the second side with a straight line.

そして、制御部17は、範囲R内に一部又は全部が入っている地名を特定する。具体的には、制御部17は、図8に示すように、「新宿区△△町」及び「新宿区×○町」を地名として特定する。 Then, the control unit 17 identifies place names that are partly or entirely within the range R. Specifically, as shown in FIG. 8, the control unit 17 specifies "Shinjuku-ku △△-cho" and "Shinjuku-ku X-cho" as place names.

本実施例において、制御部17は、特定した地名を第2のワードとする。すなわち、本実施例において、制御部17は、「新宿区△△町」及び「新宿区×○町」を第2のワードとする。 In this embodiment, the control unit 17 uses the identified place name as the second word. That is, in the present embodiment, the control unit 17 uses "Shinjuku-ku △△-cho" and "Shinjuku-ku ×○-cho" as the second words.

[検索ワードの生成]
次に、検索ワードの生成について説明する。制御部17は、実施例1と同様に、それぞれ生成された第1のワードと第2のワードとを組み合わせて検索ワードを生成する。
[Generate search word]
Next, generation of search words will be described. As in the first embodiment, the control unit 17 combines the generated first word and second word to generate a search word.

制御部17は、生成した第2のワードが複数ある場合に、OR検索+AND検索としての検索ワードを生成する。具体的には、制御部17は、第2のワードである「新宿区△△町」及び「新宿区×○町」のそれぞれと、第1のワードである「煙突」とを含めるように、「(新宿区△△町 OR 新宿区×○町) 煙突」という検索ワードを生成する。 When there are a plurality of generated second words, the control unit 17 generates a search word for OR search+AND search. Specifically, the control unit 17 includes the second words "Shinjuku-ku △△-cho" and "Shinjuku-ku X-cho" and the first word "chimney". A search word “(△△ town, Shinjuku-ku OR ×○ town, Shinjuku-ku) chimney” is generated.

制御部17によって生成された上記検索ワードは、実施例1と同様に、地図上の発話位置に対応付けられて登録される。車両Mの搭乗者は、例えば、実施例1と同様に、タッチパネルディスプレイ14上に表示される「(新宿区△△町 OR 新宿区×○町) 煙突」との吹き出し表示をタッチすることにより、上記検索ワードによる検索結果を得ることができる。 The search word generated by the control unit 17 is registered in association with the utterance position on the map, as in the first embodiment. For example, in the same way as in the first embodiment, the passenger of the vehicle M touches the balloon display of "(Shinjuku-ku △△ town OR Shinjuku-ku ×○ town) Chimney" displayed on the touch panel display 14. It is possible to obtain search results using the above search words.

以下に、本実施例における車載装置10の制御部17において実行される第2のワード生成処理について説明する。図11は、車載装置10の制御部17において実行される第2のワード生成サブルーチンRT3を示すフローチャートである。なお、実施例1と同様の処理を行うステップS201については説明を省略する。 The second word generation process executed by the control unit 17 of the in-vehicle device 10 in this embodiment will be described below. FIG. 11 is a flow chart showing the second word generation subroutine RT3 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG. Note that the description of step S201, which performs the same processing as in the first embodiment, will be omitted.

制御部17は、ステップS201にて発話位置及び地図データを取得した後に、上記した普通名詞が示すものの属性に基づいて距離範囲Dを特定し、上記した方位を示す表現に基づいて角度範囲θを特定する(ステップS301)。 After acquiring the utterance position and the map data in step S201, the control unit 17 specifies the distance range D based on the attribute of the object indicated by the common noun, and determines the angle range θ based on the expression indicating the direction described above. Identify (step S301).

制御部17は、ステップS301の後に、特定した距離範囲D及び角度範囲θを用いて地図上において範囲Rを形成する(ステップS302)。具体的には、図8に示すように、発話位置を起点とする三角形状の範囲Rを形成する。 After step S301, the control unit 17 forms a range R on the map using the specified distance range D and angle range θ (step S302). Specifically, as shown in FIG. 8, a triangular range R starting from the speech position is formed.

制御部17は、ステップS302の後に、範囲R内にある地名を特定する(ステップS303)。すなわち、本実施例において、制御部17は、範囲R内にある「新宿区△△町」及び「新宿区×○町」を地名として特定する。 After step S302, the control unit 17 identifies place names within the range R (step S303). That is, in the present embodiment, the control unit 17 specifies "Shinjuku-ku △△-cho" and "Shinjuku-ku ×○-cho" within the range R as place names.

制御部17は、ステップS303において特定された地名に基づいて第2のワードを生成する(ステップS304)。すなわち、本実施例において、制御部17は、「新宿区△△町」及び「新宿区×○町」を第2のワードとする。制御部17は、ステップS304の後に第2のワード生成サブルーチンRT3を終了する。 The control unit 17 generates a second word based on the place name identified in step S303 (step S304). That is, in the present embodiment, the control unit 17 uses "Shinjuku-ku △△-cho" and "Shinjuku-ku ×○-cho" as the second words. The control unit 17 terminates the second word generation subroutine RT3 after step S304.

本実施例によれば、実施例1と同様に、生成された検索ワードが地図上の発話位置に対応付けられる態様で登録されるため、車両Mの搭乗者等のユーザは、いつでも検索ワードについて検索を行うことができる。 According to the present embodiment, as in the first embodiment, the generated search word is registered in a manner associated with the utterance position on the map. Search can be performed.

また、本実施例によれば、制御部17は、入力音声における普通名詞が示すものの属性に基づく距離範囲と、入力音声における自身の向く基準方角に対する方位を示す表現に基づく角度範囲とを用いて、地名を特定するための範囲を設定する。 In addition, according to the present embodiment, the control unit 17 uses the distance range based on the attribute of the common noun in the input speech and the angle range based on the expression indicating the orientation relative to the reference direction in which the input speech faces. , set the range for specifying the place name.

これにより、制御部17は、例えば、ユーザから自身が興味を持った対象TAまでの距離が離れているような場合に、当該対象TAが位置すると想定される地域に的を絞った検索ワードを生成することができる。そのため、ユーザは、検索ワードと関連性の高い情報、すなわち対象TAと直接的又は間接的に関連性の有る情報を取得することができる。 As a result, for example, when the target TA in which the user is interested is far away from the user, the control unit 17 can select search words focused on the area where the target TA is supposed to be located. can be generated. Therefore, the user can obtain information that is highly relevant to the search word, that is, information that is directly or indirectly relevant to the target TA.

従って、本実施例によれば、ユーザが移動中に興味を持った対象についての情報を好きなタイミングで容易に取得することができる。 Therefore, according to this embodiment, the user can easily acquire information about an object that the user is interested in while moving at a desired timing.

なお、本実施例において、距離範囲TB1及び角度範囲TB2にそれぞれ示した距離範囲及び角度範囲は、一例に過ぎず、その範囲を適宜変更してもよい。また、例えば、上記した距離範囲については、名詞が示すものの属性に関わらず一定の距離範囲としてもよく、制御部17は、当該一定の距離範囲と角度範囲TB2とに基づいて範囲Rを形成してもよい。 In this embodiment, the distance range and the angle range indicated by the distance range TB1 and the angle range TB2 are merely examples, and the ranges may be changed as appropriate. Further, for example, the distance range described above may be a fixed distance range regardless of the attribute indicated by the noun, and the control unit 17 forms the range R based on the fixed distance range and the angle range TB2. may

また、本実施例において、制御部17は、地図上において三角形状の範囲Rを形成するとしたが、その形状はこれに限られない。例えば、制御部17は、上記した第1の辺と第2の辺とを定めた際に、第1の辺の終点と第2の辺の終点とを外側に凸の曲線で繋いでもよい。すなわち、範囲Rは、扇形状の態様であってもよい。 In this embodiment, the control unit 17 forms the triangular range R on the map, but the shape is not limited to this. For example, when the first side and the second side are determined, the control unit 17 may connect the end point of the first side and the end point of the second side with an outwardly convex curve. That is, the range R may be fan-shaped.

本実施例において、実施例1と同様にスマホやタブレットなどの通信端末であってもよい。このとき、制御部17は、ユーザが移動している方角を当該ユーザが向いている方角として取得する。 In this embodiment, as in the first embodiment, a communication terminal such as a smartphone or a tablet may be used. At this time, the control unit 17 acquires the direction in which the user is moving as the direction in which the user is facing.

本実施例において、制御部17は、OR検索+AND検索としての「(新宿区△△町 OR 新宿区×○町) 煙突」との検索ワードを生成するとしたが、検索ワードの態様はこれに限られない。例えば、制御部17は、単に「新宿区△△町 煙突」及び「新宿区×○町 煙突」との検索ワードを生成して発話位置に登録し、ユーザにより好ましい方を選択させる態様としてもよい。 In this embodiment, the control unit 17 generates a search word "(Shinjuku-ku △△-cho OR Shinjuku-ku ×○-cho) chimney" as an OR search + AND search, but the form of the search word is limited to this. can't For example, the control unit 17 may simply generate search words “Shinjuku-ku △△-cho chimney” and “Shinjuku-ku ×○ town chimney” and register them in the utterance position so that the user can select the preferred one. .

次に、実施例3について説明する。実施例3では、ユーザからの発話内容に伴う制御部17による地名の特定方法が実施例2と異なっており、それ以外の点は実施例2と同様である。 Next, Example 3 will be described. The third embodiment is the same as the second embodiment except for the method of specifying the place name by the control unit 17 according to the content of the user's utterance.

図12は、実施例3に係る車両Mの前席部分の構成及び車両Mの前方風景を示す図である。図12においては、車両Mでの移動中に、当該車両Mの進行方向の左前方に○×タワーが車両Mから見えており、当該○×タワーの右方に雲のようなオブジェを備えるビルが見えている様子を示している。 FIG. 12 is a diagram showing the configuration of the front seat portion of the vehicle M and the front view of the vehicle M according to the third embodiment. In FIG. 12, while the vehicle M is moving, the ○× Tower is visible from the vehicle M in front of the vehicle M in the traveling direction, and a building with a cloud-like object is located to the right of the ○× Tower. is visible.

図12において、車両Mの運転者は、雲のようなオブジェを備えるビルがどのようなものであるか興味を持ったことをして、マイク12に向けて「○×タワーの右にある雲のようなオブジェがあるビルって何?」という質問を投げかけている。 In FIG. 12, the driver of the vehicle M is interested in what the building with cloud-like objects looks like, and speaks to the microphone 12, "The cloud on the right of the XX tower. What is a building with an object like this?"

本実施例において、車載装置10は、実施例2と同様に、車両Mの搭乗者からの入力音声から普通名詞及び当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉を抽出し、当該普通名詞と連体修飾語、連体修飾句又は連体修飾節を示す言葉とに基づいて第1のワードを生成する。 In this embodiment, as in the second embodiment, the in-vehicle device 10 extracts common nouns and words indicating adnominal modifiers, adnominal modifiers, or adnominal modifiers related to the common nouns from the input voice from the passenger of the vehicle M. extracting and generating a first word based on the common noun and a word indicating an adnominal modifier, an adnominal modifier, or an adnominal modifier clause;

また、本実施例において、車載装置10は、抽出した連体修飾語、連体修飾句又は連体修飾節を示す言葉と上記した発話位置と地図データとに基づいて地名を特定し、当該地名に基づいて第2のワードを生成する。車載装置10は、実施例2と同様に、生成された第1のワードと第2のワードとを組み合わせて検索ワードを生成し、地図上の発話位置に対応付けて登録する。 In this embodiment, the in-vehicle device 10 identifies a place name based on the extracted adnominal modifier, adnominal modifier phrase, or word indicating the adnominal modifier clause, the above-described utterance position, and map data, and based on the place name, Generate a second word. As in the second embodiment, the in-vehicle device 10 combines the generated first word and second word to generate a search word, and registers it in association with the utterance position on the map.

以下に、本実施例において制御部17が実行する検索ワードの生成処理の一例について説明する。以下の説明においては、上記にて説明したのと同様に、ユーザから「○×タワーの右にある雲のようなオブジェがあるビルって何?」という音声が入力されたとして説明する。 An example of search word generation processing executed by the control unit 17 in this embodiment will be described below. In the following description, it is assumed that the user has input the voice "What is the building with the cloud-like object to the right of the ◯× tower?"

[テキストの抽出]
まず、テキストの抽出について説明する。制御部17は、実施例2と同様に、音声認識によって変換されたテキストから普通名詞と当該普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉とを抽出する。
[Extract text]
First, text extraction will be described. As in the second embodiment, the control unit 17 extracts common nouns and words indicating adnominal modifiers, adnominal phrases, or adnominal clauses related to common nouns from the text converted by speech recognition.

具体的には、制御部17は、音声認識によってテキスト変換された「○×タワーの右にある雲のようなオブジェがあるビルって何?」との文字列から、普通名詞を示す「ビル」と、「ビル」に係る連体修飾句を示す「○×タワーの右にある雲ようなのオブジェがある」とを抽出する。 Specifically, the control unit 17 converts the character string "What is the building with the cloud-like object to the right of the ◯× tower?" and "There is a cloud-like object on the right of the ◯× tower" indicating the adnominal modifier related to "building".

[第1のワードの生成]
次に、第1のワードの生成について説明する。本実施例において、制御部17は、「ビル」に係る連体修飾節の「○×タワーの右にある」との言葉が、「○×タワー」という固有名詞を含み、かつ発話位置から当該固有名詞が示すもの(○×タワー)に向かう方角を基準方角とした場合の、当該基準方角に対する方位を示す表現であると特定する。
[Generation of first word]
Next, generation of the first word will be described. In the present embodiment, the control unit 17 determines that the adnominal modifier phrase "on the right of XX tower" in the adnominal clause related to ``building'' includes the proper noun ``XX tower'', If the direction toward the object indicated by the noun (○×Tower) is taken as the reference direction, specify the expression indicating the direction with respect to the reference direction.

本実施例において、制御部17は、普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉から、固有名詞及び発話位置から固有名詞に向かう方角に対する方位を示す表現が特定される場合に、当該表現を含めずに第1のワードを生成する。すなわち、本実施例において、制御部17は、普通名詞を示す「ビル」及び当該「ビル」に係る連体修飾節を示す「雲のようなオブジェがある」を第1のワードとする。 In this embodiment, the control unit 17 specifies the proper noun and the expression indicating the direction from the utterance position to the proper noun from the word indicating the adnominal modifier, adnominal modifier, or adnominal modifier related to the common noun. If so, generate the first word without the expression. That is, in the present embodiment, the control unit 17 sets "there is an object like a cloud" indicating a common noun "bir" and the adnominal modifier related to "bir" as the first word.

[第2のワードの生成]
次に、図13を用いて第2のワードの生成について説明する。図13は、実施例3における制御部17による地名特定の方法の一例を示す図である。図13において、1の町名が示す町の境界を一点鎖線で示している。また、図13において、車両Mの位置を車両Mの搭乗者が発話した発話位置としている。
[Generation of second word]
Next, generation of the second word will be described with reference to FIG. FIG. 13 is a diagram showing an example of a method of specifying a place name by the control unit 17 according to the third embodiment. In FIG. 13, the boundary of the town indicated by the name of town 1 is indicated by a dashed line. In addition, in FIG. 13, the position of the vehicle M is the utterance position where the passenger of the vehicle M uttered.

本実施例において、制御部17は、入力音声の普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉から、固有名詞が示すもの及び発話位置から固有名詞が示すものに向かう方角に対する方位を特定する。 In this embodiment, the control unit 17 determines what the proper noun indicates from the word indicating the adnominal modifier, adnominal modifier phrase, or adnominal modifier related to the common noun of the input speech, and the direction from the utterance position to the proper noun Determine the orientation with respect to

なお、本実施例において、固有名詞が示すものは、車両Mの搭乗者が対象TAとの位置関係を表す際の、目印となる地物としてのランドマークである。本実施例において、ランドマークは、予め地図情報にその名称及び位置が登録されているものとする。 In the present embodiment, what is indicated by the proper noun is a landmark as a feature that serves as a mark when the passenger of the vehicle M expresses the positional relationship with the target TA. In this embodiment, it is assumed that the names and positions of landmarks are registered in advance in the map information.

本実施例において、制御部17は、実施例2と同様に、発話位置を起点とした三角形状で囲まれる範囲R(図中二点鎖線)を設定し、地図上において範囲R内に一部又は全部が入っている地名を特定する。そして、制御部17は、特定した地名に基づいて第2のワードを生成する。 In this embodiment, as in the second embodiment, the control unit 17 sets a range R (a two-dot chain line in the figure) surrounded by a triangle with the utterance position as the starting point, and a part of the area within the range R on the map. Or specify the place name that contains all. Then, the control unit 17 generates a second word based on the specified place name.

本実施例において、所定の範囲Rは、普通名詞が示すものの属性に基づいて決まる距離範囲Dと、発話位置から固有名詞が示すもの(ランドマーク)に向かう方角に対する方位を示す表現に基づいて決まる角度範囲θとを用いて設定される。距離範囲Dについては、実施例2と同様の方法で決定される。 In this embodiment, the predetermined range R is determined based on the distance range D determined based on the attribute of the object indicated by the common noun, and the expression indicating the direction from the utterance position to the object indicated by the proper noun (landmark). It is set using the angle range θ. The distance range D is determined by the same method as in the second embodiment.

ここで、図14を参照して、角度範囲θについて説明する。図14は、発話位置からランドマーク(以下、LMとも称する)に向かう方角に対する方位を示す表現例とそれに対応する角度範囲θを示す角度範囲TB3である。 Here, the angle range θ will be described with reference to FIG. 14 . FIG. 14 shows an expression example showing an azimuth with respect to the direction from the speech position to the landmark (hereinafter also referred to as LM) and an angle range TB3 showing the corresponding angle range θ.

角度範囲TB3において、例えば、入力音声において普通名詞を修飾する言葉から「LMの奥にある…」や「LMを超えた先の…」との言葉が特定される場合、角度範囲θは、右回りを正として、発話位置からLMに向かう方角を基準(0°)として当該基準から左に45°(-45°)から右に45°までの範囲である。 In the angle range TB3, for example, when words such as "behind the LM..." or "beyond the LM..." are specified from words modifying common nouns in the input speech, the angle range ? The range is from 45° to the left (-45°) to 45° to the right from the reference (0°) of the direction from the utterance position toward the LM, with the circumference being positive.

また、角度範囲TB3において、例えば、入力音声において普通名詞を修飾する言葉から「LMの左にある…」との言葉が特定される場合、角度範囲θは、発話位置からLMに向かう方角を基準(0°)として315°から360°までの範囲である。 In addition, in the angle range TB3, for example, when the word "to the left of the LM..." is specified from the words that modify common nouns in the input speech, the angle range θ is based on the direction from the utterance position to the LM. It ranges from 315° to 360° as (0°).

本実施例においては、制御部17は、「○×タワーの右にある」との言葉が、発話位置から「○×タワー」に向かう方角に対する方位を示す表現であると特定する。これにより、制御部17は、角度範囲TB3を参照して、「LMの右にある」に対応する角度範囲θが発話位置からLMに向かう方角を基準(0°)として0°から45°までの範囲であると特定する。 In this embodiment, the control unit 17 specifies that the words "on the right of ◯× tower" are expressions that indicate the direction from the utterance position toward "◯× tower". As a result, the control unit 17 refers to the angle range TB3, and determines that the angle range θ corresponding to “on the right of the LM” ranges from 0° to 45° with the direction from the utterance position toward the LM as the reference (0°). to be in the range of

再び図13を参照する。制御部17は、「○×タワーの右にある雲のようなオブジェがあるビルって何?」との入力音声を取得した際に、普通名詞を示す「ビル」との言葉から、図9に示した距離範囲TB1に基づいて、距離範囲Dが1kmであると特定する。また、制御部17は、普通名詞に係る連体修飾節を示す「○×タワーの右にある」との言葉から、角度範囲TB3に基づいて角度範囲θが0°から45°までの範囲であると特定する。 Refer to FIG. 13 again. When the control unit 17 acquires the input voice "What is the building with the cloud-like object to the right of the ◯× tower?" Based on the distance range TB1 shown in , the distance range D is identified as 1 km. In addition, the control unit 17 determines that the angle range θ is from 0° to 45° based on the angle range TB3 from the words “○×To the right of the tower” indicating adnominal modifiers related to common nouns. and specify.

制御部17は、特定した距離範囲D及び角度範囲θに基づいて、上記した範囲Rを地図上に形成する。そして、制御部17は、地図上において範囲R内にある地名を特定する。具体的には、制御部17は、図13に示すように、「新宿区△△町」、「新宿区×○町」及び「新宿区△□町」を地名として特定する。 The control unit 17 forms the range R on the map based on the specified distance range D and angle range θ. Then, the control unit 17 identifies place names within the range R on the map. Specifically, as shown in FIG. 13, the control unit 17 specifies “Shinjuku Ward △△ Town”, “Shinjuku Ward ×○ Town”, and “Shinjuku Ward △□ Town” as place names.

本実施例において、制御部17は、実施例2と同様に、特定した地名を第2のワードとする。すなわち、本実施例において、制御部17は、「新宿区△△町」、「新宿区×○町」及び「新宿区△□町」を第2のワードとする。 In this embodiment, the control unit 17 uses the identified place name as the second word, as in the second embodiment. That is, in the present embodiment, the control unit 17 sets "Shinjuku-ku △△-cho", "Shinjuku-ku ×○-cho", and "Shinjuku-ku △□cho" as the second words.

[検索ワードの生成]
次に、検索ワードの生成について説明する。制御部17は、実施例2と同様に、それぞれ生成された第1のワードと第2のワードとを組み合わせて、OR検索+AND検索としての検索ワードを生成する。
[Generate search word]
Next, generation of search words will be described. As in the second embodiment, the control unit 17 combines the generated first word and second word to generate a search word for OR search+AND search.

具体的には、制御部17は、第2のワードである「新宿区△△町」、「新宿区×○町」又は「新宿区△□町」と、第1のワードである「雲のようなオブジェがある」及び「ビル」とを含めるように、「(新宿区△△町 OR 新宿区×○町 OR 新宿区△□町) 雲のようなオブジェがある ビル」という検索ワードを生成する。制御部17によって生成された上記検索ワードは、実施例1及び2と同様に、地図上の発話位置に対応付けられて登録される。
以下に、本実施例における車載装置10の制御部17において実行される第2のワード生成処理について説明する。図15は、車載装置10の制御部17において実行される第2のワード生成サブルーチンRT4を示すフローチャートである。なお、実施例1と同様の処理を行うステップS201については説明を省略する。
Specifically, the control unit 17 outputs the second word “Shinjuku-ku △△-cho”, “Shinjuku-ku ×○-cho” or “Shinjuku-ku △□cho” and the first word “cloud In order to include "there is an object like a cloud" and "the building", the search word "(Shinjuku Ward △△ Town OR Shinjuku Ward ×○ Town OR Shinjuku Ward △□ Town) Building with an object like a cloud" is generated. do. The search word generated by the control unit 17 is registered in association with the utterance position on the map, as in the first and second embodiments.
The second word generation process executed by the control unit 17 of the in-vehicle device 10 in this embodiment will be described below. FIG. 15 is a flow chart showing the second word generation subroutine RT4 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG. Note that the description of step S201, which performs the same processing as in the first embodiment, will be omitted.

制御部17は、ステップS201において発話位置及び地図データを取得した後に、地図データに基づいて固有名詞が示すもの(ランドマーク)の位置を特定する(ステップS401)。そして、制御部17は、ステップS401の後に、上記固有名詞が示すものの位置に基づいて、発話位置から固有名詞が示すものに向かう方角を基準方角として特定する(ステップS402)。 After acquiring the utterance position and the map data in step S201, the control unit 17 identifies the position of the object (landmark) indicated by the proper noun based on the map data (step S401). Then, after step S401, the control unit 17 specifies, as a reference direction, the direction from the utterance position to the object indicated by the proper noun based on the position of the object indicated by the proper noun (step S402).

制御部17は、ステップS402の後に、普通名詞が示すものの属性に基づいて距離範囲Dを特定し、上記した発話位置から固有名詞が示すものに向かう基準方角に対する方位を示す表現に基づいて角度範囲θを特定する(ステップS403)。 After step S402, the control unit 17 specifies the distance range D based on the attribute of the object indicated by the common noun, and determines the angle range based on the expression indicating the direction from the utterance position to the object indicated by the proper noun with respect to the reference direction. θ is specified (step S403).

制御部17は、ステップS403の後に、特定した距離範囲D及び角度範囲θを用いて地図上において範囲Rを形成する(ステップS404)。具体的には、図13に示すように、発話位置を起点とする三角形状の範囲Rを形成する。 After step S403, the control unit 17 forms a range R on the map using the specified distance range D and angle range θ (step S404). Specifically, as shown in FIG. 13, a triangular range R is formed starting from the utterance position.

制御部17は、ステップS404の後に、範囲R内にある地名を特定する(ステップS405)。すなわち、本実施例において、制御部17は、範囲R内にある「新宿区△△町」、「新宿区×○町」及び「新宿区△□町」を地名として特定する。 After step S404, the control unit 17 identifies place names within the range R (step S405). That is, in the present embodiment, the control unit 17 specifies “Shinjuku Ward △△ Town”, “Shinjuku Ward ×○ Town”, and “Shinjuku Ward △□ Town” within the range R as place names.

制御部17は、ステップS405において特定された地名に基づいて第2のワードを生成する(ステップS406)。すなわち、本実施例において、制御部17は、「新宿区△△町」、「新宿区×○町」及び「新宿区△□町」を第2のワードとする。制御部17は、ステップS406の後に第2のワード生成サブルーチンRT4を終了する。 The control unit 17 generates a second word based on the place name identified in step S405 (step S406). That is, in the present embodiment, the control unit 17 sets "Shinjuku-ku △△-cho", "Shinjuku-ku ×○-cho", and "Shinjuku-ku △□cho" as the second words. The control unit 17 terminates the second word generation subroutine RT4 after step S406.

本実施例によれば、実施例2と同様に、生成された検索ワードが地図上の発話位置に対応付けられる態様で登録されるため、車両Mの搭乗者等のユーザは、いつでも検索ワードについて検索を行うことができる。 According to this embodiment, as in the second embodiment, the generated search word is registered in a manner associated with the utterance position on the map. Search can be performed.

また、本実施例によれば、制御部17は、ユーザからの発話による入力音声から、ランドマークとしての固有名詞が示すものを特定し、且つ発話位置から当該ランドマークに向かう方角に対する方位を示す表現を特定することによって、第2のワード生成のための1又は複数の地名を特定することができる。 Further, according to the present embodiment, the control unit 17 identifies what a proper noun as a landmark indicates from the input voice of the user's utterance, and indicates the direction from the utterance position to the landmark. By specifying the expression, one or more place names can be specified for the second word generation.

そのため、制御部17は、例えば、ユーザから自身が興味を持った対象TAまでの距離があるような場合に、目印となる地物(ランドマーク)を参照しつつ、対象TAが位置すると想定される地域に的を絞った検索ワードを生成することができる。 For this reason, for example, when there is a distance from the user to the target TA that the user is interested in, the control unit 17 refers to the feature (landmark) serving as a landmark and assumes that the target TA is located. You can generate search terms that are targeted to your region.

そのため、ユーザは、検索ワードと関連性の高い情報、すなわち対象TAと直接的又は間接的に関連性の有る情報を取得することができる。従って、本実施例によれば、ユーザが移動中に興味を持った対象についての情報を好きなタイミングで容易に取得することができる。 Therefore, the user can obtain information that is highly relevant to the search word, that is, information that is directly or indirectly relevant to the target TA. Therefore, according to this embodiment, the user can easily acquire information about an object that the user is interested in while moving at a desired timing.

なお、本実施例において、制御部17は、入力音声から固有名詞が示すもの及び発話位置から固有名詞が示すものに向かう方角に対する方位を示す表現を特定した際に、当該表現を第1のワードに含めないとしたが、これに限られない。 Note that, in this embodiment, when the control unit 17 specifies from the input speech an expression indicating the direction of the direction indicated by the proper noun and from the utterance position to the direction indicated by the proper noun, the control unit 17 converts the expression into the first word. However, it is not limited to this.

例えば、制御部17は、固有名詞が示すものを第1のワードに含めてもよい。具体的には、制御部17は、固有名詞としての「○×タワー」を第1のワードに含め、OR検索+AND検索としての「(新宿区△△町 OR 新宿区×○町 OR 新宿区△□町) 雲のようなオブジェがある ビル ○×タワー」との検索ワードを生成してもよい。 For example, the control unit 17 may include what a proper noun indicates in the first word. Specifically, the control unit 17 includes “○× tower” as a proper noun in the first word, and “(Shinjuku-ku △△ town OR Shinjuku-ku × ○ town OR Shinjuku-ku △” as OR search + AND search □Town) You may generate a search word such as “Bill ○×Tower with cloud-like objects”.

次に、実施例4について説明する。実施例4では、制御部17が第2のワードを生成するために特定するものが実施例1と異なっており、それ以外の点、例えば車載装置10の各々の構成や第1のワードの生成方法等は実施例1と同様である。 Next, Example 4 will be described. The fourth embodiment differs from the first embodiment in what the control unit 17 specifies to generate the second word, and other points, such as the configuration of each vehicle-mounted device 10 and the generation of the first word, are different from those in the first embodiment. The method and the like are the same as in the first embodiment.

本実施例において、制御部17は、車両Mの搭乗者による発話によって音声入力された発話位置と、地図データとに基づいて、当該発話位置周辺の地物を特定する。本実施例において、制御部17は、特定した地物に基づいて第2のワードを生成する。 In this embodiment, the control unit 17 identifies features around the utterance position based on the utterance position voice-inputted by the occupant of the vehicle M and the map data. In this embodiment, the control unit 17 generates the second word based on the specified feature.

以下、本実施例における検索ワードの生成処理の一例について説明する。なお、テキストの抽出及び第1のワードの生成処理については、実施例1と同様であるため省略する。以下の説明においては、実施例1と同様に、ユーザから「あの行列ができているラーメン屋ってどんな店?」という音声が入力されたとして説明する。 An example of search word generation processing in this embodiment will be described below. Note that the text extraction and first word generation processing are the same as those in the first embodiment, and therefore are omitted. In the following explanation, as in the first embodiment, it is assumed that the user has input the voice "What kind of ramen shop is that ramen shop with a long line?"

[第2のワードの生成]
以下に、本実施例において、第2のワードの生成についてのうち、実施例1と異なる部分について説明する。図16は、実施例3における制御部17による地物特定の方法の一例を示す図である。図16において、1の町名が示す町の境界を一点鎖線で示している。また、図16において、車両Mの位置を車両Mの搭乗者が発話した発話位置としている。
[Generation of second word]
In the following, the part of the second word generation in this embodiment that differs from the first embodiment will be described. 16A and 16B are diagrams illustrating an example of a feature identification method by the control unit 17 according to the third embodiment. In FIG. 16, the boundary of the town indicated by the town name of 1 is indicated by a dashed line. In addition, in FIG. 16, the position of the vehicle M is the utterance position where the passenger of the vehicle M uttered.

制御部17は、車両Mの搭乗者が「あの行列ができているラーメン屋ってどんなお店?」と発話した発話位置と、地図情報DB22Bに格納されている地図情報とに基づいて、当該発話位置の周辺に位置する地物を特定する。 The control unit 17, based on the utterance position where the passenger of the vehicle M uttered "What kind of restaurant is that ramen restaurant with a long line?" and the map information stored in the map information DB 22B, Identify features located around the speaking position.

具体的には、制御部17は、例えば、発話位置及び地図情報に基づいて、発話位置の周辺にある最寄り駅やバス停、鉄道路線又は道路路線等の交通インフラに関連する施設の名称を特定する。本実施例において、制御部17は、図16に示すように、発話位置の最寄り駅である「○△駅」を特定している。本実施例において、制御部17は、特定した発話位置の最寄り駅である「○△駅」を第2のワードとする。 Specifically, for example, based on the utterance position and map information, the control unit 17 identifies the names of facilities related to transportation infrastructure such as nearest stations, bus stops, railway lines, and road lines in the vicinity of the utterance position. . In this embodiment, as shown in FIG. 16, the control unit 17 specifies "○△ station", which is the nearest station to the utterance position. In this embodiment, the control unit 17 sets the second word to be "○△ station", which is the nearest station to the specified utterance position.

[検索ワードの生成]
制御部17は、生成した第1のワードである「行列ができている」及び「ラーメン屋」と、第2のワードである「○△駅」とを間にスペースを入れて組み合わせて、1の検索ワードである「行列ができている ラーメン屋 ○△駅」を生成する。そして、制御部17は、生成した検索ワードを発話位置に対応付けて登録する。
[Generate search word]
The control unit 17 combines the generated first words “there is a queue” and “ramen shop” with the second word “○△ station” with a space between them to form 1 generates a search word for ``a ramen shop with a queue at ○△ station''. Then, the control unit 17 registers the generated search word in association with the utterance position.

以下に、本実施例における車載装置10の制御部17において実行される第2のワード生成処理について説明する。図17は、車載装置10の制御部17において実行される第2のワード生成サブルーチンRT5を示すフローチャートである。なお、実施例1と同様の処理を行うステップS201については説明を省略する。 The second word generation process executed by the control unit 17 of the in-vehicle device 10 in this embodiment will be described below. FIG. 17 is a flow chart showing the second word generation subroutine RT5 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG. Note that the description of step S201, which performs the same processing as in the first embodiment, will be omitted.

制御部17は、発話位置及び地図データを取得(ステップS201)した後に、発話位置及び地図情報に基づいて、発話位置周辺に位置する地物を特定する(ステップS501)。具体的には、制御部17は、上記したように、地図上における発話位置の最寄り駅である「○△駅」を特定する。 After obtaining the utterance position and the map data (step S201), the control unit 17 identifies features located around the utterance position based on the utterance position and the map information (step S501). Specifically, as described above, the control unit 17 identifies the "○△ station", which is the nearest station to the utterance position on the map.

制御部17は、ステップS501において特定した地物を用いて第2のワードを生成する(ステップS502)。本実施例において、制御部17は、上記したように、ステップS501において特定した発話位置周辺の地物を示す言葉である「○△駅」を第2のワードとする。制御部17は、ステップS502の後に第2のワード生成サブルーチンRT5を終了する。 The control unit 17 generates a second word using the features identified in step S501 (step S502). In this embodiment, as described above, the control unit 17 uses the word "○△ station", which indicates the feature around the utterance position specified in step S501, as the second word. The control unit 17 terminates the second word generation subroutine RT5 after step S502.

本実施例によれば、実施例1と同様に、生成された検索ワードが地図上の発話位置に対応付けられる態様で登録されるため、車両Mの搭乗者等のユーザは、いつでも検索ワードについて検索を行うことができる。 According to the present embodiment, as in the first embodiment, the generated search word is registered in a manner associated with the utterance position on the map. Search can be performed.

また、本実施例によれば、制御部17は、発話位置周辺に位置する地物を特定し、当該地物を第2のワードとし、当該第2のワードを用いて検索ワードを生成する。そのため、本実施例によれば、例えば、ネット上に「○△駅の近くのラーメン屋にはいつも行列ができる」等の交通インフラに関連づけてお店を紹介するような記事がある場合に、このような記事を効率良く検索することができる。 Further, according to the present embodiment, the control unit 17 identifies a feature located around the utterance position, sets the feature as the second word, and generates a search word using the second word. Therefore, according to this embodiment, for example, when there is an article on the Internet that introduces a shop in relation to transportation infrastructure such as "There is always a line at a ramen shop near ○△ station", Such articles can be searched efficiently.

なお、本実施例において、制御部17が発話位置周辺に位置する地物を特定するとしたが、その数は複数であってもよい。例えば、制御部17は、上記した「○△駅」と当該「○△駅」を通る電車の路線名を特定し、その両方を第2のワードとしてもよい。このとき、実施例2で説明したように、OR検索+AND検索として検索ワードを生成してもよい。 In this embodiment, the control unit 17 identifies features located around the speech position, but the number of features may be plural. For example, the control unit 17 may specify the above-mentioned "○△ station" and the train route name passing through the "○△ station", and use both of them as the second word. At this time, as described in the second embodiment, search words may be generated by OR search+AND search.

また、制御部17は、発話位置周辺に位置する地物を予め複数特定し、発話位置に最も近い地物を第2のワードとしてもよい。また、地物が示すものの属性ごとに第2のワードとする優先順位が定められていてもよく、例えば、発話位置の近くの駅名を最優先として第2のワードとしてもよい。 Further, the control unit 17 may specify a plurality of features located around the utterance position in advance, and may set the feature closest to the utterance position as the second word. Also, the priority of the second word may be determined for each attribute of the object indicated by the feature. For example, the station name near the utterance position may be given the highest priority as the second word.

本実施例において、制御部17は、発話位置周辺の地物を特定するとしたがこれに限られず、発話位置の道路路線を地物として特定してもよい。例えば、車両Mが環状七号線を走行している際に、当該車両Mの搭乗者から「あの行列ができているラーメン屋ってどんなお店?」との発話がなされた際に、制御部17は、「環状七号線」を特定して第2のワードとしてもよい。 In the present embodiment, the control unit 17 specifies features around the utterance position, but the present invention is not limited to this, and the road line around the utterance position may be specified as the feature. For example, when the vehicle M is traveling on Ring Route 7 and a passenger of the vehicle M utters, "What kind of ramen shop is that ramen shop with a long queue?" 17 may be the second word specifying "Round Route 7".

そして、制御部17は、「行列ができている ラーメン屋 環状七号線」との検索ワードを作成してもよい。これにより、ユーザは、例えば、環状七号線沿いにあるラーメン店を紹介しているネット記事等の情報を取得できる。 Then, the control unit 17 may create a search word such as "a ramen shop with a queue, Kanjou Route 7". As a result, the user can obtain information such as an Internet article introducing a ramen restaurant along the 7th Ring Road.

なお、制御部17が特定する地物は、上記した交通インフラに関連した施設のほか、湖や海岸等の自然物であってもよく、これを検索ワードに含めてもよい。これにより、例えば、ネット上に「××海岸沿いの有名レストランが…」といった記事がある場合においても、このような記事を効率良く検索することができる。 Note that the feature specified by the control unit 17 may be a natural feature such as a lake or a coast in addition to the facility related to the transportation infrastructure described above, and may be included in the search word. As a result, for example, even if there is an article such as "There is a famous restaurant along the XX coast" on the Internet, such an article can be searched efficiently.

次に、実施例5について説明する。実施例5では、制御部17が第2のワードを生成するために特定するものが実施例2と異なっており、それ以外の点、例えば車載装置10の各々の構成や第1のワードの生成方法等は実施例2と同様である。 Next, Example 5 will be described. In the fifth embodiment, what is specified by the control unit 17 to generate the second word is different from that in the second embodiment. The method and the like are the same as those of the second embodiment.

本実施例において、制御部17は、車両Mの搭乗者による発話によって音声入力された音声と、当該発話による発話位置と、地図データとに基づいて、当該発話位置周辺の地物を特定する。本実施例において、制御部17は、特定した地物に基づいて第2のワードを生成する。 In this embodiment, the control unit 17 identifies the features around the utterance position based on the voice input by the utterance by the passenger of the vehicle M, the utterance position by the utterance, and the map data. In this embodiment, the control unit 17 generates the second word based on the specified feature.

以下、本実施例における検索ワードの生成処理の一例について説明する。なお、テキストの抽出及び第1のワードの生成処理については、実施例2と同様であるため省略する。以下の説明においては、実施例2と同様に、ユーザから「右前の煙突みたいなものって何?」という音声が入力されたとして説明する。 An example of search word generation processing in this embodiment will be described below. Note that the text extraction and first word generation processing are the same as those in the second embodiment, and therefore are omitted. In the following description, as in the second embodiment, it is assumed that the user has input a voice saying, "What is that thing that looks like a chimney on the right front?"

[第2のワードの生成]
以下に、本実施例において、第2のワードの生成についてのうち、実施例2と異なる部分について説明する。
[Generation of second word]
In the following, the part of the generation of the second word in this embodiment that is different from that in the second embodiment will be described.

図18は、実施例3における制御部17による地物特定の方法の一例を示す図である。図18において、1の町名が示す町の境界を一点鎖線で示している。また、図18において、車両Mの位置を車両Mの搭乗者が発話した発話位置としている。 FIG. 18 is a diagram illustrating an example of a feature identification method by the control unit 17 according to the third embodiment. In FIG. 18, the boundary of the town indicated by the name of town 1 is indicated by a dashed line. In addition, in FIG. 18, the position of the vehicle M is the utterance position where the passenger of the vehicle M uttered.

本実施例において、制御部17は、実施例2と同様に、発話位置を起点とした三角形状で囲まれる範囲R(図中二点鎖線)を設定し、地図上において範囲R内にある地物を特定する。そして、制御部17は、特定した地物に基づいて第2のワードを生成する。所定の範囲Rは、実施例2と同様に、普通名詞が示すものの属性に基づいて決まる距離範囲Dと、上記した方位を示す表現に基づいて決まる角度範囲θとを用いて設定される。 In this embodiment, as in the second embodiment, the control unit 17 sets a range R (a two-dot chain line in the figure) surrounded by a triangle with the utterance position as the starting point. Identify things. Then, the control unit 17 generates a second word based on the specified feature. As in the second embodiment, the predetermined range R is set using the distance range D determined based on the attribute indicated by the common noun, and the angle range θ determined based on the expression indicating the direction described above.

制御部17は、実施例2と同様に、「右前の煙突みたいなものって何?」との入力音声を取得した際に、普通名詞を示す「煙突」との言葉から、距離範囲TB1に基づいて、距離範囲Dが1kmであると特定する。また、制御部17は、普通名詞に係る連体修飾句を示す「右前の」との言葉から、角度範囲TB2に基づいて角度範囲θが0°から45°までの範囲であると特定する。 As in the second embodiment, when the control unit 17 acquires the input voice "What's that thing like a chimney on the right front?" Based on this, the distance range D is specified as 1 km. Also, the control unit 17 specifies that the angle range θ is from 0° to 45° based on the angle range TB2 from the word "right front" indicating the adnominal modifier of common nouns.

制御部17は、特定した距離範囲D及び角度範囲θに基づいて、上記した範囲Rを設定する。そして、制御部17は、地図上において設定した範囲R内にある地物を特定する。具体的には、制御部17は、図18に示すように、地図上の範囲R内にある道路路線である「国道▽号線」を地物として特定する。 The control unit 17 sets the above-described range R based on the specified distance range D and angle range θ. Then, the control unit 17 identifies a feature within the set range R on the map. Specifically, as shown in FIG. 18, the control unit 17 identifies the road route "National road ▽" within the range R on the map as the feature.

本実施例において、制御部17は、特定した地物を第2のワードとする。すなわち、本実施例において、制御部17は、「国道▽号線」を第2のワードとする。 In this embodiment, the control unit 17 sets the specified feature as the second word. That is, in the present embodiment, the control unit 17 uses "National highway No. ▽" as the second word.

[検索ワードの生成]
制御部17は、生成した第1のワードである「煙突」と、第2のワードである「国道▽号線」とを間にスペースを入れて組み合わせて、1の検索ワードである「煙突 国道▽号線」との検索ワードを生成する。そして、制御部17は、生成した検索ワードを発話位置に対応付けて登録する。
[Generate search word]
The control unit 17 combines the generated first word “chimney” and the second word “national road ▽” with a space between them to generate one search word “chimney national road ▽”. Generates a search word such as "line". Then, the control unit 17 registers the generated search word in association with the utterance position.

以下に、本実施例における車載装置10の制御部17において実行される第2のワード生成処理について説明する。図19は、車載装置10の制御部17において実行される第2のワード生成サブルーチンRT6を示すフローチャートである。なお、実施例2と同様の処理を行うステップS301~S303については説明を省略する。 The second word generation process executed by the control unit 17 of the in-vehicle device 10 in this embodiment will be described below. FIG. 19 is a flow chart showing the second word generation subroutine RT6 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG. Note that description of steps S301 to S303 that perform the same processing as in the second embodiment will be omitted.

制御部17は、ステップS303において地図上に範囲Rを形成した後に、範囲R内にある地物を特定する(ステップS601)。すなわち、本実施例において、制御部17は、範囲R内にある「国道▽号線」を地物として特定する。 After forming the range R on the map in step S303, the control unit 17 specifies features within the range R (step S601). That is, in this embodiment, the control unit 17 identifies the "national highway No. ▽" within the range R as a feature.

制御部17は、ステップS601において特定された地物に基づいて第2のワードを生成する(ステップS602)。すなわち、本実施例において、制御部17は、「国道▽号線」を第2のワードとする。制御部17は、ステップS602の後に第2のワード生成サブルーチンRT6を終了する。 The control unit 17 generates a second word based on the feature specified in step S601 (step S602). That is, in the present embodiment, the control unit 17 uses "National highway No. ▽" as the second word. The control unit 17 terminates the second word generation subroutine RT6 after step S602.

本実施例によれば、実施例1と同様に、生成された検索ワードが地図上の発話位置に対応付けられる態様で登録されるため、車両Mの搭乗者等のユーザは、いつでも検索ワードについて検索を行うことができる。 According to the present embodiment, as in the first embodiment, the generated search word is registered in a manner associated with the utterance position on the map. Search can be performed.

また、本実施例によれば、制御部17は、発話位置から所定範囲内に位置する地物を特定し、当該地物を第2のワードとし、当該第2のワードを用いて検索ワードを生成する。そのため、本実施例によれば、例えば、実施例4にて示したように、ネット上に交通インフラに関連づけて施設を紹介するような記事がある場合に、このような記事を効率良く検索することができる。 Further, according to the present embodiment, the control unit 17 identifies a feature located within a predetermined range from the utterance position, sets the feature as a second word, and uses the second word to create a search word. Generate. Therefore, according to this embodiment, for example, as shown in the fourth embodiment, when there is an article on the net that introduces a facility in relation to transportation infrastructure, such an article can be searched efficiently. be able to.

なお、本実施例において、制御部17が発話位置からの範囲R内に位置する地物を特定するとしたが、その数は複数であってもよい。例えば、制御部17は、上記した「国道▽号線」と当該「国道▽号線」と交わる他の道路路線名を特定し、その両方を第2のワードとしてもよい。このとき、実施例2で説明したように、OR検索+AND検索として検索ワードを生成してもよい。 In this embodiment, the control unit 17 specifies the features located within the range R from the speech position, but the number of features may be plural. For example, the control unit 17 may specify the above-described "National Highway ▽" and another road line name that intersects with the "National Highway ▽", and use both of them as the second word. At this time, as described in the second embodiment, search words may be generated by OR search+AND search.

実施例4及び5において、制御部17は、地物として道路路線や鉄道路線を特定した際に、当該道路路線や鉄道路線の通称や愛称、別称等を用いて第2のワードを生成してもよい。例えば、制御部17は、「環状七号線」をその通称である「環七」としてもよく、「東武伊勢崎線」をその愛称である「東武スカイツリーライン」として第2のワードを生成してもよい。 In Embodiments 4 and 5, when a road route or a railway route is specified as a feature, the control unit 17 generates a second word using a common name, a nickname, or another name for the road route or railway route. good too. For example, the control unit 17 may generate a second word for "Kanjo Route 7" as its common name "Kan Nana" and "Tobu Isesaki Line" as its nickname "Tobu Skytree Line". good too.

また、制御部17は、車両Mの搭乗者の発話位置が示す地名と、そのとき車両Mが走行している国道名とに基づいて、道路愛称を特定しても良い。例えば、制御部17は、車両Mが国道246号線を走行中に外苑にて発話がなされた際には「青山通り」を特定する。また、車両Mが国道246号線を走行中に三軒茶屋にて発話がなされた際には「玉川通り」を特定する。制御部17は、特定したこれらの道路愛称を第2のワードとしてもよい。 Further, the control unit 17 may specify the nickname of the road based on the name of the place indicated by the utterance position of the passenger of the vehicle M and the name of the national road on which the vehicle M is traveling at that time. For example, the control unit 17 specifies "Aoyama-dori" when the vehicle M is traveling on Route 246 and an utterance is made in Gaien. Also, when the vehicle M speaks at Sangenjaya while traveling on National Route 246, "Tamagawa-dori" is specified. The control unit 17 may use these identified road nicknames as the second words.

なお、実施例5において、制御部17が発話位置からの範囲Rにある地物を特定し、当該地物に基づいて第2のワードを生成するとしたが、これを実施例3の構成に適用してもよい。すなわち、制御部17が、普通名詞が示すものの属性と、発話位置から固有名詞が示すものに向かう方角に対する方位を示す表現とに基づいて上記した範囲Rを形成し、当該範囲Rに入る地物を特定してもよい。 In the fifth embodiment, the control unit 17 identifies a feature within the range R from the utterance position and generates the second word based on the feature. You may That is, the control unit 17 forms the above-described range R based on the attribute of the object indicated by the common noun and the expression indicating the orientation with respect to the direction from the utterance position to the object indicated by the proper noun, and may be specified.

なお、実施例1~5において、制御部17は、実施例1~3では地名を、実施例4及び5では地物を特定して第2のワードを生成するとしたが、当該地名と地物とを含めて第2のワードを生成してもよい。 In Examples 1 to 5, the control unit 17 generates the second word by specifying the place name in Examples 1 to 3 and by specifying the feature in Examples 4 and 5. and may be generated to generate a second word.

例えば、制御部17は、実施例1にて地名として特定した「新宿区△△町」と、実施例4にて地物として特定した「○△駅」とを含めて第2のワードを生成し、「行列ができている ラーメン屋 新宿区△△町 ○△駅」との検索ワードを生成してもよい。 For example, the control unit 17 generates a second word including "Shinjuku-ku △△ town" specified as the place name in Example 1 and "○△ station" specified as the feature in Example 4. Then, a search word such as "a ramen shop with a queue, XX station, XX town, Shinjuku Ward" may be generated.

上記した実施例1~5において示した制御ルーチンは例示に過ぎず、用途または使用条件等に応じて適宜選択及び変更可能である。 The control routines shown in the above-described Embodiments 1 to 5 are merely examples, and can be appropriately selected and changed according to the application or usage conditions.

10 車載装置
12 マイク
13 GPS受信機
14 タッチパネルディスプレイ
15 スピーカー
16 システムバス
17 制御部
18 通信部
19 入力部
21 出力部
22 大容量記憶装置
10 In-vehicle device 12 Microphone 13 GPS receiver 14 Touch panel display 15 Speaker 16 System bus 17 Control unit 18 Communication unit 19 Input unit 21 Output unit 22 Mass storage device

Claims (12)

ユーザの発話によって入力された入力音声を取得する音声取得部と、
前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得部と、
地図データを取得する地図データ取得部と、
前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定部と、
前記入力音声に基づいて生成される第1のワードと、前記特定部によって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成部と、
を有することを特徴とする情報処理装置。
a voice acquisition unit that acquires an input voice input by a user's utterance;
an utterance position acquisition unit that acquires an utterance position where the user uttered the utterance;
a map data acquisition unit that acquires map data;
an identification unit that identifies one or more place names or features based on the utterance position and the map data;
A search for generating search words including a first word generated based on the input voice and a second word generated based on the one or more place names or features identified by the identifying unit. a word generator;
An information processing device comprising:
前記発話位置における基準方角を取得する方角取得部を有し、
前記特定部は、前記入力音声から前記基準方角に対する方位を示す言葉を特定し、前記基準方角及び前記方位を示す言葉に基づいて前記1又は複数の地名もしくは地物を特定することを特徴とする請求項1に記載の情報処理装置。
a direction acquisition unit that acquires a reference direction at the utterance position;
The specifying unit specifies a word indicating an orientation with respect to the reference direction from the input voice, and specifies the one or more place names or features based on the reference direction and the word indicating the direction. The information processing device according to claim 1 .
前記方角取得部は、前記ユーザが乗っている車両の前方の方角を前記基準方角として取得することを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the direction acquisition unit acquires a direction in front of a vehicle in which the user is riding as the reference direction. 前記方角取得部は、前記ユーザが移動している方角を前記基準方角として取得することを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the direction acquisition unit acquires a direction in which the user is moving as the reference direction. 前記特定部は、前記入力音声から固有名詞が示すものを特定し、前記発話位置から前記固有名詞が示すものに向かう方角を基準方角として特定し、前記入力音声から前記基準方角に対する方位を示す言葉を特定し、前記基準方角及び前記方位を示す言葉に基づいて前記1又は複数の地名もしくは地物を特定することを特徴とする請求項1に記載の情報処理装置。 The identifying unit identifies from the input speech what the proper noun indicates, identifies a direction from the utterance position toward the proper noun as a reference direction, and uses the input speech to indicate the direction with respect to the reference direction. 2. The information processing apparatus according to claim 1, wherein the one or more place names or features are specified based on the reference direction and the word indicating the direction. 前記特定部は、前記入力音声から普通名詞が示すものを特定し、前記入力音声から前記普通名詞に係る連体修飾語、連体修飾句又は連体修飾節を示す言葉を特定し、
前記検索ワード生成部は、前記普通名詞が示すもの及び前記連体修飾語、連体修飾句又は連体修飾節を示す言葉に基づいて、前記第1のワードを生成することを特徴とする請求項1乃至5のいずれか1つに記載の情報処理装置。
The identifying unit identifies what a common noun indicates from the input speech, identifies words indicating adnominal modifiers, adnominal modifiers, or adnominal modifiers related to the common noun from the input speech,
1. The search word generation unit generates the first word based on what the common noun indicates and the word indicating the adnominal modifier, adnominal modifier, or adnominal modifier clause. 6. The information processing apparatus according to any one of 5.
前記特定部は、前記普通名詞が示すものの属性に応じて決まる距離範囲に基づいて前記1又は複数の地名もしくは地物を特定することを特徴とする請求項6に記載の情報処理装置。 7. The information processing apparatus according to claim 6, wherein said identifying unit identifies said one or more place names or features based on a distance range determined according to an attribute of what said common noun indicates. 前記地物は、鉄道路線又は道路路線を含むことを特徴とする請求項1乃至7のいずれか1つに記載の情報処理装置。 8. The information processing apparatus according to any one of claims 1 to 7, wherein the feature includes a railway line or a road line. 情報処理装置が実行する情報処理方法であって、
ユーザの発話によって入力された入力音声を取得する音声取得ステップと、
前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得ステップと、
地図データを取得する地図データ取得ステップと、
前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定ステップと、
前記入力音声に基づいて生成される第1のワードと、前記特定ステップによって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成ステップと、
を有することを特徴とする情報処理方法。
An information processing method executed by an information processing device,
a voice acquisition step of acquiring an input voice input by a user's utterance;
an utterance position acquisition step of acquiring an utterance position where the user made the utterance;
a map data acquisition step of acquiring map data;
an identifying step of identifying one or more place names or features based on the utterance position and the map data;
a search for generating search words including first words generated based on said input speech and second words generated based on said one or more place names or features identified by said identifying step; a word generation step;
An information processing method characterized by having
コンピュータに実行させるためのプログラムであって、
ユーザの発話によって入力された入力音声を取得する音声取得ステップと、
前記ユーザによって前記発話がなされた発話位置を取得する発話位置取得ステップと、
地図データを取得する地図データ取得ステップと、
前記発話位置及び前記地図データに基づいて1又は複数の地名もしくは地物を特定する特定ステップと、
前記入力音声に基づいて生成される第1のワードと、前記特定ステップによって特定された前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する検索ワード生成ステップと、
を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer to execute,
a voice acquisition step of acquiring an input voice input by a user's utterance;
an utterance position acquisition step of acquiring an utterance position where the user made the utterance;
a map data acquisition step of acquiring map data;
an identifying step of identifying one or more place names or features based on the utterance position and the map data;
a search for generating search words including first words generated based on said input speech and second words generated based on said one or more place names or features identified by said identifying step; a word generation step;
A program characterized by causing the computer to execute
請求項10に記載のプログラムを格納した記録媒体。 A recording medium storing the program according to claim 10 . 特定部と、検索ワード生成部と、を有する情報処理装置に用いられるデータ構造であって、
ユーザの発話によって入力される入力音声と、
前記ユーザによって前記発話がなされた発話位置と、を含み、
前記特定部が、前記発話位置及び地図データに基づいて1又は複数の地名もしくは地物を特定する処理と、
前記検索ワード生成部が、前記入力音声に基づいて生成される第1のワードと、前記1又は複数の地名もしくは地物に基づいて生成される第2のワードとを含む検索ワードを生成する処理と、
に用いられることを特徴とするデータ構造。
A data structure used in an information processing device having a specifying unit and a search word generating unit,
an input voice input by a user's utterance;
an utterance position where the utterance was made by the user;
a process in which the identifying unit identifies one or more place names or features based on the utterance position and map data;
A process in which the search word generation unit generates search words including a first word generated based on the input voice and a second word generated based on the one or more place names or features. and,
A data structure characterized by being used for
JP2021181801A 2021-11-08 2021-11-08 Information processing apparatus, information processing method, program, recording medium, and data structure Pending JP2023069721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021181801A JP2023069721A (en) 2021-11-08 2021-11-08 Information processing apparatus, information processing method, program, recording medium, and data structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021181801A JP2023069721A (en) 2021-11-08 2021-11-08 Information processing apparatus, information processing method, program, recording medium, and data structure

Publications (1)

Publication Number Publication Date
JP2023069721A true JP2023069721A (en) 2023-05-18

Family

ID=86328200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021181801A Pending JP2023069721A (en) 2021-11-08 2021-11-08 Information processing apparatus, information processing method, program, recording medium, and data structure

Country Status (1)

Country Link
JP (1) JP2023069721A (en)

Similar Documents

Publication Publication Date Title
EP3172729B1 (en) Text rule based multi-accent speech recognition with single acoustic model and automatic accent detection
JP3908437B2 (en) Navigation system
KR100998566B1 (en) Method And Apparatus Of Translating Language Using Voice Recognition
JP7042240B2 (en) Navigation methods, navigation devices, equipment and media
JPH0894369A (en) Traveling body guiding device
JP2006195637A (en) Voice interaction system for vehicle
US20050171685A1 (en) Navigation apparatus, navigation system, and navigation method
JP2011179917A (en) Information recording device, information recording method, information recording program, and recording medium
JP6846617B2 (en) Information provision method, server, information terminal device, system and voice dialogue system
JP2014075067A (en) Transport means guidance message providing system, transport means guidance message providing device, portable communication terminal and transport means guidance message providing method
JP4064748B2 (en) VOICE GENERATION DEVICE, VOICE GENERATION METHOD, AND NAVIGATION DEVICE
JP4705444B2 (en) Navigation device, control method thereof, and control program
JP2008234427A (en) Device, method, and program for supporting interaction between user
JPH09152893A (en) Text voice read-out system
JP4784156B2 (en) Speech synthesizer for performing voice guidance by a plurality of characters, speech synthesis method, program thereof, and information recording medium on which the program is recorded
CN101599062B (en) Search method and search system
US10593323B2 (en) Keyword generation apparatus and keyword generation method
CN103901450A (en) Voice navigation method and system thereof
JP2023069721A (en) Information processing apparatus, information processing method, program, recording medium, and data structure
JP3645104B2 (en) Dictionary search apparatus and recording medium storing dictionary search program
JPH10282987A (en) Speech recognition device
WO2010073406A1 (en) Information providing device, communication terminal, information providing system, information providing method, information output method, information providing program, information output program, and recording medium
JP2002215186A (en) Speech recognition system
JP2000193479A (en) Navigation apparatus and recording medium
JP2022103675A (en) Information processing device, information processing method, and program