JP2016218361A - Speech recognition system, in-vehicle device, and server device - Google Patents

Speech recognition system, in-vehicle device, and server device Download PDF

Info

Publication number
JP2016218361A
JP2016218361A JP2015105783A JP2015105783A JP2016218361A JP 2016218361 A JP2016218361 A JP 2016218361A JP 2015105783 A JP2015105783 A JP 2015105783A JP 2015105783 A JP2015105783 A JP 2015105783A JP 2016218361 A JP2016218361 A JP 2016218361A
Authority
JP
Japan
Prior art keywords
information
vehicle
additional dictionary
vehicle device
operation command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015105783A
Other languages
Japanese (ja)
Inventor
山口 敦史
Atsushi Yamaguchi
敦史 山口
亜紀子 荒川
Akiko Arakawa
亜紀子 荒川
竹内 良輔
Ryosuke Takeuchi
良輔 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015105783A priority Critical patent/JP2016218361A/en
Publication of JP2016218361A publication Critical patent/JP2016218361A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve a response speed to user's speaking while reducing the burden of a communication cost.SOLUTION: If words in user's speaking are not registered with additional dictionary information specifying vehicle devices and operation contents, an in-vehicle device transmits speech information of user's speaking to a server device, and the server device determines whether the speech information acquired from the in-vehicle device intends an operation of the vehicle device or not. If the speech information is determined to intend an operation of the vehicle device as the result of the determination, the server device transmits additional dictionary registration information associating the words in user's speaking and information showing an operation command for the vehicle device with each other, to the in-vehicle device, and the in-vehicle device uses the additional dictionary registration information acquired from the server device to generate additional dictionary information associating the words in user's speaking and the operation command with each other and uses the operation command to output an execution indication for the operation to the corresponding vehicle device.SELECTED DRAWING: Figure 3

Description

本発明は、音声認識システム、車載器およびサーバ装置に関する。   The present invention relates to a voice recognition system, an in-vehicle device, and a server device.

特許文献1には、音声入力部に入力された音声コマンドの発話データと発話データをもとに情報センタで得られた認識結果とを少なくとも対応付けた対応関係リスト登録していくことによって音声認識用の辞書としての簡易辞書を作成・更新するとともに、情報センタで音声認識を行わせることが可能でないと判定した場合には、音声入力部に入力された音声コマンドの発話データをもとに、最新の簡易辞書を用いてこの発話データに対応する認識結果を得ることによってナビゲーション装置側で音声認識を行う音声認識システムが記載されている。   In Patent Document 1, speech recognition is performed by registering a correspondence list at least associating speech data of speech commands input to the speech input unit with recognition results obtained from the information center based on speech data. If it is determined that it is not possible to perform voice recognition at the information center, based on the utterance data of the voice command input to the voice input unit, A speech recognition system that performs speech recognition on the navigation device side by obtaining a recognition result corresponding to the utterance data using the latest simple dictionary is described.

特開2010−224301号公報JP 2010-224301 A

特許文献1の音声認識システムでは、車載端末と音声認識サーバとの間の通信が確立できない等の場合を除き、ユーザから受け付けた発話データを音声認識サーバに送信し、音声認識結果を受け取っている。すなわち、ユーザ発話と一致する発話データが簡易辞書に登録されている場合でも、所定の場合を除いてユーザの発話データは音声認識サーバに送信される。しかしながら、都度、発話データを音声認識サーバに送信すれば、その分、通信時間がかかるためユーザ発話に対する応答速度が遅くなり、通信コストの負担も増大するという問題がある。   In the speech recognition system of Patent Document 1, the speech data received from the user is transmitted to the speech recognition server, and the speech recognition result is received, except when the communication between the in-vehicle terminal and the speech recognition server cannot be established. . That is, even when utterance data that matches the user utterance is registered in the simple dictionary, the user's utterance data is transmitted to the voice recognition server except for a predetermined case. However, if the utterance data is transmitted to the voice recognition server each time, there is a problem that the communication time is increased accordingly, the response speed to the user utterance is slowed, and the communication cost is increased.

そこで、本発明は、通信コストの負担を低減しつつ、ユーザ発話に対する応答速度を向上させる音声認識システムの提供を目的とする。   Accordingly, an object of the present invention is to provide a speech recognition system that improves the response speed to user utterances while reducing the burden of communication costs.

上記課題を解決するため、本発明に係る音声認識システムは、車載器およびサーバ装置を備えた音声認識システムであって、前記車載器は、ユーザ発話の言葉が、車両機器および操作内容を特定する追加辞書情報に登録されていない場合、該ユーザ発話の音声情報を前記サーバ装置に送信し、前記サーバ装置は、前記車載器から取得した前記音声情報が前記車両機器の操作を意図するものであるか否かを判定し、判定の結果、前記車両機器の操作を意図するものであると判定した場合、前記ユーザ発話の言葉と、前記車両機器の操作コマンドを示す情報とを対応付けた追加辞書登録情報を前記車載器に送信し、前記車載器は、前記サーバ装置から取得した前記追加辞書登録情報を用いて、前記ユーザ発話の言葉と前記操作コマンドとを対応付けた追加辞書情報を生成し、前記操作コマンドを用いて、対応する前記車両機器に対して操作の実行指示を出力する。   In order to solve the above-described problem, a voice recognition system according to the present invention is a voice recognition system including an on-vehicle device and a server device, and the on-vehicle device specifies a vehicle device and an operation content in terms of a user utterance. When not registered in the additional dictionary information, the voice information of the user utterance is transmitted to the server device, and the server device intends the operation of the vehicle device by the voice information acquired from the vehicle-mounted device. And when it is determined that the operation of the vehicle device is intended, an additional dictionary that associates the words of the user utterance with information indicating the operation command of the vehicle device The registration information is transmitted to the on-vehicle device, and the on-vehicle device associates the word of the user utterance with the operation command using the additional dictionary registration information acquired from the server device. Generating the additional dictionary information, by using the operation command, and outputs an instruction to execute the operation with respect to the corresponding said vehicle equipment.

また、本発明に係る車載器は、車両機器の操作を示す言葉と、車両機器および操作内容の識別番号を組合せた操作コマンドと、を対応付けた追加辞書情報を記憶した記憶部と、ユーザ発話の音声情報の入力を受け付ける入力受付部と、前記音声情報をテキスト変換した発話テキスト情報を生成し、該発話テキスト情報を用いて前記追加辞書情報を検索する音声認識部と、前記検索の結果、前記テキスト情報が示すユーザ発話の言葉が前記追加辞書情報に登録されていない場合、前記ユーザ発話の音声情報を所定のサーバ装置に送信する通信部とを備える。   In addition, the vehicle-mounted device according to the present invention includes a storage unit that stores additional dictionary information in which a word indicating an operation of a vehicle device and an operation command in which an identification number of the vehicle device and an operation content is associated, and a user utterance An input receiving unit that receives input of the voice information, a speech recognition unit that generates speech text information obtained by text-converting the speech information, and searches the additional dictionary information using the speech text information; and a result of the search, A communication unit that transmits voice information of the user utterance to a predetermined server device when a word of the user utterance indicated by the text information is not registered in the additional dictionary information.

また、本発明に係るサーバ装置は、車載器から取得したユーザ発話の音声情報を音声認識し、該音声情報をテキスト変換した発話テキスト情報を生成する操作コマンド特定部を備え、前記操作コマンド特定部は、前記発話テキスト情報を用いて、前記ユーザ発話が示す言葉が前記車載器に搭載された車両機器の操作を意図するものであるか否かを判定する
The server device according to the present invention further includes an operation command specifying unit that recognizes voice information of a user utterance acquired from the vehicle-mounted device and generates utterance text information obtained by converting the voice information into text. Uses the utterance text information to determine whether or not a word indicated by the user utterance is intended to operate a vehicle device mounted on the vehicle-mounted device.

本発明に係る音声認識システムによれば、通信コストの負担を低減しつつ、ユーザ発話に対する応答速度を向上させることができる。   According to the voice recognition system of the present invention, it is possible to improve the response speed to user utterance while reducing the burden of communication cost.

なお、上記以外の課題、構成および効果等は、以下の実施形態の説明により明らかにされる。   Problems, configurations, effects, and the like other than those described above will be clarified by the following description of embodiments.

本発明の一実施形態に係るヘッドユニットを実現する車載器のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of the onboard equipment which implement | achieves the head unit which concerns on one Embodiment of this invention. 本発明の一実施形態に係るサーバ装置のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of the server apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載器およびサーバ装置の機能ブロックの一例を示した図である。It is the figure which showed an example of the functional block of the onboard equipment and server apparatus which concern on one Embodiment of this invention. 図4(a)は、本発明の一実施形態に係る操作コマンド情報の一例を示した図である。図4(b)は、本発明の一実施形態に係る追加辞書情報の一例を示す情報である。FIG. 4A is a diagram showing an example of operation command information according to an embodiment of the present invention. FIG. 4B is information indicating an example of additional dictionary information according to an embodiment of the present invention. 本発明の一実施形態に係る音声認識処理の流れの一例を示したフロー図である。It is the flowchart which showed an example of the flow of the speech recognition process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る操作コマンド特定処理の流れの一例を示したフロー図である。It is the flowchart which showed an example of the flow of the operation command specific process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る追加辞書登録処理の流れの一例を示したフロー図である。It is the flowchart which showed an example of the flow of the additional dictionary registration process which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described.

本実施形態に係る音声認識(VR)システムは、ヘッドユニット(H/U)とサーバ装置とを有する。図1は、ヘッドユニットを実現する車載器100のハードウェア構成の一例を示した図である。車載器100は、車に搭載されうる電子機器のことであり、非搭載状態で流通されるものを含む。また、本実施形態に係る車載器100は、推奨経路の探索や、地図情報および交通情報の表示等、いわゆるナビゲーション機能を備えたナビゲーション装置である。ただし、車載器100は、ナビゲーション装置に限られるものではなく、音声の入出力機能、音声認識機能およびサーバ装置との通信機能を備えたコンポーネント(例えば、車載オーディオシステムなど)であればどのような種類の機器であっても良い。   The voice recognition (VR) system according to the present embodiment includes a head unit (H / U) and a server device. FIG. 1 is a diagram illustrating an example of a hardware configuration of the vehicle-mounted device 100 that realizes the head unit. The vehicle-mounted device 100 is an electronic device that can be mounted on a vehicle, and includes devices that are distributed in a non-mounted state. Moreover, the onboard equipment 100 which concerns on this embodiment is a navigation apparatus provided with what is called a navigation function, such as a search of a recommended route, and the display of map information and traffic information. However, the vehicle-mounted device 100 is not limited to the navigation device, and any component having a voice input / output function, a voice recognition function, and a communication function with the server device (for example, a vehicle-mounted audio system) may be used. It may be a type of equipment.

車載器100は、演算処理装置1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(音声入力装置としてのマイクロフォン41と、音声出力装置としてのスピーカ42とを有する)と、入力装置5と、ROM装置6と、車速センサ7と、ジャイロセンサ8と、GPS(Global Positioning System)受信装置9と、FM多重放送受信装置10と、ビーコン受信装置11と、通信装置12と、CAN I/F(コントローラエリアネットワーク インターフェース)13とを有している。   The vehicle-mounted device 100 includes an arithmetic processing device 1, a display 2, a storage device 3, a voice input / output device 4 (having a microphone 41 as a voice input device and a speaker 42 as a voice output device), and an input device. 5, ROM device 6, vehicle speed sensor 7, gyro sensor 8, GPS (Global Positioning System) receiving device 9, FM multiplex broadcast receiving device 10, beacon receiving device 11, communication device 12, CAN I / F (controller area network interface) 13.

演算処理装置1は、車載器100の様々な処理を行う中心的なユニットである。演算処理装置1は、例えば、車速センサ7などの各種センサおよびGPS受信装置9から出力された情報を用いて現在地を検出する。また、演算処理装置1は、得られた現在地情報に基づいて、表示に必要な地図情報を記憶装置3あるいはROM装置6から読み出す。また、演算処理装置1は、読み出した地図情報をグラフィックス展開し、そこに現在地を示すマークを重ねてディスプレイ2へ表示させる信号を出力する。また、演算処理装置1は、記憶装置3あるいはROM装置6に記憶されている地図情報などを用いて、ユーザから指示された出発地と目的地とを結ぶ推奨経路を探索する。また、演算処理装置1は、スピーカ42やディスプレイ2に所定の信号を出力して経路誘導を行う。   The arithmetic processing device 1 is a central unit that performs various processes of the vehicle-mounted device 100. The arithmetic processing device 1 detects the current location using, for example, various sensors such as the vehicle speed sensor 7 and information output from the GPS receiver 9. The arithmetic processing device 1 reads map information necessary for display from the storage device 3 or the ROM device 6 based on the obtained current location information. Further, the arithmetic processing device 1 develops the read map information in graphics, and outputs a signal to be displayed on the display 2 with a mark indicating the current location superimposed thereon. Further, the arithmetic processing device 1 searches for a recommended route connecting the departure point and the destination instructed by the user using the map information stored in the storage device 3 or the ROM device 6. In addition, the arithmetic processing device 1 outputs a predetermined signal to the speaker 42 and the display 2 to perform route guidance.

また、演算処理装置1は、マイクロフォン41を介して入力されたユーザ発話の音声情報を用いて音声認識処理を行う。また、演算処理装置1は、所定の場合に、通信装置12を介してユーザ発話の音声情報をサーバ装置に送信する。   In addition, the arithmetic processing device 1 performs voice recognition processing using voice information of a user utterance input via the microphone 41. In addition, the arithmetic processing device 1 transmits voice information of a user utterance to the server device via the communication device 12 in a predetermined case.

また、演算処理装置1は、通信装置12を介して、ユーザ発話の音声情報をテキスト変換したテキスト情報と、車両機器の操作コマンドとを含む追加辞書登録情報をサーバ装置から取得する。また、演算処理装置1は、追加辞書登録情報を用いて追加辞書を生成および更新し、操作コマンドにより特定される車両機器操作の実行指示を出力する。   Further, the arithmetic processing device 1 acquires additional dictionary registration information including text information obtained by text-converting voice information of a user utterance and operation commands for vehicle equipment from the server device via the communication device 12. In addition, the arithmetic processing device 1 generates and updates an additional dictionary using the additional dictionary registration information, and outputs a vehicle device operation execution instruction specified by the operation command.

なお、車両機器とは、エアコン、オーディオ、ナビゲーション装置、ウィンカーおよびワイパーなど、CAN(Controller Area Network)で相互に電機接続されている機器や、ユーザにより操作可能な機器である。   The vehicle device is a device that is electrically connected to each other by a CAN (Controller Area Network), such as an air conditioner, an audio, a navigation device, a blinker, and a wiper, or a device that can be operated by a user.

このような演算処理装置1は、各デバイス間をバスで接続した構成となっている。具体的には、演算処理装置1は、数値演算及び各デバイスを制御するなど様々な処理を実行するCPU21(Central Processing Unit)と、記憶装置3またはROM23から読み出した地図情報や演算データなどを格納するRAM22(Random Access Memory)と、CPU21が実現するブートプログラムやCPU21が実行するプログラム(例えば、音声認識(VR)機能を実現するプログラム)などを格納するROM23(Read Only Memory)と、演算処理装置1に各種ハードウェアを接続するためのI/F24(インターフェイス)と、これらを相互に接続するバス25とを有している。   Such an arithmetic processing device 1 has a configuration in which devices are connected by a bus. Specifically, the arithmetic processing apparatus 1 stores a CPU 21 (Central Processing Unit) that executes various processes such as numerical calculation and control of each device, and map information and arithmetic data read from the storage device 3 or the ROM 23. A RAM 22 (Random Access Memory), a ROM 23 (Read Only Memory) for storing a boot program realized by the CPU 21, a program executed by the CPU 21 (for example, a program realizing a voice recognition (VR) function), and the like, and an arithmetic processing unit 1 includes an I / F 24 (interface) for connecting various kinds of hardware and a bus 25 for connecting them to each other.

ディスプレイ2は、グラフィックス情報を表示するユニットである。ディスプレイ2は、例えば、液晶ディスプレイや有機ELディスプレイなどで構成される。   The display 2 is a unit that displays graphics information. The display 2 is composed of, for example, a liquid crystal display or an organic EL display.

記憶装置3は、HDD(Hard Disk Drive)や不揮発性メモリカードといった、少なくとも読み書きが可能な記憶媒体で構成される。記憶装置3には、例えば、演算処理装置1によって用いられる様々な情報(例えば、地図情報など)が格納されている。   The storage device 3 includes at least a readable / writable storage medium such as an HDD (Hard Disk Drive) or a nonvolatile memory card. In the storage device 3, for example, various information (for example, map information) used by the arithmetic processing device 1 is stored.

音声入出力装置4は、音声入力装置としてのマイクロフォン41と、音声出力装置としてのスピーカ42とを有する。マイクロフォン41は、運転者や同乗者の発した声(ユーザ発話)など、車載器100の外部の音声を取得する。また、スピーカ42は、演算処理装置1で生成された運転者などへの案内を音声として出力する。   The voice input / output device 4 includes a microphone 41 as a voice input device and a speaker 42 as a voice output device. The microphone 41 acquires sound outside the in-vehicle device 100 such as a voice (user utterance) uttered by a driver or a passenger. Further, the speaker 42 outputs the guidance to the driver and the like generated by the arithmetic processing device 1 as voice.

入力装置5は、ユーザからの指示入力を受け付ける装置である。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチであるスクロールキー、など(図示せず)で構成されている。入力装置5は、各キーや各スイッチの操作に応じた情報を演算処理装置1など他の装置に出力する。   The input device 5 is a device that receives an instruction input from a user. The input device 5 includes a touch panel 51, a dial switch 52, scroll keys that are other hard switches, and the like (not shown). The input device 5 outputs information corresponding to the operation of each key or each switch to other devices such as the arithmetic processing device 1.

ROM装置6は、CD-ROMやDVD-ROMなどのROM、IC(Integrated Circuit)カードなどの、少なくとも読み取りが可能な記憶媒体で構成されている。この記憶媒体には、例えば、動画データや、音声データなどが記憶されている。   The ROM device 6 is composed of at least a readable storage medium such as a ROM such as a CD-ROM or a DVD-ROM, or an IC (Integrated Circuit) card. In this storage medium, for example, moving image data, audio data, and the like are stored.

車速センサ7は、車速を算出するのに用いる値を出力するセンサである。ジャイロセンサ8は、光ファイバジャイロや振動ジャイロなどで構成され、移動体の回転による角速度を検出するセンサである。GPS受信装置9は、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率とを3個以上の衛星に対して測定することで移動体の現在地、進行速度および進行方位を測定するものである。これらの各装置は、車載器100が搭載された車両の現在地を検出するために演算処理装置で用いられる。   The vehicle speed sensor 7 is a sensor that outputs a value used to calculate the vehicle speed. The gyro sensor 8 is configured by an optical fiber gyro, a vibration gyro, or the like, and is a sensor that detects an angular velocity due to rotation of a moving body. The GPS receiver 9 receives a signal from a GPS satellite and measures the distance between the mobile body and the GPS satellite and the rate of change of the distance with respect to three or more satellites to thereby determine the current location, travel speed, and travel of the mobile body. It measures the direction. Each of these devices is used in an arithmetic processing unit to detect the current location of a vehicle on which the vehicle-mounted device 100 is mounted.

FM多重放送受信装置10は、FM放送局から送られてくるFM多重放送信号を受信する。FM多重放送には、VICS(Vehicle Information Communication System:登録商標)情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報およびFM多重一般情報としてラジオ局が提供する文字情報などが含まれている。   The FM multiplex broadcast receiver 10 receives an FM multiplex broadcast signal transmitted from an FM broadcast station. FM multiplex broadcasting includes VICS (Vehicle Information Communication System) information, as well as current traffic information, regulation information, SA / PA (service area / parking area) information, parking information, weather information, and FM multiplex general information. Contains text information provided by radio stations.

ビーコン受信装置11は、VICS情報などの概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報および緊急警報などを受信する。ビーコン受信装置11には、例えば、光により通信する光ビーコン、電波により通信する電波ビーコンなどがある。   The beacon receiving device 11 receives rough current traffic information such as VICS information, regulation information, SA / PA (service area / parking area) information, parking lot information, weather information, emergency alerts, and the like. The beacon receiving device 11 includes, for example, an optical beacon that communicates by light and a radio beacon that communicates by radio waves.

通信装置12は、外部装置(本例では、サーバ装置)との間で情報通信を行う。具体的には、通信装置12は、ユーザ発話の音声情報を所定のサーバ装置に送信する。また、通信装置12は、追加辞書登録情報をサーバ装置から受信する。   The communication device 12 performs information communication with an external device (a server device in this example). Specifically, the communication device 12 transmits the voice information of the user utterance to a predetermined server device. Further, the communication device 12 receives additional dictionary registration information from the server device.

CAN I/F13は、車両内に設置されている各種車両機器との間で多重通信を行う車載ネットワーク(CAN)に対して、情報の入出力を行うインターフェースである。なお、CAN I/F13は、前述のI/F24によって実現されても良い。   The CAN I / F 13 is an interface for inputting / outputting information to / from an in-vehicle network (CAN) that performs multiplex communication with various vehicle devices installed in the vehicle. The CAN I / F 13 may be realized by the I / F 24 described above.

以上、車載器100のハードウェア構成について説明した。   The hardware configuration of the vehicle-mounted device 100 has been described above.

次に、サーバ装置200のハードウェア構成について説明する。図2は、サーバ装置200のハードウェア構成の一例を示した図である。サーバ装置200は、例えば、ワークステーションやPC(パーソナルコンピュータ)などの情報処理装置である。   Next, the hardware configuration of the server device 200 will be described. FIG. 2 is a diagram illustrating an example of a hardware configuration of the server device 200. The server apparatus 200 is an information processing apparatus such as a workstation or a PC (personal computer).

図示するように、サーバ装置200は、演算装置201と、外部記憶装置202と、送受信装置203と、各々の装置を相互に接続するバス204とを有している。   As illustrated, the server device 200 includes an arithmetic device 201, an external storage device 202, a transmission / reception device 203, and a bus 204 that connects the respective devices to each other.

演算装置201は、数値演算及び各デバイスを制御するなど様々な処理を実行するCPU211と、外部記憶装置202または後述のROM213から読み出した地図情報や演算データなどを格納するRAM212と、CPU211が実現するブートプログラムやCPU211が実行するプログラム(例えば、音声認識(VR)機能を実現するプログラム)などを格納するROM213と、各装置を相互に接続するバス204とを有している。   The arithmetic device 201 is realized by the CPU 211 that executes various processes such as numerical calculation and control of each device, the RAM 212 that stores map information and arithmetic data read from the external storage device 202 or the ROM 213 described later, and the CPU 211. It has a ROM 213 that stores a boot program, a program executed by the CPU 211 (for example, a program that realizes a voice recognition (VR) function), and a bus 204 that interconnects the devices.

外部記憶装置202は、例えば、ハードディスク装置やフラッシュメモリなどの不揮発性記憶装置である。   The external storage device 202 is a nonvolatile storage device such as a hard disk device or a flash memory.

送受信装置203は、例えば、外部装置(本例では、車載器100)との間で情報通信を行う通信モジュールなどの装置である。   The transmission / reception device 203 is, for example, a device such as a communication module that performs information communication with an external device (in this example, the vehicle-mounted device 100).

以上、サーバ装置200のハードウェア構成について説明した。   The hardware configuration of the server device 200 has been described above.

次に、車載器100およびサーバ装置200の機能構成を示す機能ブロックについて説明する。図3は、車載器100およびサーバ装置200の機能ブロックの一例を示した図である。車載器100は、入力受付部301と、出力処理部302と、音声認識部303と、追加辞書登録部304と、記憶部305と、通信部306とを有している。   Next, functional blocks showing functional configurations of the vehicle-mounted device 100 and the server device 200 will be described. FIG. 3 is a diagram illustrating an example of functional blocks of the vehicle-mounted device 100 and the server device 200. The vehicle-mounted device 100 includes an input receiving unit 301, an output processing unit 302, a voice recognition unit 303, an additional dictionary registration unit 304, a storage unit 305, and a communication unit 306.

入力受付部301は、車載器100が備える入力装置5を介して、ユーザからの指示や情報の入力を受け付ける機能部である。具体的には、入力受付部301は、ハードスイッチなどの入力装置5を介して音声認識処理の実行指示をユーザから受け付ける。より具体的には、入力受付部301は、ユーザによって所定のハードスイッチが押下されたことを検出すると、それを音声認識部303に通知してPTT(Push To Talk)機能を開始する。   The input receiving unit 301 is a functional unit that receives an instruction or information input from the user via the input device 5 provided in the vehicle-mounted device 100. Specifically, the input receiving unit 301 receives a voice recognition processing execution instruction from the user via the input device 5 such as a hard switch. More specifically, when the input reception unit 301 detects that a predetermined hard switch has been pressed by the user, the input reception unit 301 notifies the voice recognition unit 303 of this and starts a PTT (Push To Talk) function.

出力処理部302は、車載器100が備えるディスプレイ2に表示させる画面情報を生成する機能部である。具体的には、出力処理部302は、音声認識の結果を示す画面情報を生成し、これをディスプレイ2に出力する。例えば、ユーザ発話が「レストラン」や「銀行」など特定の場所についての表示要求である場合、出力処理部302は、地図情報から座標情報を取得し、かかる場所を示すアイコンを地図上に重ねて表示する画面情報を生成してディスプレイ2に出力する。   The output processing unit 302 is a functional unit that generates screen information to be displayed on the display 2 included in the vehicle-mounted device 100. Specifically, the output processing unit 302 generates screen information indicating the result of voice recognition and outputs the screen information to the display 2. For example, when the user utterance is a display request for a specific place such as “restaurant” or “bank”, the output processing unit 302 acquires coordinate information from the map information, and overlays an icon indicating the place on the map. Screen information to be displayed is generated and output to the display 2.

音声認識部303は、入力音声の音声認識を行う機能部である。具体的には、音声認識部303は、マイクロフォン41を介して入力されたユーザ発話の音声情報を取得すると、音響モデルを用いて音響分析を行い、VR辞書を用いて入力音声の音声認識処理を実行する。また、音声認識部303は、音声認識処理の結果、ユーザ発話の音声情報をテキスト情報に変換する。なお、音声認識処理の方法については特に限定されるものではなく、公知の音声認識技術が用いられれば良い。   The speech recognition unit 303 is a functional unit that performs speech recognition of input speech. Specifically, when the voice recognition unit 303 acquires voice information of a user utterance input via the microphone 41, the voice recognition unit 303 performs acoustic analysis using an acoustic model, and performs voice recognition processing of the input voice using a VR dictionary. Run. Also, the voice recognition unit 303 converts voice information of the user utterance into text information as a result of the voice recognition process. Note that the voice recognition processing method is not particularly limited, and a known voice recognition technique may be used.

追加辞書登録部304は、追加辞書情報315を生成および更新する機能部である。具体的には、追加辞書登録部304は、通信部306を介してサーバ装置200から取得した追加辞書登録情報を用いて、追加辞書情報315を生成および更新する。   The additional dictionary registration unit 304 is a functional unit that generates and updates additional dictionary information 315. Specifically, the additional dictionary registration unit 304 uses the additional dictionary registration information acquired from the server device 200 via the communication unit 306 to generate and update additional dictionary information 315.

記憶部305は、様々な情報を記憶する機能部である。具体的には、記憶部305は、地図情報311と、VR辞書312と、操作コマンド情報313と、待受語彙情報314と、追加辞書情報315とを有している。   The storage unit 305 is a functional unit that stores various information. Specifically, the storage unit 305 includes map information 311, a VR dictionary 312, operation command information 313, standby vocabulary information 314, and additional dictionary information 315.

地図情報311は、地図上の道路に関するリンク情報などを含むメッシュ領域情報を格納した道路の構成情報である。   The map information 311 is road configuration information storing mesh area information including link information related to roads on the map.

VR辞書312は、音素と単語とが対応付けられて登録されている辞書情報であり、音声認識部303がユーザ発話の音声情報を用いて音声認識処理を行う際に用いられる。   The VR dictionary 312 is dictionary information in which phonemes and words are registered in association with each other, and is used when the speech recognition unit 303 performs speech recognition processing using speech information of user utterances.

操作コマンド情報313は、車両機器の操作に関する情報である。図4(a)は、操作コマンド情報313の一例を示した図である。操作コマンド情報313は、コマンド群1およびコマンド群2から構成され、コマンド群1には車両機器を特定する情報が登録され、コマンド群2にはコマンド群1で特定された車両機器の操作内容を特定する情報が登録されている。   The operation command information 313 is information related to the operation of the vehicle device. FIG. 4A is a diagram illustrating an example of the operation command information 313. The operation command information 313 is composed of a command group 1 and a command group 2, information specifying a vehicle device is registered in the command group 1, and the operation content of the vehicle device specified in the command group 1 is registered in the command group 2. Information to be identified is registered.

具体的には、コマンド群1には、車両機器の識別情報である識別番号および車両機器名とが対応付けて登録されている。例えば、コマンド群1には、「1.エアコン」、「2.オーディオ」および「3.ナビゲーション」といった情報が登録されており、「1.」〜「3.」が車両機器の識別番号である。また、「エアコン」、「オーディオ」および「ナビゲーション」が車両機器名である。   Specifically, in the command group 1, an identification number that is identification information of a vehicle device and a vehicle device name are registered in association with each other. For example, information such as “1. air conditioner”, “2. audio”, and “3. navigation” is registered in the command group 1, and “1.” to “3.” are vehicle device identification numbers. . “Air conditioner”, “audio” and “navigation” are vehicle device names.

また、コマンド群2には、コマンド群1で特定された車両機器ごとに、操作識別番号と操作内容とが対応付けて登録されている。例えば、コマンド群1の「1.エアコン」に対応付けられたコマンド群2には、「1.ON」、「2.OFF」、「3.温度を上げる」、「4.温度を下げる」、「5.風量強く」、「6.風量弱く」といった情報が登録されている。ここで、「1.」〜「6.」が操作識別番号である。また、「ON」、「温度を上げる」などが操作内容である。   In the command group 2, for each vehicle device specified in the command group 1, an operation identification number and an operation content are registered in association with each other. For example, the command group 2 associated with “1. air conditioner” in the command group 1 includes “1. ON”, “2. OFF”, “3. Increase temperature”, “4. Lower temperature”, Information such as “5. High air flow” and “6. Low air flow” is registered. Here, “1.” to “6.” are operation identification numbers. “ON”, “increase temperature”, and the like are operation details.

各車両機器の操作コマンドは、コマンド群1およびコマンド群2の識別番号の組合せにより特定される。例えば、「エアコンの温度を下げる」といった場合の操作コマンドは、(コマンド群1=1、コマンド群2=4)という識別番号の組合せによって特定される。   An operation command for each vehicle device is specified by a combination of identification numbers of the command group 1 and the command group 2. For example, the operation command in the case of “decrease the temperature of the air conditioner” is specified by a combination of identification numbers (command group 1 = 1, command group 2 = 4).

図3に戻って説明する。待受語彙情報314は、所定の語彙が登録された情報である。例えば、待受語彙情報314には、「目的地」、「自宅」、「画面明るさ」、「マップ(MAP)」、「ルート」、「レストラン」および「銀行」といった所定の語彙が登録されており、音声認識部303により生成された発話テキスト情報の検索対象として用いられる。   Returning to FIG. The standby vocabulary information 314 is information in which a predetermined vocabulary is registered. For example, predetermined words such as “Destination”, “Home”, “Brightness”, “Map (MAP)”, “Route”, “Restaurant”, and “Bank” are registered in the standby vocabulary information 314. And is used as a search target of the utterance text information generated by the voice recognition unit 303.

追加辞書情報315は、テキスト情報であるユーザの発話音声と車両機器の操作コマンドとが対応付けられた情報である。図4(b)は、追加辞書情報315の一例を示す情報である。具体的には、追加辞書情報315は、発話音声欄321と、コマンド群1欄322と、コマンド群2欄323とが対応付けられたレコードを有している。   The additional dictionary information 315 is information in which a user's utterance voice, which is text information, and an operation command of the vehicle device are associated with each other. FIG. 4B is information indicating an example of the additional dictionary information 315. Specifically, the additional dictionary information 315 has a record in which the speech voice field 321, the command group 1 field 322, and the command group 2 field 323 are associated with each other.

発話音声欄321に登録されている情報は、音声認識部303によってテキスト変換されたユーザ発話の内容を示す情報である。発話音声欄321には、例えば、「寒い」、「暑い」、「エアコン下げて」といったユーザ発話の内容を示す情報が登録されている。コマンド群1欄322に登録されている情報は、車両機器を特定する識別番号であり、操作コマンド情報313のコマンド群1の識別番号に対応している。コマンド群2欄323に登録されている情報は、車両機器の操作内容を特定する操作識別番号であり、操作コマンド情報313のコマンド群2の操作識別番号に対応している。このような追加辞書情報315は、サーバ装置200から取得した追加辞書登録情報を用いて、追加辞書登録部304により生成される。   Information registered in the utterance voice column 321 is information indicating the contents of the user utterance text-converted by the voice recognition unit 303. In the utterance voice column 321, for example, information indicating the contents of the user utterance such as “cold”, “hot”, “lower the air conditioner” is registered. The information registered in the command group 1 column 322 is an identification number that identifies the vehicle device, and corresponds to the identification number of the command group 1 in the operation command information 313. The information registered in the command group 2 column 323 is an operation identification number that identifies the operation content of the vehicle device, and corresponds to the operation identification number of the command group 2 in the operation command information 313. Such additional dictionary information 315 is generated by the additional dictionary registration unit 304 using the additional dictionary registration information acquired from the server device 200.

図3に戻って説明する。通信部306は、外部装置(本例では、サーバ装置200)との間で情報のやり取りを行う機能部である。具体的には、通信部306は、インターネットなどの所定のネットワーク網Nを介して、ユーザ発話の音声情報を所定のサーバ装置200に送信する。また、通信部306は、ネットワーク網Nを介して、ユーザ発話のテキスト情報と車両機器の操作コマンドとを含む追加辞書登録情報をサーバ装置200から受信する。   Returning to FIG. The communication unit 306 is a functional unit that exchanges information with an external device (the server device 200 in this example). Specifically, the communication unit 306 transmits voice information of user utterances to a predetermined server device 200 via a predetermined network N such as the Internet. Further, the communication unit 306 receives additional dictionary registration information including text information of user utterances and operation commands of vehicle equipment from the server device 200 via the network N.

サーバ装置200は、操作コマンド特定部401と、出力部402と、追加辞書登録情報生成部403と、情報格納部404と、送受信部405とを有している。   The server device 200 includes an operation command specifying unit 401, an output unit 402, an additional dictionary registration information generation unit 403, an information storage unit 404, and a transmission / reception unit 405.

操作コマンド特定部401は、ユーザ発話の音声情報を用いて車両機器の操作コマンドを特定する機能部である。具体的には、操作コマンド特定部401は、送受信部405を介してユーザ発話の音声情報を車載器100から取得すると、音声認識処理を行い、ユーザ発話の音声情報をテキスト情報に変換する。また、操作コマンド特定部401は、かかるテキスト情報を用いて、ユーザ発話が車両機器の操作を意図するものであるか否かを判定する。また、操作コマンド特定部401は、操作コマンド情報414を用いて、ユーザ発話が示す車両機器の操作コマンドを特定する。   The operation command specifying unit 401 is a functional unit that specifies an operation command of a vehicle device using voice information of a user utterance. Specifically, when the operation command specifying unit 401 acquires the voice information of the user utterance from the vehicle-mounted device 100 via the transmission / reception unit 405, the operation command specifying unit 401 performs a voice recognition process and converts the voice information of the user utterance into text information. In addition, the operation command specifying unit 401 uses the text information to determine whether or not the user utterance is intended to operate the vehicle device. Further, the operation command specifying unit 401 uses the operation command information 414 to specify the operation command of the vehicle device indicated by the user utterance.

出力部402は、ユーザ発話によって求められた情報を特定し、送受信部405を介して車載器100に送信する機能部である。具体的には、出力部402は、ユーザ発話が車両機器の操作コマンドを示すものではなく、特定地点の表示要求である場合、地図情報411を用いて地点座標を特定し、送受信部405を介して車載器100に送信する。   The output unit 402 is a functional unit that specifies information obtained by user utterance and transmits the information to the vehicle-mounted device 100 via the transmission / reception unit 405. Specifically, the output unit 402 specifies a point coordinate using the map information 411 when the user utterance is not a vehicle device operation command but a display request for a specific point, and the transmission / reception unit 405 is used. To the vehicle-mounted device 100.

追加辞書登録情報生成部403は、車載器100の追加辞書情報に登録される情報を生成する機能部である。具体的には、追加辞書登録情報生成部403は、ユーザ発話のテキスト情報と、車両機器の操作コマンドとを含む追加辞書登録情報を生成し、送受信部405を介して車載器100に送信する。   The additional dictionary registration information generation unit 403 is a functional unit that generates information registered in the additional dictionary information of the in-vehicle device 100. Specifically, the additional dictionary registration information generation unit 403 generates additional dictionary registration information including text information of user utterances and operation commands for vehicle equipment, and transmits the additional dictionary registration information to the in-vehicle device 100 via the transmission / reception unit 405.

情報格納部404は、様々な情報を格納する機能部である。具体的には、情報格納部404は、地図情報411と、VR辞書412と、文脈辞書413と、操作コマンド情報414とを格納している。なお、地図情報411、VR辞書412および操作コマンド情報414の各々は、車載器100の記憶部305に格納されているものと同様であるため、説明を省略する。   The information storage unit 404 is a functional unit that stores various information. Specifically, the information storage unit 404 stores map information 411, a VR dictionary 412, a context dictionary 413, and operation command information 414. Note that the map information 411, the VR dictionary 412 and the operation command information 414 are the same as those stored in the storage unit 305 of the vehicle-mounted device 100, and thus the description thereof is omitted.

文脈辞書413は、文脈に応じた単語同士の結びつきを登録した辞書情報であり、操作コマンド特定部401がユーザ発話の音声情報を用いて音声認識処理を行う際に用いられる。   The context dictionary 413 is dictionary information in which associations between words corresponding to the context are registered, and is used when the operation command specifying unit 401 performs speech recognition processing using speech information of user utterances.

以上、車載器100およびサーバ装置200の機能ブロックについて説明した。なお、車載器100の入力受付部301、出力処理部302、音声認識部303および追加辞書登録部304と、サーバ装置200の操作コマンド特定部401、出力部402および追加辞書登録情報生成部403とは、各々のCPU21、CPU211に処理を行わせるプログラムによって実現される。このプログラムは各々、車載器100のROM23または記憶装置3と、サーバ装置200のROM213または外部記憶装置202に格納されており、実行にあたってRAM22、RAM212上にロードされ、CPU21、CPU211により実行される。なお、車載器100のVR辞書312は、記憶装置3に格納される場合に限られず、ROM23に格納されていても良い。また、サーバ装置200のVR辞書412および文脈辞書413は、外部記憶装置202に格納される場合に限られず、ROM213に格納されていても良い。   The functional blocks of the vehicle-mounted device 100 and the server device 200 have been described above. Note that the input receiving unit 301, the output processing unit 302, the voice recognition unit 303, and the additional dictionary registration unit 304 of the vehicle-mounted device 100, the operation command specifying unit 401, the output unit 402, and the additional dictionary registration information generation unit 403 of the server device 200, Is realized by a program for causing the CPU 21 and the CPU 211 to perform processing. Each of these programs is stored in the ROM 23 or the storage device 3 of the vehicle-mounted device 100 and the ROM 213 or the external storage device 202 of the server device 200. The programs are loaded onto the RAM 22 and the RAM 212 and executed by the CPU 21 and the CPU 211. Note that the VR dictionary 312 of the vehicle-mounted device 100 is not limited to being stored in the storage device 3, and may be stored in the ROM 23. In addition, the VR dictionary 412 and the context dictionary 413 of the server device 200 are not limited to being stored in the external storage device 202, and may be stored in the ROM 213.

また、各機能ブロックは、本実施形態において実現される車載器100およびサーバ装置200の機能を理解容易にするために、主な処理内容に応じて分類したものである。したがって、各機能の分類の仕方やその名称によって、本発明が制限されることはない。また、車載器100およびサーバ装置200の各構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。   Each functional block is classified according to the main processing contents in order to facilitate understanding of the functions of the vehicle-mounted device 100 and the server device 200 realized in the present embodiment. Therefore, the present invention is not limited by the classification method of each function or its name. Moreover, each structure of the onboard equipment 100 and the server apparatus 200 can also be classified into many more components according to the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、各機能部の全部または一部は、コンピュータに実装されるハードウェア(ASICといった集積回路など)により構築されてもよい。また、各機能部の処理が1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   In addition, all or part of each functional unit may be constructed by hardware (an integrated circuit such as an ASIC) mounted on a computer. Further, the processing of each functional unit may be executed by one hardware, or may be executed by a plurality of hardware.

なお、車載器100の記憶部305は、記憶装置3によって実現される。また、車載器100の通信部306は、通信装置12によって実現される。また、サーバ装置200の記憶部305は、外部記憶装置202によって実現される。また、サーバ装置200の送受信部405は、送受信装置203によって実現される。   Note that the storage unit 305 of the vehicle-mounted device 100 is realized by the storage device 3. Further, the communication unit 306 of the vehicle-mounted device 100 is realized by the communication device 12. Further, the storage unit 305 of the server device 200 is realized by the external storage device 202. The transmission / reception unit 405 of the server device 200 is realized by the transmission / reception device 203.

[動作の説明]
次に、車載器100で実行される音声認識処理について説明する。図5は、音声認識処理の流れの一例を示したフロー図である。入力受付部301は、入力装置5を介してユーザから音声認識処理の開始指示を受け付けると、かかる処理を開始する。
[Description of operation]
Next, the speech recognition process performed with the onboard equipment 100 is demonstrated. FIG. 5 is a flowchart showing an example of the flow of voice recognition processing. When the input receiving unit 301 receives a voice recognition processing start instruction from the user via the input device 5, the input receiving unit 301 starts such processing.

音声認識処理が開始されると、入力受付部301は、マイクロフォン41を介してユーザ発話の音声入力を受け付けたか否かを判定する(ステップS001)。また、入力受付部301は、ユーザ発話の音声入力を受け付けた場合(ステップS001でYes)、入力された音声情報を音声認識部303に受け渡す。   When the voice recognition process is started, the input receiving unit 301 determines whether or not a voice input of a user utterance has been received via the microphone 41 (step S001). In addition, when the input reception unit 301 receives a voice input of a user utterance (Yes in step S001), the input reception unit 301 transfers the input voice information to the voice recognition unit 303.

音声認識部303は、所定の音響モデルやVR辞書を用いて音声認識処理を行い、入力受付部301を介して取得したユーザ発話の音声情報をテキスト変換した発話テキスト情報を生成する(ステップS002)。   The speech recognition unit 303 performs speech recognition processing using a predetermined acoustic model or VR dictionary, and generates speech text information obtained by text-converting the speech information of the user utterance acquired through the input reception unit 301 (step S002). .

次に、音声認識部303は、発話テキスト情報に変換したユーザ発話の言葉が待受語彙情報314に登録されているか否かを判定する(ステップS003)。具体的には、音声認識部303は、発話テキスト情報を用いて待受語彙情報314を検索する。待受語彙情報314に発話テキスト情報が示すユーザ発話の言葉が登録されている場合(ステップS003でYes)、出力処理部302は、検索された待受語彙に応じた所定の処理を実行する(ステップS004)。例えば、発話テキスト情報が示すユーザ発話の言葉が「銀行」である場合、出力処理部302は、地図情報を用いて現在地周辺にある銀行の地点座標を取得し、かかる地点を示すマークを地図上に重ねた画面情報を生成する。また、出力処理部302は、生成した画面情報をディスプレイに出力する。   Next, the voice recognition unit 303 determines whether or not the user utterance words converted into the utterance text information are registered in the standby vocabulary information 314 (step S003). Specifically, the voice recognition unit 303 searches the standby vocabulary information 314 using the utterance text information. When the words of user utterances indicated by the utterance text information are registered in the standby vocabulary information 314 (Yes in step S003), the output processing unit 302 executes a predetermined process corresponding to the searched standby vocabulary ( Step S004). For example, when the word of the user utterance indicated by the utterance text information is “bank”, the output processing unit 302 acquires the point coordinates of the bank around the current location using the map information, and displays a mark indicating the point on the map. The screen information superimposed on is generated. The output processing unit 302 outputs the generated screen information to a display.

一方で、発話テキスト情報が示すユーザ発話の言葉が待受語彙情報314に登録されていない場合(ステップS003でNo)、音声認識部303は、かかる言葉が追加辞書情報315に登録されているか否かを判定する(ステップS005)。具体的には、音声認識部303は、発話テキスト情報を用いて追加辞書情報315を検索する。   On the other hand, when the word of the user utterance indicated by the utterance text information is not registered in the standby vocabulary information 314 (No in step S003), the speech recognition unit 303 determines whether the word is registered in the additional dictionary information 315. Is determined (step S005). Specifically, the voice recognition unit 303 searches the additional dictionary information 315 using the utterance text information.

追加辞書情報315に発話テキスト情報が示すユーザ発話の言葉が登録されている場合(ステップS005でYes)、音声認識部303は、車両機器の操作指示を出力する(ステップS006)。具体的には、音声認識部303は、発話テキスト情報と一致する発話音声が対応付けられた追加辞書情報315のレコードを特定する。また、音声認識部303は、特定したレコードのコマンド群1欄322およびコマンド群2欄323に格納されている識別番号を用いて操作コマンド情報313を参照し、対象となる車両機器および操作内容を特定する。また、音声認識部303は、CAN I/F13を介して、特定した車両機器に対し、特定した操作内容の実行指示を出力する。   When the user utterance word indicated by the utterance text information is registered in the additional dictionary information 315 (Yes in step S005), the voice recognition unit 303 outputs an operation instruction for the vehicle device (step S006). Specifically, the voice recognition unit 303 specifies a record of the additional dictionary information 315 associated with the utterance voice that matches the utterance text information. Further, the voice recognition unit 303 refers to the operation command information 313 using the identification numbers stored in the command group 1 column 322 and the command group 2 column 323 of the specified record, and determines the target vehicle device and the operation content. Identify. Further, the voice recognition unit 303 outputs an execution instruction for the specified operation content to the specified vehicle device via the CAN I / F 13.

一方で、発話テキスト情報が示すユーザ発話の言葉が追加辞書情報315に登録されていない場合(ステップS005でNo)、音声認識部303は、入力受付部301から取得した音声情報を、通信部306を介してサーバ装置200に送信し、本フローの処理を終了する。   On the other hand, when the word of the user utterance indicated by the utterance text information is not registered in the additional dictionary information 315 (No in step S005), the voice recognition unit 303 uses the voice information acquired from the input reception unit 301 as the communication unit 306. To the server apparatus 200, and the process of this flow is terminated.

以上、車載器100で実行される音声認識処理について説明した。   In the above, the speech recognition process performed with the onboard equipment 100 was demonstrated.

次に、ユーザ発話の音声情報を車載器100から取得したサーバ装置200の操作コマンド特定処理について説明する。図6は、操作コマンド特定処理の流れの一例を示したフロー図である。かかる処理は、サーバ装置200の操作コマンド特定部401が、送受信部405を介して、ユーザ発話の音声情報を車載器100から取得すると開始される。すなわち、コマンド特定処理401は、ユーザ発話の言葉が車載器100の待受語彙情報314および追加辞書情報315に登録されていない場合に行われる。   Next, the operation command specifying process of the server device 200 that acquires the voice information of the user utterance from the vehicle-mounted device 100 will be described. FIG. 6 is a flowchart showing an example of the flow of the operation command specifying process. Such processing is started when the operation command specifying unit 401 of the server device 200 acquires the voice information of the user utterance from the in-vehicle device 100 via the transmission / reception unit 405. That is, the command specifying process 401 is performed when the words of user utterances are not registered in the standby vocabulary information 314 and the additional dictionary information 315 of the in-vehicle device 100.

ユーザ発話の音声情報を取得すると、サーバ装置200の操作コマンド特定部401は、所定の音響モデル、VR辞書412および文脈辞書413を用いて音声認識処理を行い、ユーザ発話の音声情報をテキスト変換した発話テキスト情報を生成する(ステップS011)。   When the voice information of the user utterance is acquired, the operation command specifying unit 401 of the server device 200 performs voice recognition processing using a predetermined acoustic model, the VR dictionary 412 and the context dictionary 413, and converts the voice information of the user utterance into text. Utterance text information is generated (step S011).

次に、操作コマンド特定部401は、発話テキスト情報を用いて、ユーザ発話の音声情報が車両機器の操作を示すものであるか否かを判定する(ステップS012)。具体的には、操作コマンド特定部401は、発話テキスト情報を用いて、ユーザ発話の内容が車両機器の操作を意図するものであるか、または、それ以外であるかを判定する。そして、車両機器の操作を意図するものではないと判定した場合(ステップS012でNo)、操作コマンド特定部401は、音声情報に応じた所定の処理を実行する(ステップS013)。例えば、発話テキスト情報が「この辺りにある銀行3つ」である場合、操作コマンド特定部401は、現在地から最も近い3つの銀行の地点座標を地図情報411から取得し、送受信部405を介して車載器100に送信する。   Next, the operation command specifying unit 401 uses the utterance text information to determine whether or not the voice information of the user utterance indicates an operation of the vehicle device (step S012). Specifically, the operation command specifying unit 401 uses the utterance text information to determine whether the content of the user utterance is intended for the operation of the vehicle device or otherwise. When it is determined that the operation of the vehicle device is not intended (No in step S012), the operation command specifying unit 401 executes a predetermined process corresponding to the voice information (step S013). For example, when the utterance text information is “three banks in this area”, the operation command specifying unit 401 acquires the point coordinates of the three banks closest to the current location from the map information 411, and transmits via the transmission / reception unit 405. It transmits to the onboard equipment 100.

一方で、ユーザ発話の内容が車両機器の操作を意図するものであると判定した場合(ステップS012でYes)、操作コマンド特定部401は、操作コマンド情報414を用いて車両機器の操作コマンドを特定する(ステップS014)。例えば、発話テキスト情報が「暑い」である場合、操作コマンド特定部401は、操作対象の車両機器が室温調整を行う「エアコン」であることを特定し、コマンド群1から識別番号「1」を特定する。また、操作コマンド特定部401は、かかる発話テキスト情報から、操作内容が「温度を下げる」であることを特定し、コマンド群2から操作識別番号「4」を特定する。このようにして、操作コマンド特定部401は、「暑い」というユーザ発話に対応する操作コマンド「1」および「4」を特定する。   On the other hand, when it is determined that the content of the user utterance is intended to operate the vehicle device (Yes in step S012), the operation command specifying unit 401 specifies the operation command of the vehicle device using the operation command information 414. (Step S014). For example, when the utterance text information is “hot”, the operation command specifying unit 401 specifies that the vehicle device to be operated is an “air conditioner” that adjusts the room temperature, and assigns the identification number “1” from the command group 1. Identify. Further, the operation command specifying unit 401 specifies that the operation content is “decrease temperature” from the utterance text information, and specifies the operation identification number “4” from the command group 2. In this way, the operation command specifying unit 401 specifies the operation commands “1” and “4” corresponding to the user utterance “hot”.

次に、追加辞書登録情報生成部403は、追加辞書登録情報を生成し(ステップS015)、送受信部405を介して車載器100に送信する(ステップS016)。具体的には、追加辞書登録情報生成部405は、ユーザ発話の音声情報に基づいて生成した発話テキスト情報と、発話テキスト情報を用いて特定した車両機器の操作コマンドとを含む追加辞書登録情報を生成し、送受信部405を介して車載器100に送信する。   Next, the additional dictionary registration information generation unit 403 generates additional dictionary registration information (step S015) and transmits it to the vehicle-mounted device 100 via the transmission / reception unit 405 (step S016). Specifically, the additional dictionary registration information generation unit 405 generates additional dictionary registration information including utterance text information generated based on the voice information of the user utterance and the operation command of the vehicle device specified using the utterance text information. Generated and transmitted to the vehicle-mounted device 100 via the transmission / reception unit 405.

以上、サーバ装置200で実行される車両機器の操作コマンド特定処理について説明した。   The vehicle device operation command specifying process executed by the server device 200 has been described above.

次に、追加辞書登録情報をサーバ装置200から取得した車載器100の追加辞書登録処理について説明する。図7は、追加辞書登録処理の流れの一例を示したフロー図である。かかる処理は、車載器100の追加辞書登録部304が、通信部306を介して、追加辞書登録情報をサーバ装置200から取得すると開始される。   Next, an additional dictionary registration process of the vehicle-mounted device 100 that acquires additional dictionary registration information from the server device 200 will be described. FIG. 7 is a flowchart showing an example of the flow of additional dictionary registration processing. Such processing is started when the additional dictionary registration unit 304 of the vehicle-mounted device 100 acquires additional dictionary registration information from the server device 200 via the communication unit 306.

車載器100の追加辞書登録部304は、取得した追加辞書登録情報を用いて追加辞書情報315を生成および更新する(ステップS021)。具体的には、追加辞書登録部304は、追加辞書登録情報から発話テキスト情報を抽出し、追加辞書情報315の発話音声欄321に格納する。また、追加辞書登録部304は、追加辞書登録情報から操作コマンドを抽出し、コマンド群1欄322およびコマンド群2欄323に各々格納する。例えば、本例では、追加辞書登録部304は、「暑い」という発話テキスト情報を追加辞書情報315の発話音声欄321に格納し、操作コマンド「1」および「4」を各々、コマンド群1欄322およびコマンド群2欄323に格納する。   The additional dictionary registration unit 304 of the in-vehicle device 100 generates and updates the additional dictionary information 315 using the acquired additional dictionary registration information (step S021). Specifically, the additional dictionary registration unit 304 extracts utterance text information from the additional dictionary registration information and stores it in the utterance voice column 321 of the additional dictionary information 315. Further, the additional dictionary registration unit 304 extracts operation commands from the additional dictionary registration information and stores them in the command group 1 column 322 and the command group 2 column 323, respectively. For example, in this example, the additional dictionary registration unit 304 stores the utterance text information “hot” in the utterance voice column 321 of the additional dictionary information 315, and the operation commands “1” and “4” respectively in the command group 1 column. 322 and command group 2 column 323.

次に、音声認識部303は、コマンド群1およびコマンド群2によって特定された車両機器の操作の実行指示を対応する車両機器に出力する(ステップS022)。具体的には、音声認識部303は、追加辞書登録部304によって生成および更新された追加辞書情報315のレコードを特定する。また、音声認識部303は、特定したレコードのコマンド群1欄322およびコマンド群2欄323に格納されている識別番号を特定し、かかる識別番号を用いて、操作コマンド情報313から対象の車両機器および操作内容を特定する。また、音声認識部303は、特定した車両機器に対して、特定した操作内容の実行指示を出力する。本例では、音声認識部303は、対象の車両機器であるエアコンに対し、温度を下げる指示を出力する。また、音声認識部303は、実行指示を出力すると、本フローの処理を終了する。   Next, the voice recognition unit 303 outputs an execution instruction for the operation of the vehicle device specified by the command group 1 and the command group 2 to the corresponding vehicle device (step S022). Specifically, the voice recognition unit 303 identifies the record of the additional dictionary information 315 generated and updated by the additional dictionary registration unit 304. In addition, the voice recognition unit 303 identifies the identification numbers stored in the command group 1 column 322 and the command group 2 column 323 of the identified record, and uses the identification number to identify the target vehicle device from the operation command information 313. And identify the operation. In addition, the voice recognition unit 303 outputs an execution instruction for the specified operation content to the specified vehicle device. In this example, the voice recognition unit 303 outputs an instruction to lower the temperature to an air conditioner that is a target vehicle device. Further, when the voice recognition unit 303 outputs the execution instruction, the process of this flow ends.

以上、追加辞書登録処理について説明した。   The additional dictionary registration process has been described above.

このような音声認識システムによれば、車両機器の操作を指示するユーザ発話があった場合でも、追加辞書情報に車両機器の操作コマンドが登録されている場合には、サーバ装置200に音声情報を送信して操作コマンドを取得しなくても、車載器100側で車両機器を操作コマンドを特定することができる。これにより、本発明に係る音声認識システムでは、サーバ装置200に音声情報を送信する機会を減らすことができるため、通信コストの負担を低減させることができる。また、次回以降は車載器100側で操作コマンドを特定できるため、サーバ装置200からの応答時間を省略でき、ユーザ発話に対する応答速度を向上させることができる。   According to such a voice recognition system, even when there is a user utterance instructing the operation of the vehicle device, if the operation command for the vehicle device is registered in the additional dictionary information, the voice information is sent to the server device 200. Even if it does not transmit and acquire the operation command, the vehicle apparatus can specify the operation command on the vehicle-mounted device 100 side. Thereby, in the speech recognition system according to the present invention, the opportunity to transmit speech information to the server device 200 can be reduced, so that the communication cost burden can be reduced. Since the operation command can be specified on the vehicle-mounted device 100 side after the next time, the response time from the server device 200 can be omitted, and the response speed to the user utterance can be improved.

また、音声認識システムでは、ユーザ発話の音声情報を音声認識し、ユーザ発話のテキスト情報に車両機器の操作コマンドを対応付けた追加辞書情報を生成する。したがって、言い回しの違う複数の言葉の各々に対して、共通する1つの操作コマンドを対応付けることができる。このような追加辞書情報を用いることで、車載器100は、ユーザの言い回しの癖を吸収して、1つの操作コマンドを特定することができる。すなわち、車両機器の操作を指示する場合、ユーザは、操作コマンドとして特定の言葉を覚えている必要がなくなる。   The voice recognition system also recognizes voice information of user utterances, and generates additional dictionary information in which operation commands for vehicle equipment are associated with text information of user utterances. Therefore, one common operation command can be associated with each of a plurality of words having different expressions. By using such additional dictionary information, the vehicle-mounted device 100 can identify a single operation command by absorbing the habit of the user's wording. That is, when instructing the operation of the vehicle device, the user does not need to remember a specific word as the operation command.

また、通常、地図情報のアップデートに伴い待受語彙情報に登録されている言葉も更新されるが、本発明では、車両機器の操作コマンドが登録されている追加辞書情報は、待受語彙情報から独立して格納されているため、かかるアップデートの影響を受けることもない。   Usually, the words registered in the standby vocabulary information are also updated with the update of the map information. However, in the present invention, the additional dictionary information in which the operation commands of the vehicle equipment are registered is obtained from the standby vocabulary information. Because they are stored independently, they are not affected by such updates.

なお、本発明は前述の実施形態に限られるものではなく、様々な変形例が可能である。例えば、車載器100の記憶部305は、追加辞書情報315を更新する際、追加辞書情報315に登録された情報が所定数以上(例えば、100個以上)であるか否かを判定し、所定数以上であると判定した場合、待受語彙情報314から使用頻度の低い語彙を削除し、追加辞書情報315の使用領域を増加させても良い。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, when updating the additional dictionary information 315, the storage unit 305 of the vehicle-mounted device 100 determines whether or not the information registered in the additional dictionary information 315 is greater than or equal to a predetermined number (for example, 100 or more). When it is determined that the number is greater than or equal to the number, the vocabulary that is not frequently used may be deleted from the standby vocabulary information 314 to increase the usage area of the additional dictionary information 315.

また、記憶部305は、追加辞書情報315に登録された発話音声および操作コマンドが所定数以上(例えば、100個以上)となった場合、使用頻度の低い情報から順に削除しても良い。   Further, the storage unit 305 may delete the utterance voices and operation commands registered in the additional dictionary information 315 in order from the least frequently used information when the predetermined number or more (for example, 100 or more).

このような音声認識システムの車載器によれば、追加辞書情報315の使用領域を必要に応じて増加させることができる。   According to the vehicle-mounted device of such a speech recognition system, the usage area of the additional dictionary information 315 can be increased as necessary.

また、本発明は、上記の実施形態や変形例などに限られるものではなく、これら以外にも様々な実施形態および変形例が含まれる。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態や変形例の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   Further, the present invention is not limited to the above-described embodiments and modifications, and includes various embodiments and modifications in addition to these. For example, the above embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. In addition, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment or a modification, and the configuration of another embodiment can be added to the configuration of a certain embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部および処理手段などは、それらの一部または全部を、プロセッサが各々の機能を実現するプログラムにより実現しても良い。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記憶装置、または、ICカード、SD(Secure Digital)メモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。なお、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。   In addition, each or all of the above-described configurations, functions, processing units, processing means, and the like may be realized by a program in which the processor realizes each function. Information such as programs, tables, and files for realizing each function is stored in a memory, a storage device such as a hard disk or SSD (Solid State Drive), an IC card, an SD (Secure Digital) memory card, or a DVD (Digital Versatile Disk). Can be placed on a recording medium. Note that the control lines and information lines are those that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown.

100・・・車載器、1・・・演算処理装置、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、41・・・マイクロフォン、42・・・スピーカ、
5・・・入力装置、51・・・タッチパネル、52・・・ダイヤルスイッチ、
6・・・ROM装置、7・・・車速センサ、8・・・ジャイロセンサ、
9・・・GPS受信装置、10・・・FM多重放送受信装置、11・・・ビーコン受信装置、
12・・・通信装置、13・・・CAN I/F、
200・・・サーバ装置、201・・・演算装置、211・・・CPU、
212・・・RAM、213・・・ROM、202・・・外部記憶装置、
203・・・送受信装置、204・・・バス
DESCRIPTION OF SYMBOLS 100 ... Onboard equipment, 1 ... Arithmetic processing device, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice input / output device, 41 ... Microphone, 42 ... Speaker,
5 ... input device, 51 ... touch panel, 52 ... dial switch,
6 ... ROM device, 7 ... vehicle speed sensor, 8 ... gyro sensor,
9 ... GPS receiver, 10 ... FM multiplex broadcast receiver, 11 ... beacon receiver,
12 ... Communication device, 13 ... CAN I / F,
200: server device, 201: arithmetic device, 211: CPU,
212 ... RAM, 213 ... ROM, 202 ... external storage device,
203 ... Transceiver, 204 ... Bus

Claims (10)

車載器およびサーバ装置を備えた音声認識システムであって、
前記車載器は、
ユーザ発話の言葉が、車両機器および操作内容を特定する追加辞書情報に登録されていない場合、該ユーザ発話の音声情報を前記サーバ装置に送信し、
前記サーバ装置は、
前記車載器から取得した前記音声情報が前記車両機器の操作を意図するものであるか否かを判定し、判定の結果、前記車両機器の操作を意図するものであると判定した場合、前記ユーザ発話の言葉と、前記車両機器の操作コマンドを示す情報とを対応付けた追加辞書登録情報を前記車載器に送信し、
前記車載器は、
前記サーバ装置から取得した前記追加辞書登録情報を用いて、前記ユーザ発話の言葉と前記操作コマンドとを対応付けた追加辞書情報を生成し、
前記操作コマンドを用いて、対応する前記車両機器に対して操作の実行指示を出力する
ことを特徴とする音声認識システム。
A speech recognition system including an on-vehicle device and a server device,
The in-vehicle device is
When the words of the user utterance are not registered in the additional dictionary information that identifies the vehicle device and the operation content, the voice information of the user utterance is transmitted to the server device,
The server device
When it is determined whether the audio information acquired from the vehicle-mounted device is intended for operation of the vehicle device, and, as a result of the determination, when it is determined that the operation of the vehicle device is intended, the user Sending additional dictionary registration information that associates the words of the utterance and information indicating the operation command of the vehicle device to the vehicle-mounted device,
The in-vehicle device is
Using the additional dictionary registration information acquired from the server device, to generate additional dictionary information that associates the words of the user utterance and the operation command,
An operation execution instruction is output to the corresponding vehicle device using the operation command.
請求項1に記載の音声認識システムであって、
前記車載器は、
車両機器の操作を示す言葉と、車両機器および操作内容の識別情報を組合せた操作コマンドと、を対応付けた追加辞書情報を記憶した記憶部と、
ユーザ発話の音声情報の入力を受け付ける入力受付部と、
前記音声情報をテキスト変換した発話テキスト情報を生成し、該発話テキスト情報を用いて前記追加辞書情報を検索する音声認識部と、
前記検索の結果、前記テキスト情報が示すユーザ発話の言葉が前記追加辞書情報に登録されていない場合、前記ユーザ発話の音声情報を前記サーバ装置に送信する通信部と、を備え、
前記サーバ装置は、
車載器から取得したユーザ発話の音声情報を音声認識し、該音声情報をテキスト変換した発話テキスト情報を生成する操作コマンド特定部を備え、
前記操作コマンド特定部は、
前記発話テキスト情報を用いて、前記ユーザ発話が示す言葉が前記車載器に搭載された車両機器の操作を意図するものであるか否かを判定する
ことを特徴とする音声認識システム。
The speech recognition system according to claim 1,
The in-vehicle device is
A storage unit that stores additional dictionary information in which words indicating the operation of the vehicle device and an operation command combining the identification information of the vehicle device and the operation content are associated;
An input receiving unit that receives input of voice information of a user utterance;
Generating speech text information obtained by text-converting the speech information, and searching the additional dictionary information using the speech text information;
As a result of the search, when a word of a user utterance indicated by the text information is not registered in the additional dictionary information, a communication unit that transmits voice information of the user utterance to the server device,
The server device
It includes an operation command specifying unit that recognizes voice information of a user utterance acquired from the in-vehicle device and generates utterance text information obtained by converting the voice information into text,
The operation command specifying unit includes:
A speech recognition system for determining whether or not a word indicated by the user utterance is intended to operate a vehicle device mounted on the vehicle-mounted device, using the utterance text information.
請求項2に記載の音声認識システムであって、
前記サーバ装置は、
前記車両機器および操作内容を識別情報と共に対応付けた操作コマンド情報を格納した情報格納部と、
前記車両機器の操作コマンドに関する情報を含む追加辞書登録情報を生成する追加辞書登録情報生成部と、をさらに備え、
前記操作コマンド特定部は、
前記ユーザ発話が示す言葉が前記車両機器の操作を意図するものであると判定した場合、前記操作コマンド情報を用いて前記車両機器の操作コマンドを特定し、
前記追加辞書登録情報生成部は、
前記発話テキスト情報に前記操作コマンドを対応付けた追加辞書登録情報を前記車載器に送信し、
前記車載器は、
前記通信部を介して前記サーバ装置から追加辞書登録情報を取得すると、該追加辞書登録情報を用いて、前記追加辞書情報を生成および更新する追加辞書生成部をさらに備える
ことを特徴とする音声認識システム。
The speech recognition system according to claim 2,
The server device
An information storage unit storing operation command information in which the vehicle device and operation content are associated with identification information;
An additional dictionary registration information generating unit for generating additional dictionary registration information including information related to the operation command of the vehicle device,
The operation command specifying unit includes:
When it is determined that the word indicated by the user utterance is intended to operate the vehicle device, the operation command of the vehicle device is identified using the operation command information,
The additional dictionary registration information generation unit
Sending additional dictionary registration information in which the operation command is associated with the utterance text information to the in-vehicle device,
The in-vehicle device is
Voice recognition, further comprising: an additional dictionary generation unit that generates and updates the additional dictionary information using the additional dictionary registration information when the additional dictionary registration information is acquired from the server device via the communication unit system.
請求項3に記載の音声認識システムであって、
前記音声認識部は、
前記発話テキスト情報、前記追加辞書情報および前記操作コマンド情報を用いて、対象となる車両機器および操作内容を特定し、
特定した前記車両機器に対して前記操作内容の実行指示を出力する
ことを特徴とする音声認識システム。
The speech recognition system according to claim 3,
The voice recognition unit
Using the utterance text information, the additional dictionary information, and the operation command information, specify the target vehicle device and the operation content,
A voice recognition system that outputs an instruction to execute the operation content to the identified vehicle device.
車両機器の操作を示す言葉と、車両機器および操作内容の識別情報を組合せた操作コマンドと、を対応付けた追加辞書情報を記憶した記憶部と、
ユーザ発話の音声情報の入力を受け付ける入力受付部と、
前記音声情報をテキスト変換した発話テキスト情報を生成し、該発話テキスト情報を用いて前記追加辞書情報を検索する音声認識部と、
前記検索の結果、前記テキスト情報が示すユーザ発話の言葉が前記追加辞書情報に登録されていない場合、前記ユーザ発話の音声情報を所定のサーバ装置に送信する通信部と、を備える
ことを特徴とする車載器。
A storage unit that stores additional dictionary information in which words indicating the operation of the vehicle device and an operation command combining the identification information of the vehicle device and the operation content are associated;
An input receiving unit that receives input of voice information of a user utterance;
Generating speech text information obtained by text-converting the speech information, and searching the additional dictionary information using the speech text information;
A communication unit that transmits voice information of the user utterance to a predetermined server device when a word of the user utterance indicated by the text information is not registered in the additional dictionary information as a result of the search. Onboard equipment.
請求項5に記載の車載器であって、
前記記憶部は、
車両機器および操作内容を識別情報と共に対応付けた操作コマンド情報をさらに有し、
前記音声認識部は、
前記発話テキスト情報が示すユーザ発話の言葉が前記追加辞書情報に登録されている場合、該追加辞書情報および前記操作コマンド情報を用いて、対象となる車両機器および操作内容を特定し、
特定した前記車両機器に対して前記操作内容の実行指示を出力する
ことを特徴とする車載器。
The vehicle-mounted device according to claim 5,
The storage unit
It further has operation command information that associates vehicle equipment and operation content with identification information,
The voice recognition unit
When words of user utterances indicated by the utterance text information are registered in the additional dictionary information, using the additional dictionary information and the operation command information, specify a target vehicle device and operation content,
An in-vehicle device that outputs an instruction to execute the operation content to the identified vehicle device.
請求項6に記載の車載器であって、
前記通信部を介して前記サーバ装置から追加辞書登録情報を取得すると、該追加辞書登録情報を用いて、前記追加辞書情報を生成および更新する追加辞書生成部をさらに備える
ことを特徴とする車載器。
The vehicle-mounted device according to claim 6,
The vehicle-mounted device further comprising: an additional dictionary generation unit that generates and updates the additional dictionary information using the additional dictionary registration information when additional dictionary registration information is acquired from the server device via the communication unit .
請求項7に記載の車載器であって、
前記記憶部は、
前記追加辞書情報を更新する際、前記追加辞書情報に登録された情報が所定数以上であるか否かを判定し、所定数以上であると判定した場合、所定の語彙が登録された待受語彙情報から使用頻度の低い語彙を削除する
ことを特徴とする車載器。
The vehicle-mounted device according to claim 7,
The storage unit
When updating the additional dictionary information, it is determined whether or not the information registered in the additional dictionary information is greater than or equal to a predetermined number. If it is determined that the information is greater than or equal to the predetermined number, the standby where the predetermined vocabulary is registered is determined. A vehicle-mounted device that deletes vocabulary that is less frequently used from vocabulary information.
車載器から取得したユーザ発話の音声情報を音声認識し、該音声情報をテキスト変換した発話テキスト情報を生成する操作コマンド特定部を備え、
前記操作コマンド特定部は、
前記発話テキスト情報を用いて、前記ユーザ発話が示す言葉が前記車載器に搭載された車両機器の操作を意図するものであるか否かを判定する
ことを特徴とするサーバ装置。
It includes an operation command specifying unit that recognizes voice information of a user utterance acquired from the in-vehicle device and generates utterance text information obtained by converting the voice information into text,
The operation command specifying unit includes:
The server apparatus characterized by using the said utterance text information, and determining whether the word which the said user utterance intends operation of the vehicle equipment mounted in the said onboard equipment.
請求項9に記載のサーバ装置であって、
前記車両機器および操作内容を識別情報と共に対応付けた操作コマンド情報を格納した情報格納部と、
前記車両機器の操作コマンドに関する情報を含む追加辞書登録情報を生成する追加辞書登録情報生成部と、をさらに備え、
前記操作コマンド特定部は、
前記ユーザ発話が示す言葉が前記車両機器の操作を意図するものであると判定した場合、前記操作コマンド情報を用いて前記車両機器の操作コマンドを特定し、
前記追加辞書登録情報生成部は、
前記発話テキスト情報に前記操作コマンドを対応付けた追加辞書登録情報を生成する
ことを特徴とするサーバ装置。
The server device according to claim 9,
An information storage unit storing operation command information in which the vehicle device and operation content are associated with identification information;
An additional dictionary registration information generating unit for generating additional dictionary registration information including information related to the operation command of the vehicle device,
The operation command specifying unit includes:
When it is determined that the word indicated by the user utterance is intended to operate the vehicle device, the operation command of the vehicle device is identified using the operation command information,
The additional dictionary registration information generation unit
A server device that generates additional dictionary registration information in which the operation command is associated with the utterance text information.
JP2015105783A 2015-05-25 2015-05-25 Speech recognition system, in-vehicle device, and server device Pending JP2016218361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015105783A JP2016218361A (en) 2015-05-25 2015-05-25 Speech recognition system, in-vehicle device, and server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105783A JP2016218361A (en) 2015-05-25 2015-05-25 Speech recognition system, in-vehicle device, and server device

Publications (1)

Publication Number Publication Date
JP2016218361A true JP2016218361A (en) 2016-12-22

Family

ID=57582023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105783A Pending JP2016218361A (en) 2015-05-25 2015-05-25 Speech recognition system, in-vehicle device, and server device

Country Status (1)

Country Link
JP (1) JP2016218361A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202351A1 (en) * 2018-04-20 2019-10-24 日産自動車株式会社 Device control apparatus, and control method for controlling devices
CN111667823A (en) * 2019-03-06 2020-09-15 本田技研工业株式会社 Agent device, control method for agent device, and storage medium
CN112037790A (en) * 2020-08-10 2020-12-04 上汽大众汽车有限公司 Method and system for controlling third-party application based on vehicle-mounted voice recognition system and vehicle
CN112053684A (en) * 2019-06-05 2020-12-08 夏普株式会社 Voice processing system, conference system, voice processing method, and recording medium
CN113012691A (en) * 2019-12-18 2021-06-22 丰田自动车株式会社 Agent device, agent system, and computer-readable storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202351A1 (en) * 2018-04-20 2019-10-24 日産自動車株式会社 Device control apparatus, and control method for controlling devices
JPWO2019202351A1 (en) * 2018-04-20 2021-05-20 日産自動車株式会社 Equipment control device and control method to control the equipment
JP7192858B2 (en) 2018-04-20 2022-12-20 日産自動車株式会社 Equipment control device and control method for controlling equipment
US11820394B2 (en) 2018-04-20 2023-11-21 Nissan Motor Co., Ltd. Device control apparatus, and control method for controlling devices
CN111667823A (en) * 2019-03-06 2020-09-15 本田技研工业株式会社 Agent device, control method for agent device, and storage medium
CN111667823B (en) * 2019-03-06 2023-10-20 本田技研工业株式会社 Agent device, method for controlling agent device, and storage medium
CN112053684A (en) * 2019-06-05 2020-12-08 夏普株式会社 Voice processing system, conference system, voice processing method, and recording medium
CN113012691A (en) * 2019-12-18 2021-06-22 丰田自动车株式会社 Agent device, agent system, and computer-readable storage medium
CN112037790A (en) * 2020-08-10 2020-12-04 上汽大众汽车有限公司 Method and system for controlling third-party application based on vehicle-mounted voice recognition system and vehicle
CN112037790B (en) * 2020-08-10 2024-02-23 上汽大众汽车有限公司 Method and system for controlling third party application based on vehicle-mounted voice recognition system and vehicle

Similar Documents

Publication Publication Date Title
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
JP2016218361A (en) Speech recognition system, in-vehicle device, and server device
JP5506252B2 (en) Route search apparatus and route search method
JP2011242594A (en) Information presentation system
JP5056784B2 (en) Speech recognition system
JP2010197211A (en) Server apparatus, navigation apparatus, route information presentation system and route information presentation method
EP2770299B1 (en) Information terminal and program
JP2006064616A (en) Electronic system for mounting on vehicle
JP5164647B2 (en) Server device, navigation device, traffic information presentation system, and traffic information presentation method
JP2000338993A (en) Voice recognition device and navigation system using this device
US8560226B2 (en) Navigation device and navigation method
JP5890187B2 (en) Navigation device, software update program, and update method
JP2012037402A (en) Route output device and output method thereof
JP2010243670A (en) Map display, map image display method of map display
JP2011058946A (en) Navigation device, server device, navigation system and navigation method
JP2010145087A (en) Navigation apparatus and navigation method
JP5607389B2 (en) Navigation device and map update guidance method thereof
JP2010276397A (en) Navigation device and navigation method for the same
JP6109373B2 (en) Server apparatus and search method
JP5219656B2 (en) Traffic information distribution device, traffic information distribution system, and distribution method
JP5345801B2 (en) Navigation device and guidance method thereof
JP2023063779A (en) Information processing device
JP5296593B2 (en) Facility information display device and computer program capable of receiving POI information.
JP2013157896A (en) Communication device and communication method
JP2013088236A (en) Information terminal, program and driving support method