JP2016133378A - Car navigation device - Google Patents

Car navigation device Download PDF

Info

Publication number
JP2016133378A
JP2016133378A JP2015007756A JP2015007756A JP2016133378A JP 2016133378 A JP2016133378 A JP 2016133378A JP 2015007756 A JP2015007756 A JP 2015007756A JP 2015007756 A JP2015007756 A JP 2015007756A JP 2016133378 A JP2016133378 A JP 2016133378A
Authority
JP
Japan
Prior art keywords
determination unit
navigation device
car navigation
unit
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015007756A
Other languages
Japanese (ja)
Inventor
鈴木 竜一
Ryuichi Suzuki
竜一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015007756A priority Critical patent/JP2016133378A/en
Publication of JP2016133378A publication Critical patent/JP2016133378A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent execution of a command that is likely to identify personal information on an owner of a vehicle and to thereby prevent the personal information from being stolen in manipulating a car navigation device even if the owner has the vehicle stolen.SOLUTION: A car navigation device 20 according to the present invention includes: a first determination unit 121 that determines whether a command corresponding to input first voice data is associated with a function that can identify personal information on an owner; and a second determination unit 141 that collates the first voice data with second voice data registered in advance and that determines whether or not the two voice data match each other, and is configured so that if the command is associated with the function that can identify the personal information of the owner and if the first voice data does not match the second voice data as a result of collation by the second determination unit 141, the command is not executed.SELECTED DRAWING: Figure 1

Description

本発明は、個人情報が盗まれないようにすることが可能なカーナビゲーション装置に関する。   The present invention relates to a car navigation device capable of preventing personal information from being stolen.

近年、自動車の盗難が増えてきており、盗難防止のセキュリティ機能に音声認識が利用されるようになってきている。特許文献1では、車両に設けた警報装置の誤動作を防止する目的に音声認識を利用し、予め所有者が登録した音声データを記憶しておき、その登録音声データとマイクロホンから入力した音声データとを照合して、警報装置を制御するという装置が開示されている。特許文献2では、キーの紛失や盗難によるセキュリティ向上のため、ドアロックなどの解除命令を予め音声データで登録しておき、音声データの入力があった場合は当該音声データが解除命令と一致するかが判断され、一致する場合はドアロックが解除される装置が開示されている。しかし、これらの場合、キーだけでなく自動車ごと盗難されてしまった場合は、音声データ入力の必要性が失われ、セキュリティの有効性に欠けることになる。   In recent years, theft of automobiles has increased, and voice recognition has been used for security functions for preventing theft. In Patent Document 1, voice recognition is used for the purpose of preventing malfunction of an alarm device provided in a vehicle, voice data registered in advance by an owner is stored, and the registered voice data and voice data input from a microphone are stored. A device is disclosed in which the alarm device is controlled by checking the above. In Patent Document 2, in order to improve security due to loss or theft of a key, a release command such as a door lock is registered in advance as voice data, and when voice data is input, the voice data matches the release command. A device is disclosed in which the door lock is released if the two are determined to match. However, in these cases, if not only the key but also the entire car is stolen, the necessity for voice data input is lost and the effectiveness of security is lacking.

特開2009−25982号公報JP 2009-25882 A 特開平7−44189号公報JP 7-44189 A

カーナビゲーション装置には、自宅の位置や自宅の電話番号、その他所有者個人を特定するような情報が含まれていることが多い。万が一、自動車が盗難されて、カーナビゲーション装置を操作され、所有者個人を特定する情報を簡単に見ることができてしまうと、自動車の盗難だけでは済まされない事態にまで陥りかねない。   Car navigation devices often contain information that identifies the location of the home, the telephone number of the home, and other individual owners. If the car is stolen, the car navigation device is operated, and the information for identifying the individual owner can be easily viewed, it may fall into a situation where the car cannot be stolen alone.

本発明は、上記事情を考慮してなされたものであり、その目的は、万が一、カーナビゲーション装置を備える自動車が盗難されてしまったとしても、カーナビゲーション装置の操作において、所有者の個人情報を特定しうるコマンドが実行されないようにし、これにより個人情報が盗まれないようにすることが可能なカーナビゲーション装置を提供することにある。   The present invention has been made in consideration of the above circumstances, and the purpose of the present invention is to use the personal information of the owner in the operation of the car navigation device even if the car equipped with the car navigation device is stolen. It is an object of the present invention to provide a car navigation device capable of preventing an identifiable command from being executed and thereby preventing personal information from being stolen.

本発明は、カーナビゲーション装置の操作により、所有者個人を特定するような情報を見ることができてしまう操作については、話者認識機能により、登録した話者と特定されなければ、カーナビゲーション装置の機能を実行することができないガードを設けることで、被害を最小限に抑えることができる構成となっている。   The present invention relates to an operation in which information for identifying an owner can be viewed by an operation of a car navigation device. If the speaker recognition function does not identify a registered speaker, the car navigation device By providing a guard that cannot execute this function, damage can be minimized.

請求項1に記載する発明に係るカーナビゲーション装置は、入力された第1の音声データに対応するコマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、第1の音声データと、予め登録された第2の音声データとを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有する。コマンドが、所有者の個人情報を特定可能な機能に関係する場合であって、第2の判定部における照合の結果、第1の音声データと、第2の音声データが不一致の場合は、当該コマンドを実行しないことを特徴とする。   In the car navigation device according to the first aspect of the present invention, the first command for determining whether or not the command corresponding to the input first voice data relates to a function capable of specifying the owner's personal information. The determination unit (121) includes a second determination unit (141) that collates the first audio data with the second audio data registered in advance and determines whether or not they match. If the command is related to a function that can identify the personal information of the owner, and the first voice data and the second voice data do not match as a result of the collation in the second determination unit, It is characterized by not executing the command.

この構成によれば、例えば車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係するコマンドが実行されないため、所有者の個人情報の漏洩を回避することができる。   According to this configuration, for example, even when a car theft operator operates the car navigation device, a command related to a function that can identify the owner's personal information is not executed, and thus the owner's personal information is leaked. Can be avoided.

請求項2に記載する発明に係るカーナビゲーション装置は、コマンドを手入力により入力可能な第1の入力部(23、26)と、音声データを入力可能な第2の入力部(15)と、前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、入力された音声データと予め登録された第2の音声データを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有する。第1の判定部において、第1の入力部から入力されたコマンドが、所有者の個人情報を特定可能な機能に関係すると判定された場合は、第1の音声データを前記第2の入力部に入力する処理と、第2の判定部において、第1の音声データと、第2の音声データを照合する処理と、を行い、第2の判定部における照合の結果、第1の音声データと、第2の音声データが不一致の場合は、当該コマンドを実行しないことを特徴とする。   The car navigation device according to the invention described in claim 2 includes a first input unit (23, 26) capable of manually inputting a command, a second input unit (15) capable of inputting voice data, A first determination unit (121) for determining whether or not the command input from the first input unit relates to a function capable of specifying the personal information of the owner; A second determination unit (141) that collates the registered second audio data and determines whether or not they match. When the first determination unit determines that the command input from the first input unit is related to a function that can identify the personal information of the owner, the first audio data is transmitted to the second input unit. And a process of collating the first voice data with the second voice data in the second determination unit, and the first voice data as a result of the collation in the second determination unit If the second audio data does not match, the command is not executed.

この構成によれば、例えば車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係するコマンドが実行されないため、所有者の個人情報が漏洩することを回避することができる。   According to this configuration, for example, even when a vehicle theft operates a car navigation device, a command related to a function that can identify the owner's personal information is not executed, and thus the owner's personal information is leaked. Can be avoided.

実施形態に係るカーナビゲーション装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the car navigation apparatus which concerns on embodiment. 実施形態に係る音声認識部、音声認識制御部、話者認識部の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the speech recognition part which concerns on embodiment, a speech recognition control part, and a speaker recognition part. 実施形態に係る話者認識処理を含む一連の操作を音声操作で実行する場合の一例を示すフローチャートである。It is a flowchart which shows an example in the case of performing a series of operation including the speaker recognition process which concerns on embodiment by voice operation. 実施形態に係る話者認識処理を含む一連の操作を手動操作で実行する場合の一例を示すフローチャートである。It is a flowchart which shows an example in the case of performing a series of operation including the speaker recognition process which concerns on embodiment by manual operation. 実施形態に係る話者認識処理のON/OFF切替処理を実行する場合の一例を示すフローチャートである。It is a flowchart which shows an example in the case of performing ON / OFF switching process of the speaker recognition process which concerns on embodiment. 実施形態において、音声操作で「自宅に帰る」コマンドを実行する場合の動作例を示す図である。In an embodiment, it is a figure showing an example of operation in the case of performing a command “go home” by voice operation. 実施形態において、手動操作で「自宅を目的地に設定する」場合の処理動作例を示す図である。In an embodiment, it is a figure showing an example of processing operation in the case of "setting home as a destination" by manual operation. 実施形態において、話者認識機能のON/OFF切替処理の処理動作例を示す図である。In an embodiment, it is a figure showing an example of processing operation of ON / OFF switching processing of a speaker recognition function. 実施形態における話者認識機能適用の処理動作例を示す図である。It is a figure which shows the processing operation example of speaker recognition function application in embodiment.

以下、本発明を具体化した一実施形態について、図面を参照しながら説明する。図1は実施形態に係る話者認識機能を持たせたカーナビゲーション装置20の概略構成を示すブロック図である。カーナビゲーション装置20は、例えば車両に搭載され、目的地までの経路案内に用いられる、いわゆるカーナビゲーションシステムである。カーナビゲーション装置20は、制御回路28を備えている。カーナビゲーション装置20は、さらに、位置検出器21、データ入力器22、操作スイッチ群23、通信装置24、外部メモリ25、表示装置26及びリモコンセンサ27を有しており、これらは制御回路28に接続されている。カーナビゲーション装置20は、さらに、音声認識ユニット10を有しており、音声認識ユニット10は制御回路28に接続されている。カーナビゲーション装置20は、さらに、スピーカ14、マイクロホン15、及びプッシュ・トゥ・トーク(PTT: Push to Talk)スイッチ16(以下、PTTスイッチ16と称する)を有しており、これらは音声認識ユニット10に接続されている。音声認識ユニット10、及び制御回路28は例えば通常のコンピュータとして構成されており、内部には、周知のCPU、ROM、RAM、I/O及びこれらの構成を接続するバスライン等が備えられている。ナビゲーション装置20の各構成要素は必ずしも物理的に別体として構成される必要はなく、例えば単一のCPUによって動作する種々のソフトウェアとして構成してもよい。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a car navigation device 20 having a speaker recognition function according to the embodiment. The car navigation device 20 is a so-called car navigation system that is mounted on, for example, a vehicle and used for route guidance to a destination. The car navigation device 20 includes a control circuit 28. The car navigation device 20 further includes a position detector 21, a data input device 22, an operation switch group 23, a communication device 24, an external memory 25, a display device 26, and a remote control sensor 27, which are connected to the control circuit 28. It is connected. The car navigation device 20 further includes a voice recognition unit 10, and the voice recognition unit 10 is connected to the control circuit 28. The car navigation device 20 further includes a speaker 14, a microphone 15, and a push-to-talk (PTT) switch 16 (hereinafter referred to as a PTT switch 16), which are included in the voice recognition unit 10. It is connected to the. The voice recognition unit 10 and the control circuit 28 are configured as, for example, an ordinary computer, and include a well-known CPU, ROM, RAM, I / O, a bus line for connecting these configurations, and the like. . Each component of the navigation device 20 does not necessarily need to be physically configured as a separate body, and may be configured as various software that operates by a single CPU, for example.

位置検出器21は、ジャイロスコープ21a、距離センサ21b、及びGPS受信機21cを備えている。ジャイロスコープ21aは、物体の角度や角速度を検出することにより自動車の回転方向や向きを計算する計測器であり、機械式、流体式、又は光学式の何れの方式を用いてもよい。距離センサ21bは自動車の移動距離を計測する計測器である。GPS受信機21cは、衛星からの電波に基づいて車両の位置を検出する。これらのセンサは各々が性質の異なる誤差を持っているため、複数のセンサにより、相互に補間しながら使用するように構成されている。なお、精度によっては上述した内の一部で構成してもよく、更に、ステアリングの回転センサ、各転動輪の車輪センサ等を追加して用いてもよい。   The position detector 21 includes a gyroscope 21a, a distance sensor 21b, and a GPS receiver 21c. The gyroscope 21a is a measuring instrument that calculates the rotation direction and direction of an automobile by detecting the angle and angular velocity of an object, and may use any of a mechanical type, a fluid type, and an optical type. The distance sensor 21b is a measuring instrument that measures the moving distance of the automobile. The GPS receiver 21c detects the position of the vehicle based on radio waves from the satellite. Each of these sensors has an error of a different nature, so that a plurality of sensors are configured to be used while interpolating each other. Depending on the accuracy, a part of the above may be used, and a steering rotation sensor, a wheel sensor for each rolling wheel, and the like may be additionally used.

データ入力器22は、位置検出の精度向上のためのいわゆるマップマッチング用データ、地図データ及び目印データを含むカーナビゲーション用の各種データに加えて、音声認識ユニット10において認識処理を行う際に用いる辞書データを入力するための装置である。データ入力器22がこれらデータを記憶する記憶媒体としては、そのデータ量からハードディスクやDVDを用いるのが一般的であると考えられるが、CD−ROM等の他の媒体を用いても良い。データ記憶媒体としてDVDを用いた場合には、このデータ入力器22はDVDプレーヤとなる。   The data input unit 22 is a dictionary used when performing recognition processing in the speech recognition unit 10 in addition to so-called map matching data for improving the accuracy of position detection, various data for car navigation including map data and landmark data. A device for inputting data. As a storage medium in which the data input device 22 stores these data, it is generally considered that a hard disk or a DVD is used because of the amount of data, but other media such as a CD-ROM may be used. When a DVD is used as the data storage medium, the data input device 22 is a DVD player.

表示装置26は、カラー表示装置であり、表示装置26の画面には、位置検出器21から入力された車両現在位置マークと、地図データ入力器22より入力された地図データと、更に地図上に表示する誘導経路や設定地点の目印等の付加データとを重ねて表示することができる。また、表示装置26はタッチパネル機能を備えており、複数の選択肢を表示するメニュー画面やその中の選択肢を選んだ場合に、さらに複数の選択肢を表示するコマンド入力画面などを表示することができる。   The display device 26 is a color display device. On the screen of the display device 26, the vehicle current position mark input from the position detector 21, the map data input from the map data input device 22, and further on the map. Additional data such as a guide route to be displayed and a mark of a set point can be displayed in an overlapping manner. Further, the display device 26 has a touch panel function, and can display a menu screen for displaying a plurality of options, a command input screen for displaying a plurality of options when an option is selected.

通信装置24は、設定された連絡先通信情報によって特定される連絡先との通信を行うためのものであり、例えば携帯電話機等の移動体通信機によって構成される。
また、カーナビゲーション装置20は、いわゆる経路案内機能も備えている。カーナビゲーション装置20への入力は、リモートコントロール端末27a(以下、リモコン27aと称する。)を介して、リモコンセンサ27から行われる。操作スイッチ群23により入力することも可能である。リモコン27a、及び操作スイッチ群23からの各種コマンドの入力は、手動操作により行われる。目的地の位置が入力されると、現在位置からその目的地までの最適な経路を自動的に選択して誘導経路を形成し表示することができる。このような自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。操作スイッチ群23は、例えば、表示装置26と一体になったタッチスイッチもしくはメカニカルなスイッチ等が用いられ、各種コマンドの入力に利用される。カーナビゲーション装置20における各機能は、制御回路28におけるソフトウェア処理により実現されている。
The communication device 24 is for communicating with a contact specified by the set contact communication information, and is constituted by a mobile communication device such as a mobile phone.
The car navigation apparatus 20 also has a so-called route guidance function. Input to the car navigation apparatus 20 is performed from the remote control sensor 27 via a remote control terminal 27a (hereinafter referred to as a remote controller 27a). It is also possible to input using the operation switch group 23. Input of various commands from the remote controller 27a and the operation switch group 23 is performed by manual operation. When the position of the destination is input, the optimum route from the current position to the destination can be automatically selected to form and display a guidance route. A technique such as the Dijkstra method is known as a method for automatically setting an optimum route. For example, a touch switch or a mechanical switch integrated with the display device 26 is used as the operation switch group 23 and is used for inputting various commands. Each function in the car navigation device 20 is realized by software processing in the control circuit 28.

音声認識ユニット10は、カーナビゲーション装置20への各種コマンドの入力を、人が発する音声(音声データ)によって入力するための装置である。音声認識ユニット10は、音声合成部11、音声認識部12、音声認識制御部13(以下、単に制御部13と称する)、及び話者認識部17を有している。スピーカ14は、音声合成部11に接続されている。マイクロホン15は、音声認識部12に接続されている。PTTスイッチ16は、制御部13に接続されている。   The voice recognition unit 10 is a device for inputting various commands to the car navigation device 20 by voice (voice data) emitted by a person. The speech recognition unit 10 includes a speech synthesis unit 11, a speech recognition unit 12, a speech recognition control unit 13 (hereinafter simply referred to as a control unit 13), and a speaker recognition unit 17. The speaker 14 is connected to the voice synthesizer 11. The microphone 15 is connected to the voice recognition unit 12. The PTT switch 16 is connected to the control unit 13.

音声認識部12は、制御部13からの指示により、入力された音声データ(コマンド)の単語認識処理を行い、その認識結果を制御部13に出力する。音声データはマイクロホン15から入力される。音声認識部12は、マイクロホン15から入力された音声データに対し、記憶している辞書データ(後述する音声認識辞書部107)を用いて照合を行う。例えば、辞書データに記憶されている複数の比較対象パターン候補と音声データを比較して、一致度の高い比較対象パターンを制御部13へ出力する。   The voice recognition unit 12 performs word recognition processing on the input voice data (command) according to an instruction from the control unit 13, and outputs the recognition result to the control unit 13. Audio data is input from the microphone 15. The voice recognition unit 12 collates the voice data input from the microphone 15 using stored dictionary data (a voice recognition dictionary unit 107 described later). For example, the plurality of comparison target pattern candidates stored in the dictionary data are compared with the voice data, and the comparison target pattern having a high degree of coincidence is output to the control unit 13.

入力音声データ中の単語系列の認識は、例えば以下のように行われる。まず、入力された音声データを、各音声データの音響モデルと比較することにより音響分析し、音響的特徴量(例えばケプストラム)を抽出する。この音響分析によって、音響的特徴量時系列データを得る。そして、周知のHMM(Hidden Markov Model;隠れマルコフモデル)、DP(Dynamic Programming)マッチング法、あるいはニューラルネットなどによって、この時系列データをいくつかの区間に分け、各区間が辞書データとして格納された単語の中のどの単語に対応しているかを求める。以上により、入力された音声データを単語として認識し、これにより音声データによる操作コマンドを認識することができる。   The recognition of the word series in the input voice data is performed as follows, for example. First, the input voice data is acoustically analyzed by comparing with the acoustic model of each voice data, and an acoustic feature quantity (for example, cepstrum) is extracted. By this acoustic analysis, acoustic feature amount time-series data is obtained. Then, this time series data is divided into several sections by a well-known HMM (Hidden Markov Model), DP (Dynamic Programming) matching method, or neural network, and each section is stored as dictionary data. Find out which word in a word corresponds to. As described above, it is possible to recognize the input voice data as a word and thereby recognize an operation command based on the voice data.

制御部13は、音声認識部12における認識結果に基づき、話者認識部17に音声データを出力する対象か否かを判定する。音声認識部12における認識結果により、マイクロホン15から入力された音声データが、個人情報を特定可能な操作コマンドに該当する場合は、話者認識部17に音声データを出力する対象であると判定される。例えば、「自宅に帰る」、「自宅に電話する」などの操作コマンドに相当する音声データである場合がこれに該当する。   Based on the recognition result in the voice recognition unit 12, the control unit 13 determines whether or not the voice data is to be output to the speaker recognition unit 17. If the voice data input from the microphone 15 corresponds to an operation command that can specify personal information based on the recognition result in the voice recognition unit 12, it is determined that the voice data is output to the speaker recognition unit 17. The For example, this corresponds to the case where the voice data corresponds to an operation command such as “go home” or “call home”.

一方、個人情報を特定可能な操作コマンドに該当しない場合は、話者認識部17に音声データを出力する対象でない(非対象)と判定される。例えば、「東京駅に行く」、「ここから一番近い時間貸駐車場に行く」などの操作コマンドに相当する音声データである場合がこれに該当する。個人情報を特定可能な操作コマンドに該当しない場合は、そのままカーナビゲーション装置20の機能を実行する。   On the other hand, when it does not correspond to the operation command that can specify the personal information, it is determined that the voice data is not output to the speaker recognition unit 17 (non-target). For example, this corresponds to the case where the voice data corresponds to an operation command such as “go to Tokyo Station” or “go to the closest parking lot for the time from here”. If it does not correspond to an operation command that can specify personal information, the function of the car navigation device 20 is executed as it is.

話者認識部17に音声データを出力する対象であると判定された場合は、話者認識部17において話者認識処理を行い、その認識結果を制御部13に出力する。話者認識処理においては、入力された音声データが、予め登録された音声データに一致するか否かを判定する。予め登録された音声データとは、例えば、所有者や所有者の家族など(以下、「所有者等」と称する)の音声データである。すなわち、話者認識処理においては、入力された音声データが、所有者等の音声に一致し、話者が特定されたかどうかを判定する。   If it is determined that the voice data is to be output to the speaker recognition unit 17, the speaker recognition unit 17 performs speaker recognition processing and outputs the recognition result to the control unit 13. In the speaker recognition process, it is determined whether or not the input voice data matches the voice data registered in advance. The voice data registered in advance is, for example, voice data of an owner or an owner's family (hereinafter referred to as “owner etc.”). That is, in the speaker recognition process, it is determined whether the input voice data matches the voice of the owner or the like and the speaker is specified.

話者認識部17における話者認識処理において、話者が特定されなかった場合は、機能実行却下(コマンド機能を実行しない)と判定され、音声合成部11へのその旨の応答音声の出力指示を行い、処理を終了する。音声合成部11は、波形データベース内に格納されている音声波形を用い、音声対話制御部13からの応答音声の出力指示に基づく音声を合成する。この合成音声がスピーカ14に出力され、スピーカ14から当該音声が出力される。例えば「現在、その操作はご利用できません」との音声が出力される。ここで、機能実行却下とは、音声データにより入力された操作コマンドの実行を中止すること、当該コマンドに対応するカーナビゲーション装置20の機能を実行しないことを意味する。カーナビゲーション装置20の機能実行を却下することにより、所有者等以外の者(盗難者)に、個人情報が漏洩することを回避することができる。   In the speaker recognition processing in the speaker recognition unit 17, if no speaker is specified, it is determined that the function is to be rejected (command function is not executed), and a response voice output instruction to that effect is given to the speech synthesizer 11. To finish the process. The voice synthesizer 11 synthesizes a voice based on a response voice output instruction from the voice dialogue controller 13 using a voice waveform stored in the waveform database. The synthesized voice is output to the speaker 14 and the voice is output from the speaker 14. For example, a voice saying “The operation is not available at this time” is output. Here, the function execution rejection means that the execution of the operation command input by the voice data is stopped and the function of the car navigation device 20 corresponding to the command is not executed. By rejecting the function execution of the car navigation device 20, it is possible to avoid leakage of personal information to a person other than the owner (theft).

また、機能実行却下の一態様として、例えば、カーナビゲーション装置20が所有者の個人情報が登録されていない場合と同じ状態で機能実行するような動作とすることもできる。たとえば、「自宅に帰る」というコマンドで自宅を目的地に設定する場合は、まだ自宅が登録されていない状態で機能を実行するような動作とする。この場合は、「現在、その操作はご利用できません」という、単に機能を実行しないという応答ではなく、例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答とする。このように、所有者の個人情報が登録されていない場合と同じ応答とすることで、通常操作と変わらない動きとなるため、例えば盗難者に話者認識機能によるガードを入れていることを悟られない。また、機能実行却下の一態様として、ナビゲーション装置20を工場出荷状態に戻すようにしても同様の効果が得られる。
これにより、例えば自動車が盗難された場合に、盗難者の気分を逆なでし、さらに自動車の破損に及ばせるなどの二次的な被害にあう確率が減少する。また、当初の目的でもある、自宅の位置に関する情報も見えないようにすることが可能となる。
Further, as one mode of rejecting the function execution, for example, the car navigation device 20 may be configured to perform the function in the same state as when the owner's personal information is not registered. For example, when the home is set as the destination with the command “return to home”, the operation is performed in a state where the home is not yet registered. In this case, it is not a response that does not execute the function, such as “Currently, that operation is not available”, but a response such as “Your home is not registered. . In this way, by making the same response as when the owner's personal information is not registered, it becomes the same movement as normal operation. I can't. Moreover, the same effect is acquired even if it returns the navigation apparatus 20 to a factory shipment state as one aspect of function execution rejection.
As a result, for example, when a car is stolen, the probability of a secondary damage such as the reverse of the feeling of the theft and further damage to the car is reduced. In addition, it is possible to hide the information regarding the position of the home, which is the original purpose.

また、このような処理に続いて、カーナビゲーション装置20を再起動するような操作をした際に、カーナビゲーション装置20の起動を停止する(起動させない)ようにしてもよい。このようにすることで、盗難者によるカーナビゲーション装置20の起動ができなくなるため、個人情報が漏洩することをより確実に回避することができる。なお、このような場合は、所有者により設定されたパスワードの入力により、本人照合を行わなければカーナビゲーション装置20を再起動できないようにする。   In addition, following such processing, when an operation for restarting the car navigation device 20 is performed, the start of the car navigation device 20 may be stopped (not started). By doing so, the car navigation device 20 cannot be activated by a thief, so that personal information can be more reliably prevented from leaking. In such a case, the car navigation device 20 cannot be restarted unless the identity verification is performed by inputting the password set by the owner.

話者認識部17における話者認識処理において、話者が特定された場合、すなわち、入力された音声データが、所有者等の音声に一致した場合は、カーナビゲーション装置20の所有者本人の操作であると判断し、通常の動作が実行される。この場合は、音声合成部11への応答音声の出力指示を行う。また、入力された音声データによるコマンドに従い、カーナビゲーション装置20の処理を実行する制御回路28に対して、必要な処理を行う。例えば、ナビゲート処理のために必要な目的地やコマンドを通知し、目的地の設定やコマンドを実行させるよう指示する処理を行う。このような処理の結果として、この音声認識ユニット10を利用すれば、上記操作スイッチ群23あるいはリモコン27aに対し、ユーザが手動操作をしなくても、音声入力によりカーナビゲーション装置に対する目的地の指示などが可能となる。   When a speaker is specified in the speaker recognition process in the speaker recognition unit 17, that is, when the input voice data matches the voice of the owner or the like, the operation of the owner of the car navigation device 20 is performed. Therefore, the normal operation is performed. In this case, a response voice output instruction is given to the voice synthesizer 11. Further, necessary processing is performed on the control circuit 28 that executes processing of the car navigation device 20 in accordance with the command based on the input voice data. For example, a destination or command necessary for the navigation processing is notified, and processing for instructing to set the destination or execute the command is performed. As a result of such processing, if this voice recognition unit 10 is used, the destination of navigation to the car navigation apparatus can be instructed by voice input even if the user does not manually operate the operation switch group 23 or the remote controller 27a. It becomes possible.

制御部13において、入力された音声データに対応したコマンドが、個人情報を特定可能な操作コマンドではない場合は、話者認識部17に音声データを出力する対象ではないと判定し、カーナビゲーション装置20において上述した通常の動作が実行される。   When the control unit 13 determines that the command corresponding to the input voice data is not an operation command that can specify personal information, the control unit 13 determines that the voice data is not output to the speaker recognition unit 17 and In step 20, the normal operation described above is performed.

また、本実施形態における音声コマンドの入力操作では、ユーザがPTTスイッチ16を押しながらマイクロホン15を介して音声データを入力するという利用方法を想定している。制御部13は、PTTスイッチ16が押されたタイミング、戻されたタイミング、及び押された状態が継続した時間を監視している。PTTスイッチ16が押された場合には、音声認識部12における処理の実行を指示する。一方、PTTスイッチ16が押されていない場合には、その処理を実行させないようにしている。従って、PTTスイッチ16が押されている間にマイクロホン15を介して入力された音声データが、音声認識部12へ出力されることとなる。このような構成とすることによって、カーナビゲーション装置20では、ユーザがコマンドを入力することによって、経路設定や経路案内、あるいは施設検索や施設表示など各種の処理を実行することができる。   In the voice command input operation according to the present embodiment, it is assumed that the user inputs voice data through the microphone 15 while pressing the PTT switch 16. The control unit 13 monitors the timing when the PTT switch 16 is pressed, the timing when it is returned, and the time during which the pressed state continues. When the PTT switch 16 is pressed, the execution of processing in the voice recognition unit 12 is instructed. On the other hand, when the PTT switch 16 is not pressed, the processing is not executed. Therefore, the voice data input via the microphone 15 while the PTT switch 16 is being pressed is output to the voice recognition unit 12. With such a configuration, the car navigation device 20 can execute various processes such as route setting, route guidance, facility search, and facility display when a user inputs a command.

次に、音声認識部12、制御部13、及び話者認識部17の構成についてさらに詳細に説明する。図2に示すように、音声認識部12は、音声抽出部101、音声認識照合部103(以下、照合部103と称する)、音声認識結果出力部105(以下、出力部105と称する)、音声認識辞書部107(以下、辞書部107と称する)を備えている。辞書部107は、例えば、コマンド対応辞書201、住所対応辞書203、楽曲対応辞書205、電話帳対応辞書207などを備えている。これら辞書には、音声データと照合可能であって、コマンド、住所などと対応付けされたデータが格納されている。   Next, the configuration of the voice recognition unit 12, the control unit 13, and the speaker recognition unit 17 will be described in more detail. As shown in FIG. 2, the speech recognition unit 12 includes a speech extraction unit 101, a speech recognition collation unit 103 (hereinafter referred to as collation unit 103), a speech recognition result output unit 105 (hereinafter referred to as output unit 105), a speech A recognition dictionary unit 107 (hereinafter referred to as the dictionary unit 107) is provided. The dictionary unit 107 includes, for example, a command correspondence dictionary 201, an address correspondence dictionary 203, a music correspondence dictionary 205, a telephone directory correspondence dictionary 207, and the like. These dictionaries store data that can be collated with voice data and associated with commands, addresses, and the like.

制御部13は、話者認識対象判定部121(以下、判定部121と称する)、機能実行処理決定部123(以下、決定部123と称する)、音声出力内容決定部125(以下、決定部125と称する)を備える。話者認識部17は、話者認識照合部141(以下、照合部141と称する)、及び登録話者データ143を備えている。   The control unit 13 includes a speaker recognition target determination unit 121 (hereinafter referred to as determination unit 121), a function execution process determination unit 123 (hereinafter referred to as determination unit 123), and an audio output content determination unit 125 (hereinafter referred to as determination unit 125). Called). The speaker recognition unit 17 includes a speaker recognition verification unit 141 (hereinafter referred to as a verification unit 141) and registered speaker data 143.

ユーザは、マイクロホン15からユーザが希望する操作を行うための音声を入力する。音声認識部12の音声抽出部101は、マイクロホン15から入力された音声データを例えばデジタル信号に変換し、辞書に格納されたデータと照合可能な音声データを抽出する。照合部103は、音声抽出部101から入力された音声データと、辞書(201〜207・・・)に格納されたデータとの照合を行い、入力された音声データがどのような言葉であるかを認識する。例えば、入力された音声データが「自宅に帰る」であった場合、コマンド対応辞書201中の、自宅までの経路を案内するコマンドに対応する言葉であると認識する。照合部103は、この認識結果を出力部105に出力する。出力部105は、照合部103から入力された認識結果を、制御部13の判定部121に出力する。なお、マイクロホン15から入力された音声データも、出力部105から判定部121に出力される。   The user inputs sound for performing an operation desired by the user from the microphone 15. The voice extraction unit 101 of the voice recognition unit 12 converts the voice data input from the microphone 15 into, for example, a digital signal, and extracts voice data that can be collated with data stored in the dictionary. The collation unit 103 collates the voice data input from the voice extraction unit 101 with the data stored in the dictionary (201 to 207...), And what kind of words the input voice data is. Recognize For example, when the input voice data is “go home”, it is recognized as a word corresponding to a command that guides a route to the home in the command correspondence dictionary 201. The collation unit 103 outputs the recognition result to the output unit 105. The output unit 105 outputs the recognition result input from the collation unit 103 to the determination unit 121 of the control unit 13. Note that the audio data input from the microphone 15 is also output from the output unit 105 to the determination unit 121.

制御部13の判定部121は、出力部105から入力された認識結果に基づいて、入力された音声データが、話者認識部17に音声データを出力する対象であるか否かの判定を行う。入力された音声データが、個人情報を特定可能なコマンドに関係する場合は、話者認識部17に音声データを出力する対象であると判定される。この場合は、判定部121は音声データを話者認識部17の照合部141に出力する。話者認識部17では、制御部13から入力された音声データと登録話者データ143を話者照合部141で照合し、両者の一致、不一致を判定する。   Based on the recognition result input from the output unit 105, the determination unit 121 of the control unit 13 determines whether the input voice data is a target for outputting the voice data to the speaker recognition unit 17. . When the input voice data relates to a command that can specify personal information, it is determined that the voice data is to be output to the speaker recognition unit 17. In this case, the determination unit 121 outputs the voice data to the verification unit 141 of the speaker recognition unit 17. In the speaker recognition unit 17, the voice data input from the control unit 13 and the registered speaker data 143 are collated by the speaker collation unit 141, and a match or mismatch is determined.

照合部141における照合の結果、話者が特定された場合(一致)、すなわち、音声データが所有者等による入力であると判定した場合は、照合部141は照合結果を、制御部13の決定部123に出力する。決定部123では、入力された照合結果に基づいて、カーナビゲーション装置20において実行すべき処理を決定し、その決定結果が制御回路28に出力される。   As a result of the collation in the collation unit 141, when a speaker is specified (match), that is, when it is determined that the voice data is input by the owner or the like, the collation unit 141 determines the collation result and determines the control unit 13 Output to the unit 123. The determination unit 123 determines a process to be executed in the car navigation device 20 based on the input collation result, and the determination result is output to the control circuit 28.

照合部141における照合の結果、話者が特定されなかった場合(不一致)、すなわち、音声データの入力が所有者等による入力ではなかった場合は、照合部141は照合結果を、制御部13の機能実行却下判定部127に出力する。機能実行却下判定部127では、照合部141における照合結果に基づいて、機能実行却下と判定し、その判定結果を決定部125に出力する。決定部125において、当該判定結果に基づいて音声出力する内容が決定され、音声合成部11に当該内容が出力される。   If the speaker is not specified as a result of the verification in the verification unit 141 (mismatch), that is, if the voice data is not input by the owner or the like, the verification unit 141 displays the verification result in the control unit 13 Output to function execution rejection determination unit 127. The function execution rejection determination unit 127 determines that the function execution is rejected based on the verification result in the verification unit 141, and outputs the determination result to the determination unit 125. The determination unit 125 determines the content to be output as a sound based on the determination result, and outputs the content to the speech synthesis unit 11.

制御部13の判定部121において、入力された音声データが、個人情報を特定可能なコマンドに関係しない場合は、話者認識部17に音声データを出力する対象でない(非対称)と判定される。この場合は、その判定結果を機構実行処理決定部123と決定部125に出力する。決定部125において、当該判定結果に基づいて音声出力する内容が決定され、音声合成部11に当該内容が出力される。決定部123では、入力された照合結果に基づいて、カーナビゲーション装置20において実行すべき処理を決定し、その決定結果が制御回路28に出力される。   In the determination unit 121 of the control unit 13, when the input voice data is not related to a command capable of specifying personal information, it is determined that the voice data is not output to the speaker recognition unit 17 (asymmetric). In this case, the determination result is output to the mechanism execution process determination unit 123 and the determination unit 125. The determination unit 125 determines the content to be output as a sound based on the determination result, and outputs the content to the speech synthesis unit 11. The determination unit 123 determines a process to be executed in the car navigation device 20 based on the input collation result, and the determination result is output to the control circuit 28.

次に、話者認識を実行する処理について、図3、図4、図5を参照して説明する。また、適宜、図1及び図2を参照する。図3は、本実施形態に係る音声操作による処理を示すフローチャートである。まず、ステップS10で、マイク15を介して音声抽出部101に音声データが入力されると、ステップS20にて、照合部103は、辞書部107の辞書(201〜207)を用いて、認識処理が実行される。ステップS30にて、照合部103から出力部105に認識結果が出力される。   Next, processing for executing speaker recognition will be described with reference to FIGS. 3, 4, and 5. FIG. Moreover, FIG.1 and FIG.2 is referred suitably. FIG. 3 is a flowchart showing processing by voice operation according to the present embodiment. First, when voice data is input to the voice extraction unit 101 via the microphone 15 in step S10, the collation unit 103 uses the dictionary (201 to 207) of the dictionary unit 107 to perform recognition processing in step S20. Is executed. In step S <b> 30, the recognition result is output from the matching unit 103 to the output unit 105.

次に、S40にて、判定部121で話者認識対象であるか否かが判定される。話者認識対象と判定された場合(ステップS40にて「YES」)は、ステップS50にて、登録話者データ143を用いて、照合部141での話者認識処理が実行され、ステップS60にて、話者が特定されたか否か、すなわち、一致、不一致が判定される。   Next, in S40, the determination unit 121 determines whether or not the speaker is a speaker recognition target. If it is determined that the speaker is to be recognized (“YES” in step S40), the speaker recognition process in the matching unit 141 is executed using the registered speaker data 143 in step S50, and the process proceeds to step S60. Thus, it is determined whether or not a speaker has been identified, that is, a match or a mismatch.

ステップS40にて、話者認識対象と判定されなかった場合、すなわち非対称と判定された場合(ステップS40にて「NO」)は、ステップS80にて、機能実行処理が行われ、音声操作を終了する。   If it is not determined as a speaker recognition target in step S40, that is, if it is determined as asymmetric (“NO” in step S40), a function execution process is performed in step S80, and the voice operation is terminated. To do.

次に、ステップS60にて、照合部141で話者が特定されたか否かが判定され、話者が特定された(一致)と判定された場合(ステップS60で「YES」)は、ステップS80にて、決定部123で機能実行処理が行われ、決定部125で音声操作を終了する決定がされる。   Next, in step S60, it is determined whether or not the speaker has been specified by the collation unit 141. If it is determined that the speaker has been specified (match) ("YES" in step S60), step S80 is performed. Then, the function execution process is performed by the determination unit 123, and the determination unit 125 determines to end the voice operation.

また、ステップS60にて、照合部141で話者が特定されなかった(不一致)と判定された場合(ステップS60で「NO」)は、ステップS70にて、判定部127で機能実行を却下するとの判定が行われる。この場合は、その判定結果を決定部125に出力し、決定部125において音声操作を終了する。   If it is determined in step S60 that the speaker has not been identified by the verification unit 141 (no match) ("NO" in step S60), the determination unit 127 rejects the function execution in step S70. Is determined. In this case, the determination result is output to the determination unit 125, and the voice operation is terminated in the determination unit 125.

なお、ここで、突然音声操作を終了するメッセージを出力すると、盗難者にも話者認識機能によるガードを入れているということを知らせてしまうことになる。そこで、通常操作と変わらない動きで制御できるようにしておいてもよい。例えば、「自宅に帰る」というコマンドで自宅を目的地に設定する場合は、自宅の位置を特定されないようにナビゲーション機能を実行しないだけでなく、まだ自宅が登録されていない状態で機能実行するような動作とする。この場合は、例えば「現在、その操作はご利用できません」という応答ではなく、「自宅が登録されていません。自宅を登録してから実行してください」という応答とする。このようにすることで、通常操作と変わらない動きとなるため話者認識機能によるガードを入れているということが特定されなくなり、かつ、自宅の位置に関する情報も判明しないようにすることが可能となる。このようにして、話者認識処理を含む一連の音声操作処理が完了する。   If a message for suddenly terminating the voice operation is output here, the thief is informed that the guard by the speaker recognition function is put on. Therefore, the control may be performed with a motion that is not different from the normal operation. For example, when setting the home as the destination with the command “return to home”, the navigation function is not executed so that the position of the home is not specified, but the function is executed with the home not yet registered. Behave as expected. In this case, for example, the response is not “Your operation is not currently available” but “Your home is not registered. Please register your home before executing”. By doing so, it becomes impossible to specify that the guard by the speaker recognition function is put because it becomes the same movement as normal operation, and it is possible to prevent the information about the position of the home from being revealed. Become. In this way, a series of voice operation processing including speaker recognition processing is completed.

図4は、手動操作による処理を示すフローチャートである。最初のステップS110で手動操作にて画面遷移するとステップS120にて、話者認識対象であるか否かが判定される。手動操作は、例えば、ユーザにより、操作スイッチ群23(手入力部)への入力、又は、タッチパネル機能を有する表示装置26に表示された操作ボタン(手入力部)への入力により行われる。入力されたコマンドが話者認識対象と判定された場合(ステップS120にて「YES」)は、ステップS130にて、話者認識処理が実行される。次に、ステップS140にて、照合部141で話者が特定されたか否か(一致、又は不一致)が判定される。ステップS120の話者認識対象か否かを判定する処理は、ここでは制御回路28が行う(話者認識対象判定部)。また、ステップS120にて、話者認識対象と判定されなかった場合(ステップS120で「NO」)は、ステップS160にて、決定部123で機能を実行する決定が行われ、手動操作を終了し、ナビゲーション機能の実行は制御回路28によって遂行される。   FIG. 4 is a flowchart showing processing by manual operation. When the screen transition is made by manual operation in the first step S110, it is determined in step S120 whether or not it is a speaker recognition target. The manual operation is performed by, for example, a user input to the operation switch group 23 (manual input unit) or an operation button (manual input unit) displayed on the display device 26 having a touch panel function. If the input command is determined to be a speaker recognition target (“YES” in step S120), speaker recognition processing is executed in step S130. Next, in step S140, it is determined whether or not the speaker is specified by the collation unit 141 (match or mismatch). The process of determining whether or not it is a speaker recognition target in step S120 is performed here by the control circuit 28 (speaker recognition target determination unit). If it is not determined as a speaker recognition target in step S120 (“NO” in step S120), the determination unit 123 determines to execute the function in step S160, and the manual operation is terminated. The navigation function is executed by the control circuit 28.

次に、S140にて、話者が特定された(一致)と判定された場合(ステップS140にて「YES」)は、ステップS160にて、機能実行処理が行われ、手動操作を終了し、ナビゲーション機能の実行は制御回路28によって遂行される。また、ステップS140にて、話者が特定されなかった(不一致)と判定された場合(ステップS140にて「NO」)は、ステップS150にて、判定部127で機能実行を却下するとの判定が行われ、手動操作を終了する。また、判定部127は、決定部125に判定結果を出力し、これに基づいて、決定部125は、例えば、「現在、その操作はご利用できません」という応答を行う。また、この応答に代えて、まだ自宅が登録されていない状態で機能実行するような動作とし、「自宅が登録されていません。自宅を登録してから実行してください」という応答としてもよい。このようにして、話者認識処理を含む一連の手動操作処理が完了する。なお、ステップS140における処理で、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。このようにすることで、例えば、所有者本人による操作である場合に、パスワードの入力によって通常動作に復帰することができるため、利便性が向上する。   Next, when it is determined in S140 that the speaker has been identified (matched) ("YES" in step S140), a function execution process is performed in step S160, and the manual operation is terminated. The execution of the navigation function is performed by the control circuit 28. If it is determined in step S140 that the speaker has not been identified (mismatch) (“NO” in step S140), the determination unit 127 determines that the function execution is rejected in step S150. Done and the manual operation is terminated. In addition, the determination unit 127 outputs the determination result to the determination unit 125, and based on this, the determination unit 125 responds, for example, “Currently, the operation cannot be used”. In addition, instead of this response, the operation may be performed in such a way that the function is executed in a state where the home has not yet been registered, and the response “No home has been registered. Please execute after registering the home” may be used. . In this way, a series of manual operation processing including speaker recognition processing is completed. In the process in step S140, the speaker recognition process is performed by voice input. Alternatively, the speaker recognition process may be performed by, for example, inputting a password and checking the password. In this way, for example, in the case of an operation by the owner himself / herself, the normal operation can be restored by inputting the password, so that convenience is improved.

図5は話者認識のON/OFF切替処理の操作を示すフローチャートである。最初のステップS210で話者認識のON/OFF切替処理の設定画面へ遷移すると、ステップS220にて、判定部121で話者認識処理が実行される。処理された内容に基づいて、ステップS230にて、照合部141で話者が特定されたか否かが判定される。ステップS230にて、話者が特定された(一致)と判定された場合(ステップS230にて「YES」)は、ステップS250にて、決定部123で機能を実行する決定が行われ、話者認識のON/OFF切替処理を終了する。また、ステップS230にて、照合部141で話者が特定されなかった(不一致)と判定された場合(ステップS230にて「NO」)は、S240にて、判定部127で機能実行を却下する判定が行われ、話者認識のON/OFF切替処理を終了する。このようにして、話者認識のON/OFF切替処理が完了する。   FIG. 5 is a flowchart showing the operation of the speaker recognition ON / OFF switching process. When the screen transitions to the setting screen for the speaker recognition ON / OFF switching process in the first step S210, the determination unit 121 executes the speaker recognition process in step S220. Based on the processed content, in step S230, it is determined whether or not the speaker is specified by the collation unit 141. If it is determined in step S230 that the speaker has been identified (matched) (“YES” in step S230), in step S250, the determination unit 123 determines to execute the function, and the speaker The recognition ON / OFF switching process ends. In step S230, if it is determined that the speaker is not specified (mismatch) by collation unit 141 ("NO" in step S230), function determination is rejected by determination unit 127 in S240. A determination is made, and the speaker recognition ON / OFF switching process ends. In this way, the speaker recognition ON / OFF switching process is completed.

以上のように、音声操作、手動操作に話者認識機能を取り入れることで、カーナビゲーション装置20のガード機能のON/OFF切替を、第三者に簡単に操作されてしまうことがないようにする。これにより、万が一、自動車が盗難されてしまったとしても、カーナビゲーション装置20の中に含まれる重要な情報(例えば、個人情報を特定しうる情報であって、自宅の位置や自宅の電話番号などを含む情報)を盗まれないようにすることが可能となり、被害を最小限に抑えることができる。   As described above, by incorporating the speaker recognition function into the voice operation and the manual operation, it is possible to prevent the third party from easily operating ON / OFF switching of the guard function of the car navigation device 20. . As a result, even if the car is stolen, important information included in the car navigation device 20 (for example, information that can identify personal information, such as a home position or a home phone number) (Including information) can be prevented from being stolen, and damage can be minimized.

また、話者認識のON/OFF切替処理を可能とすることで、カーナビゲーション装置20のガード機能を必要に応じて停止及び動作させることができ、利便性が向上する。例えば、少しの間、自動車から離れる場合であっても、上記ガード機能が有効となっていると、煩わしい場合がある。そこで、所有者の希望によって、上記ガード機能を停止、動作を可能とすれば、利便性が向上し、使い勝手が良くなる。   Further, by enabling the speaker recognition ON / OFF switching process, the guard function of the car navigation device 20 can be stopped and operated as necessary, and convenience is improved. For example, even when the user is away from the car for a while, it may be troublesome if the guard function is enabled. Therefore, if the guard function can be stopped and operated according to the desire of the owner, convenience is improved and usability is improved.

次に、図6〜図9を用いて、本発明を適用したカーナビゲーション装置20における処理動作例を示す。図6(a)〜(c)は、音声操作で「自宅に帰る」コマンドを実行する場合の動作例を示す。図6(a)は、話者認識機能によるガードがOFFの場合、すなわち通常の音声操作処理を示すものである。この場合は、ユーザからの「自宅に帰る」という音声コマンドに対し、ユーザの指示通り、自宅を目的地に設定するという流れとなっている。従って、自動車が盗難された場合に盗難者によってコマンドが入力された場合であっても、個人情報を特定可能なコマンドが実行されてしまい、盗難者に、例えば所有者の自宅の位置が判明してしまうことになる。   Next, processing operation examples in the car navigation device 20 to which the present invention is applied will be described with reference to FIGS. FIGS. 6A to 6C show an operation example when a “return to home” command is executed by voice operation. FIG. 6A shows a case where the guard by the speaker recognition function is OFF, that is, normal voice operation processing. In this case, in response to a voice command “go home” from the user, the home is set as the destination as instructed by the user. Therefore, even if a command is input by the theft when the car is stolen, a command that can identify personal information is executed, and the location of the owner's home is revealed to the theft, for example. It will end up.

図6(b)は、話者認識機能によるガードがONで、登録話者ユーザ(所有者)が「自宅に帰る」という音声コマンドを発話した場合の処理動作例を示す。この場合は、話者認識照合部141での話者認識機能により登録話者と特定され、その後は図6(a)に示したもの同じ処理動作例となっている。   FIG. 6B shows a processing operation example when the guard by the speaker recognition function is ON and the registered speaker user (owner) utters a voice command “go home”. In this case, the registered speaker is identified by the speaker recognition function in the speaker recognition / collation unit 141, and thereafter, the same processing operation example as shown in FIG.

図6(c)は、話者認識機能によるガードがONで、登録話者ユーザではないユーザ(盗難者)が「自宅に帰る」という音声コマンドを発話した場合の処理動作例を示す。例えば自動車が盗難にあった場合である。この場合は、話者認識照合部141での話者認識機能において、コマンド入力者が登録話者(所有者)と特定されないため(不一致)、「自宅に帰る」という音声コマンドによる機能実行は却下され、音声操作が強制的に終了するという処理動作例となっている。これにより、自動車が盗難にあった場合であっても、個人情報を特定可能なコマンドを実行することができないため、所有者の個人情報が守られる。   FIG. 6C shows an example of processing operation when the guard by the speaker recognition function is ON and a user (theft person) who is not a registered speaker user utters a voice command “go home”. For example, when a car is stolen. In this case, since the command input person is not identified as the registered speaker (owner) in the speaker recognition function in the speaker recognition verification unit 141 (mismatch), the function execution by the voice command “return to home” is rejected. In this example, the voice operation is forcibly terminated. As a result, even if the car is stolen, the command that can specify the personal information cannot be executed, so that the personal information of the owner is protected.

図7(a)〜(c)に、手動操作で「自宅を目的地に設定する」場合の処理動作例を示す。手動操作は、例えばユーザによる操作スイッチ群23に対する入力によって行われる。図7(a)は、話者認識機能によるガードがOFFの場合、すなわち通常の手動操作処理を示す図である。この場合は、ユーザからの「自宅を目的地に設定する」という手動操作に対し、ユーザの指示通り、自宅を目的地に設定するという流れとなっている。従って、自動車が盗難された場合に盗難者によってコマンドが入力された場合であっても、個人情報を特定可能なコマンドが実行されてしまい、盗難者に、例えば所有者の自宅の位置が判明してしまうことになる。   7A to 7C show processing operation examples in the case of “setting home as a destination” by manual operation. The manual operation is performed by an input to the operation switch group 23 by the user, for example. FIG. 7A is a diagram illustrating normal manual operation processing when the guard by the speaker recognition function is OFF. In this case, in response to the user's manual operation of “setting home as the destination”, the home is set as the destination as instructed by the user. Therefore, even if a command is input by the theft when the car is stolen, a command that can identify personal information is executed, and the location of the owner's home is revealed to the theft, for example. It will end up.

図7(b)は、話者認識機能によるガードがONで、登録ユーザ(所有者)が「自宅を目的地に設定する」という手動操作を実施した場合の処理動作例を示す図である。この場合は、話者認識機能で、ユーザが登録話者(所有者)と特定され(一致)、その後は図7(a)と同じ処理動作例となっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。   FIG. 7B is a diagram illustrating a processing operation example when the guard by the speaker recognition function is ON and the registered user (owner) performs a manual operation of “setting home as a destination”. In this case, with the speaker recognition function, the user is identified (matched) as a registered speaker (owner), and thereafter, the same processing operation example as in FIG. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.

図7(c)は、話者認識機能によるガードがONで、登録話者ユーザではないユーザ(盗難者)が「自宅を目的地に設定する」という手動操作を実施した場合の処理動作例を示す図である。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されないため(不一致)、「自宅を目的地に設定する」という手動操作による機能実行は却下され、手動操作が強制的に終了するという流れとなっている。これにより、自動車が盗難にあった場合であっても、個人情報を特定可能なコマンドを実行することができないため、所有者の個人情報が守られる。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。   FIG. 7C shows an example of processing operation when the guard by the speaker recognition function is ON and a user (theft person) who is not a registered speaker user performs a manual operation of “setting home as a destination”. FIG. For example, when a car is stolen. In this case, since the speaker recognition function does not identify the registered speaker (mismatch), the function execution by the manual operation of “set home as the destination” is rejected, and the manual operation is forcibly terminated. It has become. As a result, even if the car is stolen, the command that can specify the personal information cannot be executed, so that the personal information of the owner is protected. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.

図8(a)〜(b)に、話者認識機能のON/OFF切替処理の処理動作例を示す。図8(a)は、話者認識機能がONで、登録話者ユーザが「話者認識のON/OFF切替処理」を実施した場合の動作を示す図である。「話者認識のON/OFF切替処理」は、例えば、操作スイッチ群23(手入力部)による入力、又は、タッチパネル機能を有する表示装置26(手入力部)に表示された「設定」ボタンへの入力、及び、続いて表示される「話者認識のON/OFF切替」ボタンへの入力により行われる。「話者認識のON/OFF切替」ボタンを押下すると、話者認識処理に移行する。話者認識処理においては、上述したように、ユーザの音声が、スピーカ14を介して入力され、音声認識部12、音声認識制御部13、及び話者認識部17で処理される。この場合は、話者認識機能で登録話者と特定され、ユーザの指示通り、「話者認識ON/OFF切替」の設定画面に遷移するという流れとなっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。   FIGS. 8A to 8B show processing operation examples of the speaker recognition function ON / OFF switching processing. FIG. 8A is a diagram illustrating an operation when the speaker recognition function is ON and the registered speaker user performs “speaker recognition ON / OFF switching processing”. The “speaker recognition ON / OFF switching process” is, for example, input to the operation switch group 23 (manual input unit) or a “setting” button displayed on the display device 26 (manual input unit) having a touch panel function. And the input to the “Switch ON / OFF of speaker recognition” button displayed subsequently. When the “speaker recognition ON / OFF switching” button is pressed, the process proceeds to speaker recognition processing. In the speaker recognition process, as described above, the user's voice is input via the speaker 14 and processed by the voice recognition unit 12, the voice recognition control unit 13, and the speaker recognition unit 17. In this case, the speaker is identified as a registered speaker by the speaker recognition function, and the screen changes to a “speaker recognition ON / OFF switching” setting screen as instructed by the user. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.

図8(b)は、話者認識機能がONで、登録話者ユーザではないユーザが「話者認識のON/OFF切替処理」を実施した場合の処理動作例を示す図である。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されないため(不一致)、「話者認識ON/OFF切替」の設定画面への画面遷移は却下され、操作が強制的に終了するという流れとなっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。   FIG. 8B is a diagram illustrating a processing operation example when a speaker recognition function is ON and a user who is not a registered speaker user performs “speaker recognition ON / OFF switching processing”. For example, when a car is stolen. In this case, since the speaker recognition function does not identify the registered speaker (mismatch), the screen transition to the “Speaker recognition ON / OFF switching” setting screen is rejected, and the operation is forcibly terminated. It has become. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.

なお、上述の実施形態では、「話者認識のON/OFF切替処理」を、操作スイッチ群23(手入力部)又は、タッチパネル機能を有する表示装置26(手入力部)への入力によって行う例を示したが、これに限られない。例えば、スピーカ14からの音声入力によって「話者認識のON/OFF切替処理」を行うこととしてもよい。   In the above-described embodiment, the “speaker recognition ON / OFF switching process” is performed by input to the operation switch group 23 (manual input unit) or the display device 26 (manual input unit) having a touch panel function. However, the present invention is not limited to this. For example, “speaker recognition ON / OFF switching process” may be performed by voice input from the speaker 14.

図9(a)及び(b)は、話者認識機能によるガードを適用した場合の他の処理動作例を示す図である。図9(a)は、音声操作で、話者認識機能がONで、登録話者ユーザではないユーザ(盗難者)が「自宅に帰る」という音声コマンドを発話した場合の処理を示す図である。例えば自動車が盗難にあった場合の処理動作例である。この場合は、話者認識機能で登録話者と特定されない(不一致)。そこで、「自宅に帰る」という音声コマンドによる機能実行を単に却下するのではなく、まだ自宅が登録されていない状態で機能を実行するような動作とする。例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答となる。   FIGS. 9A and 9B are diagrams illustrating another processing operation example when guarding by a speaker recognition function is applied. FIG. 9A is a diagram showing processing when a voice operation is performed and the speaker recognition function is ON and a user (theft person) who is not a registered speaker user utters a voice command “go home”. . For example, it is a processing operation example when a car is stolen. In this case, the speaker recognition function does not identify the registered speaker (mismatch). Therefore, instead of simply rejecting the execution of the function by the voice command “return to home”, the operation is executed in a state where the home is not yet registered. For example, the response is “Your home is not registered. Please register your home before executing”.

図9(b)は、手動操作で、話者認識機能がONで、登録話者ユーザではないユーザが「自宅を目的地に設定する」という手動操作を実施した場合の処理を示す。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されない(不一致)。そこで、図9(a)と同様に、手動操作による機能実行を単に却下するのではなく、まだ自宅が登録されていない状態で機能を実行するような動作とする。以上に説明したようにすることで、万が一、盗難者が使用した場合にも、話者認識機能を適用したガードを入れていることが判別できないようにすることができる。   FIG. 9B shows processing when the speaker recognition function is turned on by manual operation and a user who is not a registered speaker user performs a manual operation of “setting home as a destination”. For example, when a car is stolen. In this case, the speaker recognition function does not identify the registered speaker (mismatch). Therefore, as in FIG. 9A, the function execution by manual operation is not simply rejected, but the function is executed in a state where the home is not yet registered. As described above, even if a theft is used, it can be determined that a guard to which the speaker recognition function is applied cannot be determined.

本発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。例えば、カーナビゲーション装置20の構成や、図3から図9に示した一連の処理は一例として挙げたものであって、要旨を逸脱しない範囲で適宜変更して実施することができる。   The present invention is not limited to the above-described embodiments, and can be applied to various embodiments without departing from the scope of the invention. For example, the configuration of the car navigation device 20 and the series of processes shown in FIGS. 3 to 9 are given as examples, and can be appropriately modified and implemented without departing from the scope of the invention.

また、話者認識部17の照合部141における登録話者データ143と入力された音声データとの照合における一致度(信頼度)に段階を設け、一致度(信頼度)が相当低い場合は、盗難者が発話している(使用している)と判定してもよい。そして、例えば、カーナビゲーション装置20の設定状態を強制的に工場出荷状態(初期状態)に戻してしまうような制御とすることにしてもよい。この場合は、所有者等の自宅住所が登録されていない状態となるため、カーナビゲーション装置20の応答としては、例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答となる。このように、所有者の個人情報が登録されていない場合と同じ応答とすることで、通常操作と変わらない動きとなる。従って、盗難者に話者認識機能によるガードを入れているということが悟られないため、被害を最小限に抑えることができる。   If the matching level (reliability) in matching between the registered speaker data 143 and the input voice data in the matching unit 141 of the speaker recognition unit 17 is set, and the matching level (reliability) is considerably low, It may be determined that the theft is speaking (using). For example, the setting state of the car navigation device 20 may be controlled to be forcibly returned to the factory shipment state (initial state). In this case, since the home address of the owner or the like is not registered, the response of the car navigation device 20 is, for example, “Home is not registered. Please execute after registering the home” It becomes a response. Thus, by making the response the same as when the owner's personal information is not registered, the movement is the same as the normal operation. Therefore, since it is not realized that the guard is provided with the speaker recognition function for the theft, the damage can be minimized.

また、個人情報を特定可能な処理に関するコマンドとして、「自宅に帰る」コマンドを例示して説明したが、これに限定されない。上述のガードを設ける対象となるコマンドを変更(追加、削除)できるようにしてもよい。例えば、カーナビゲーション装置20をスマートフォン(携帯機器)と連動させている場合、「自宅に帰る」コマンドだけでなく、「自宅に電話する」コマンドもガードの対象とするように、追加できることとしてもよい。   Further, the command “return to home” has been described as an example of the command relating to the processing that can specify personal information, but the present invention is not limited to this. You may enable it to change (add, delete) the command used as the object which provides the above-mentioned guard. For example, when the car navigation device 20 is linked to a smartphone (portable device), it is possible to add not only the “return home” command but also the “call home” command so that it can be guarded. .

このようにすることで、様々な個人情報を特定可能な処理に関するコマンドをガード機能の対象とすることができる。従って、車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係する様々なコマンドが実行されないため、所有者の個人情報が漏洩することをより十全に回避することができる。   By doing in this way, the command regarding the process which can specify various personal information can be made into the object of a guard function. Therefore, even when a car theft operator operates the car navigation device, various commands related to the function that can identify the owner's personal information are not executed, so that the owner's personal information is leaked. It can be avoided more fully.

図面中、10は音声認識ユニット、11は音声合成部、12は音声認識部、13は音声認識制御部、14はスピーカ(音声出力部)、15はマイクロホン(音声入力部、第2の入力部)、16はPTTスイッチ、17は話者認識部、20はカーナビゲーション装置、21は位置検出器、21aはジャイロスコープ、21bは距離センサ、21cはGPS受信機、22はデータ入力器、23は操作スイッチ群(手入力部、第1の入力部)、24は通信装置、25は外部メモリ、26は表示装置(手入力部、第1の入力部)、27はリモコンセンサ、27aはリモコン、28は制御回路(話者認識対象判定部、第1の判定部)、101は音声抽出部、103は音声認識照合部、105は音声認識結果出力部、107は音声認識辞書部、121は話者認識対象判定部(第1の判定部)、123は機構実行処理決定部、125は音声出力内容決定部、127は機能実行却下判定部、141は話者認識照合部(第2の判定部)、143は登録話者データ、201はコマンド対応辞書、203は住所対応辞書、205は楽曲対応辞書、207は電話帳対応辞書を示す。     In the drawing, 10 is a speech recognition unit, 11 is a speech synthesis unit, 12 is a speech recognition unit, 13 is a speech recognition control unit, 14 is a speaker (speech output unit), and 15 is a microphone (speech input unit, second input unit). ), 16 a PTT switch, 17 a speaker recognition unit, 20 a car navigation device, 21 a position detector, 21 a a gyroscope, 21 b a distance sensor, 21 c a GPS receiver, 22 a data input device, 23 Operation switch group (manual input unit, first input unit), 24 is a communication device, 25 is an external memory, 26 is a display device (manual input unit, first input unit), 27 is a remote control sensor, 27a is a remote control, 28 is a control circuit (speaker recognition target determination unit, first determination unit), 101 is a speech extraction unit, 103 is a speech recognition collation unit, 105 is a speech recognition result output unit, 107 is a speech recognition dictionary unit, and 121 is a speech Recognition target determination unit (first determination unit), 123 is a mechanism execution process determination unit, 125 is a voice output content determination unit, 127 is a function execution rejection determination unit, and 141 is a speaker recognition verification unit (second determination unit). 143, registered speaker data, 201, a command correspondence dictionary, 203, an address correspondence dictionary, 205, a music correspondence dictionary, and 207, a telephone directory correspondence dictionary.

Claims (10)

入力された第1の音声データに対応するコマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、
前記第1の音声データと、予め登録された第2の音声データとを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有し、
前記コマンドが、所有者の個人情報を特定可能な機能に関係する場合であって、
前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、前記コマンドを実行しないことを特徴とするカーナビゲーション装置(20)。
A first determination unit (121) for determining whether or not a command corresponding to the input first audio data relates to a function capable of specifying the owner's personal information;
A second determination unit (141) that collates the first audio data with pre-registered second audio data and determines whether or not they match,
The command relates to a function capable of identifying the owner's personal information,
The car navigation device (20), wherein the command is not executed when the first voice data and the second voice data do not match as a result of the collation in the second determination unit.
コマンドを手入力により入力可能な第1の入力部(23、26)と、
音声データを入力可能な第2の入力部(15)と、
前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、
入力された音声データと、予め登録された第2の音声データを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有し、
前記第1の判定部において、前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係すると判定された場合は、
第1の音声データを前記第2の入力部に入力する処理と、
前記第2の判定部において、前記第1の音声データと、前記第2の音声データを照合する処理と、を行い、
前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、前記コマンドを実行しないことを特徴とするカーナビゲーション装置。
A first input unit (23, 26) capable of manually inputting a command;
A second input unit (15) capable of inputting voice data;
A first determination unit (121) for determining whether or not the command input from the first input unit relates to a function capable of specifying the owner's personal information;
A second determination unit (141) that compares the input voice data with the second voice data registered in advance and determines whether or not they match,
In the first determination unit, when it is determined that the command input from the first input unit is related to a function capable of specifying the owner's personal information,
A process of inputting first audio data to the second input unit;
In the second determination unit, the first voice data and the process of collating the second voice data are performed,
The car navigation device characterized in that the command is not executed when the first voice data and the second voice data do not match as a result of the collation in the second determination unit.
前記第1の判定部における処理、及び前記第2の判定部における処理のON/OFF切替が可能であることを特徴とする請求項1又は2に記載のカーナビゲーション装置。   The car navigation device according to claim 1, wherein the process in the first determination unit and the process in the second determination unit can be switched on and off. 前記ON/OFF切替を操作する場合、前記第1の判定部における処理、及び前記第2の判定部における処理を行うことを特徴とする請求項3に記載のカーナビゲーション装置。 The car navigation device according to claim 3, wherein when the ON / OFF switching is operated, the process in the first determination unit and the process in the second determination unit are performed. 前記第1の判定部における処理の対象となるコマンドを変更(追加、及び削除)することができることを特徴とする請求項1から4の何れか一項に記載のカーナビゲーション装置。   The car navigation device according to any one of claims 1 to 4, wherein a command to be processed in the first determination unit can be changed (added and deleted). 前記第1の判定部における処理は、パスワードの照合により行うことを特徴とする請求項1から5の何れか一項に記載のカーナビゲーション装置。 The car navigation device according to any one of claims 1 to 5, wherein the processing in the first determination unit is performed by password verification. 前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、当該カーナビゲーション装置を再起動する際に、起動を停止させることを特徴とする請求項1から6の何れか一項に記載のカーナビゲーション装置。   If the first audio data and the second audio data do not match as a result of collation in the second determination unit, the activation is stopped when the car navigation device is restarted. The car navigation device according to any one of claims 1 to 6. さらに、パスワードの入力による本人照合を行わなければ再起動することができないことを特徴とする請求項7に記載のカーナビゲーション装置。   The car navigation device according to claim 7, wherein the car navigation device cannot be restarted unless the person is verified by inputting a password. 前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、前記コマンドを実行しないことに代えて、前記所有者の個人情報が登録されていない場合と同じ応答を行うことを特徴とする請求項1から8の何れか一項に記載のカーナビゲーション装置。   If the first voice data and the second voice data do not match as a result of collation in the second determination unit, the owner's personal information is registered instead of not executing the command. The car navigation device according to any one of claims 1 to 8, wherein the same response as that in a case where the vehicle is not connected is performed. 前記第2の判定部(141)における第1の音声データと第2の音声データとの照合において、両者の一致度に段階を設け、一致度が低い場合は、当該カーナビゲーション装置の設定状態を強制的に工場出荷状態に戻すことを特徴とする請求項1から9の何れか一項に記載のカーナビゲーション装置。   In the collation of the first audio data and the second audio data in the second determination unit (141), a step is provided for the degree of coincidence between the two, and when the degree of coincidence is low, the setting state of the car navigation device is set. The car navigation device according to any one of claims 1 to 9, wherein the vehicle navigation device is forcibly returned to a factory-shipped state.
JP2015007756A 2015-01-19 2015-01-19 Car navigation device Pending JP2016133378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015007756A JP2016133378A (en) 2015-01-19 2015-01-19 Car navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015007756A JP2016133378A (en) 2015-01-19 2015-01-19 Car navigation device

Publications (1)

Publication Number Publication Date
JP2016133378A true JP2016133378A (en) 2016-07-25

Family

ID=56437790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015007756A Pending JP2016133378A (en) 2015-01-19 2015-01-19 Car navigation device

Country Status (1)

Country Link
JP (1) JP2016133378A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017003608A (en) * 2015-06-04 2017-01-05 シャープ株式会社 Server device, system, method for managing voice recognition function and program for controlling information communication terminal
CN110136705A (en) * 2019-04-10 2019-08-16 华为技术有限公司 A kind of method and electronic equipment of human-computer interaction
CN111429882A (en) * 2019-01-09 2020-07-17 北京地平线机器人技术研发有限公司 Method and device for playing voice and electronic equipment
JP2020181044A (en) * 2019-04-24 2020-11-05 コニカミノルタ株式会社 Information processor, control method of the same and program
CN112509580A (en) * 2020-12-21 2021-03-16 北京百度网讯科技有限公司 Voice processing method, device, equipment, storage medium and computer program product

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017003608A (en) * 2015-06-04 2017-01-05 シャープ株式会社 Server device, system, method for managing voice recognition function and program for controlling information communication terminal
CN111429882A (en) * 2019-01-09 2020-07-17 北京地平线机器人技术研发有限公司 Method and device for playing voice and electronic equipment
CN111429882B (en) * 2019-01-09 2023-08-08 北京地平线机器人技术研发有限公司 Voice playing method and device and electronic equipment
CN110136705A (en) * 2019-04-10 2019-08-16 华为技术有限公司 A kind of method and electronic equipment of human-computer interaction
CN110136705B (en) * 2019-04-10 2022-06-14 华为技术有限公司 Man-machine interaction method and electronic equipment
JP2020181044A (en) * 2019-04-24 2020-11-05 コニカミノルタ株式会社 Information processor, control method of the same and program
CN112509580A (en) * 2020-12-21 2021-03-16 北京百度网讯科技有限公司 Voice processing method, device, equipment, storage medium and computer program product
CN112509580B (en) * 2020-12-21 2023-12-19 阿波罗智联(北京)科技有限公司 Speech processing method, apparatus, device, storage medium and computer program product

Similar Documents

Publication Publication Date Title
CN106796786B (en) Speech recognition system
US10706853B2 (en) Speech dialogue device and speech dialogue method
CN107851437B (en) Voice operation system, server device, vehicle-mounted device, and voice operation method
US8914163B2 (en) System and method for incorporating gesture and voice recognition into a single system
JP2016133378A (en) Car navigation device
US9378737B2 (en) Voice recognition device
JP5637131B2 (en) Voice recognition device
CN105222797B (en) Utilize the system and method for oral instruction and the navigation system of partial match search
JPH11288296A (en) Information processor
JP2000322078A (en) On-vehicle voice recognition device
US11416593B2 (en) Electronic device, control method for electronic device, and control program for electronic device
US9128517B2 (en) Vehicular terminal with input switching
JP4770374B2 (en) Voice recognition device
JP2011203434A (en) Voice recognition device and voice recognition method
CN108352167B (en) Vehicle speech recognition including wearable device
JP2018028733A (en) Input device, input device control method, display device and input program
US10158745B2 (en) Vehicle and communication control method for determining communication data connection for the vehicle
JP2020144274A (en) Agent device, control method of agent device, and program
JP2007057805A (en) Information processing apparatus for vehicle
US11217238B2 (en) Information processing device and information processing method
KR101875440B1 (en) Vehicle and control method for the same
JP4093394B2 (en) Voice recognition device
JP7242873B2 (en) Speech recognition assistance device and speech recognition assistance method
JP2005084589A (en) Voice recognition device
WO2024070080A1 (en) Information processing device, information processing method, and program