JP2016133378A - Car navigation device - Google Patents
Car navigation device Download PDFInfo
- Publication number
- JP2016133378A JP2016133378A JP2015007756A JP2015007756A JP2016133378A JP 2016133378 A JP2016133378 A JP 2016133378A JP 2015007756 A JP2015007756 A JP 2015007756A JP 2015007756 A JP2015007756 A JP 2015007756A JP 2016133378 A JP2016133378 A JP 2016133378A
- Authority
- JP
- Japan
- Prior art keywords
- determination unit
- navigation device
- car navigation
- unit
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、個人情報が盗まれないようにすることが可能なカーナビゲーション装置に関する。 The present invention relates to a car navigation device capable of preventing personal information from being stolen.
近年、自動車の盗難が増えてきており、盗難防止のセキュリティ機能に音声認識が利用されるようになってきている。特許文献1では、車両に設けた警報装置の誤動作を防止する目的に音声認識を利用し、予め所有者が登録した音声データを記憶しておき、その登録音声データとマイクロホンから入力した音声データとを照合して、警報装置を制御するという装置が開示されている。特許文献2では、キーの紛失や盗難によるセキュリティ向上のため、ドアロックなどの解除命令を予め音声データで登録しておき、音声データの入力があった場合は当該音声データが解除命令と一致するかが判断され、一致する場合はドアロックが解除される装置が開示されている。しかし、これらの場合、キーだけでなく自動車ごと盗難されてしまった場合は、音声データ入力の必要性が失われ、セキュリティの有効性に欠けることになる。 In recent years, theft of automobiles has increased, and voice recognition has been used for security functions for preventing theft. In Patent Document 1, voice recognition is used for the purpose of preventing malfunction of an alarm device provided in a vehicle, voice data registered in advance by an owner is stored, and the registered voice data and voice data input from a microphone are stored. A device is disclosed in which the alarm device is controlled by checking the above. In Patent Document 2, in order to improve security due to loss or theft of a key, a release command such as a door lock is registered in advance as voice data, and when voice data is input, the voice data matches the release command. A device is disclosed in which the door lock is released if the two are determined to match. However, in these cases, if not only the key but also the entire car is stolen, the necessity for voice data input is lost and the effectiveness of security is lacking.
カーナビゲーション装置には、自宅の位置や自宅の電話番号、その他所有者個人を特定するような情報が含まれていることが多い。万が一、自動車が盗難されて、カーナビゲーション装置を操作され、所有者個人を特定する情報を簡単に見ることができてしまうと、自動車の盗難だけでは済まされない事態にまで陥りかねない。 Car navigation devices often contain information that identifies the location of the home, the telephone number of the home, and other individual owners. If the car is stolen, the car navigation device is operated, and the information for identifying the individual owner can be easily viewed, it may fall into a situation where the car cannot be stolen alone.
本発明は、上記事情を考慮してなされたものであり、その目的は、万が一、カーナビゲーション装置を備える自動車が盗難されてしまったとしても、カーナビゲーション装置の操作において、所有者の個人情報を特定しうるコマンドが実行されないようにし、これにより個人情報が盗まれないようにすることが可能なカーナビゲーション装置を提供することにある。 The present invention has been made in consideration of the above circumstances, and the purpose of the present invention is to use the personal information of the owner in the operation of the car navigation device even if the car equipped with the car navigation device is stolen. It is an object of the present invention to provide a car navigation device capable of preventing an identifiable command from being executed and thereby preventing personal information from being stolen.
本発明は、カーナビゲーション装置の操作により、所有者個人を特定するような情報を見ることができてしまう操作については、話者認識機能により、登録した話者と特定されなければ、カーナビゲーション装置の機能を実行することができないガードを設けることで、被害を最小限に抑えることができる構成となっている。 The present invention relates to an operation in which information for identifying an owner can be viewed by an operation of a car navigation device. If the speaker recognition function does not identify a registered speaker, the car navigation device By providing a guard that cannot execute this function, damage can be minimized.
請求項1に記載する発明に係るカーナビゲーション装置は、入力された第1の音声データに対応するコマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、第1の音声データと、予め登録された第2の音声データとを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有する。コマンドが、所有者の個人情報を特定可能な機能に関係する場合であって、第2の判定部における照合の結果、第1の音声データと、第2の音声データが不一致の場合は、当該コマンドを実行しないことを特徴とする。 In the car navigation device according to the first aspect of the present invention, the first command for determining whether or not the command corresponding to the input first voice data relates to a function capable of specifying the owner's personal information. The determination unit (121) includes a second determination unit (141) that collates the first audio data with the second audio data registered in advance and determines whether or not they match. If the command is related to a function that can identify the personal information of the owner, and the first voice data and the second voice data do not match as a result of the collation in the second determination unit, It is characterized by not executing the command.
この構成によれば、例えば車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係するコマンドが実行されないため、所有者の個人情報の漏洩を回避することができる。 According to this configuration, for example, even when a car theft operator operates the car navigation device, a command related to a function that can identify the owner's personal information is not executed, and thus the owner's personal information is leaked. Can be avoided.
請求項2に記載する発明に係るカーナビゲーション装置は、コマンドを手入力により入力可能な第1の入力部(23、26)と、音声データを入力可能な第2の入力部(15)と、前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、入力された音声データと予め登録された第2の音声データを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有する。第1の判定部において、第1の入力部から入力されたコマンドが、所有者の個人情報を特定可能な機能に関係すると判定された場合は、第1の音声データを前記第2の入力部に入力する処理と、第2の判定部において、第1の音声データと、第2の音声データを照合する処理と、を行い、第2の判定部における照合の結果、第1の音声データと、第2の音声データが不一致の場合は、当該コマンドを実行しないことを特徴とする。 The car navigation device according to the invention described in claim 2 includes a first input unit (23, 26) capable of manually inputting a command, a second input unit (15) capable of inputting voice data, A first determination unit (121) for determining whether or not the command input from the first input unit relates to a function capable of specifying the personal information of the owner; A second determination unit (141) that collates the registered second audio data and determines whether or not they match. When the first determination unit determines that the command input from the first input unit is related to a function that can identify the personal information of the owner, the first audio data is transmitted to the second input unit. And a process of collating the first voice data with the second voice data in the second determination unit, and the first voice data as a result of the collation in the second determination unit If the second audio data does not match, the command is not executed.
この構成によれば、例えば車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係するコマンドが実行されないため、所有者の個人情報が漏洩することを回避することができる。 According to this configuration, for example, even when a vehicle theft operates a car navigation device, a command related to a function that can identify the owner's personal information is not executed, and thus the owner's personal information is leaked. Can be avoided.
以下、本発明を具体化した一実施形態について、図面を参照しながら説明する。図1は実施形態に係る話者認識機能を持たせたカーナビゲーション装置20の概略構成を示すブロック図である。カーナビゲーション装置20は、例えば車両に搭載され、目的地までの経路案内に用いられる、いわゆるカーナビゲーションシステムである。カーナビゲーション装置20は、制御回路28を備えている。カーナビゲーション装置20は、さらに、位置検出器21、データ入力器22、操作スイッチ群23、通信装置24、外部メモリ25、表示装置26及びリモコンセンサ27を有しており、これらは制御回路28に接続されている。カーナビゲーション装置20は、さらに、音声認識ユニット10を有しており、音声認識ユニット10は制御回路28に接続されている。カーナビゲーション装置20は、さらに、スピーカ14、マイクロホン15、及びプッシュ・トゥ・トーク(PTT: Push to Talk)スイッチ16(以下、PTTスイッチ16と称する)を有しており、これらは音声認識ユニット10に接続されている。音声認識ユニット10、及び制御回路28は例えば通常のコンピュータとして構成されており、内部には、周知のCPU、ROM、RAM、I/O及びこれらの構成を接続するバスライン等が備えられている。ナビゲーション装置20の各構成要素は必ずしも物理的に別体として構成される必要はなく、例えば単一のCPUによって動作する種々のソフトウェアとして構成してもよい。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a
位置検出器21は、ジャイロスコープ21a、距離センサ21b、及びGPS受信機21cを備えている。ジャイロスコープ21aは、物体の角度や角速度を検出することにより自動車の回転方向や向きを計算する計測器であり、機械式、流体式、又は光学式の何れの方式を用いてもよい。距離センサ21bは自動車の移動距離を計測する計測器である。GPS受信機21cは、衛星からの電波に基づいて車両の位置を検出する。これらのセンサは各々が性質の異なる誤差を持っているため、複数のセンサにより、相互に補間しながら使用するように構成されている。なお、精度によっては上述した内の一部で構成してもよく、更に、ステアリングの回転センサ、各転動輪の車輪センサ等を追加して用いてもよい。
The
データ入力器22は、位置検出の精度向上のためのいわゆるマップマッチング用データ、地図データ及び目印データを含むカーナビゲーション用の各種データに加えて、音声認識ユニット10において認識処理を行う際に用いる辞書データを入力するための装置である。データ入力器22がこれらデータを記憶する記憶媒体としては、そのデータ量からハードディスクやDVDを用いるのが一般的であると考えられるが、CD−ROM等の他の媒体を用いても良い。データ記憶媒体としてDVDを用いた場合には、このデータ入力器22はDVDプレーヤとなる。
The
表示装置26は、カラー表示装置であり、表示装置26の画面には、位置検出器21から入力された車両現在位置マークと、地図データ入力器22より入力された地図データと、更に地図上に表示する誘導経路や設定地点の目印等の付加データとを重ねて表示することができる。また、表示装置26はタッチパネル機能を備えており、複数の選択肢を表示するメニュー画面やその中の選択肢を選んだ場合に、さらに複数の選択肢を表示するコマンド入力画面などを表示することができる。
The
通信装置24は、設定された連絡先通信情報によって特定される連絡先との通信を行うためのものであり、例えば携帯電話機等の移動体通信機によって構成される。
また、カーナビゲーション装置20は、いわゆる経路案内機能も備えている。カーナビゲーション装置20への入力は、リモートコントロール端末27a(以下、リモコン27aと称する。)を介して、リモコンセンサ27から行われる。操作スイッチ群23により入力することも可能である。リモコン27a、及び操作スイッチ群23からの各種コマンドの入力は、手動操作により行われる。目的地の位置が入力されると、現在位置からその目的地までの最適な経路を自動的に選択して誘導経路を形成し表示することができる。このような自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。操作スイッチ群23は、例えば、表示装置26と一体になったタッチスイッチもしくはメカニカルなスイッチ等が用いられ、各種コマンドの入力に利用される。カーナビゲーション装置20における各機能は、制御回路28におけるソフトウェア処理により実現されている。
The
The
音声認識ユニット10は、カーナビゲーション装置20への各種コマンドの入力を、人が発する音声(音声データ)によって入力するための装置である。音声認識ユニット10は、音声合成部11、音声認識部12、音声認識制御部13(以下、単に制御部13と称する)、及び話者認識部17を有している。スピーカ14は、音声合成部11に接続されている。マイクロホン15は、音声認識部12に接続されている。PTTスイッチ16は、制御部13に接続されている。
The
音声認識部12は、制御部13からの指示により、入力された音声データ(コマンド)の単語認識処理を行い、その認識結果を制御部13に出力する。音声データはマイクロホン15から入力される。音声認識部12は、マイクロホン15から入力された音声データに対し、記憶している辞書データ(後述する音声認識辞書部107)を用いて照合を行う。例えば、辞書データに記憶されている複数の比較対象パターン候補と音声データを比較して、一致度の高い比較対象パターンを制御部13へ出力する。
The
入力音声データ中の単語系列の認識は、例えば以下のように行われる。まず、入力された音声データを、各音声データの音響モデルと比較することにより音響分析し、音響的特徴量(例えばケプストラム)を抽出する。この音響分析によって、音響的特徴量時系列データを得る。そして、周知のHMM(Hidden Markov Model;隠れマルコフモデル)、DP(Dynamic Programming)マッチング法、あるいはニューラルネットなどによって、この時系列データをいくつかの区間に分け、各区間が辞書データとして格納された単語の中のどの単語に対応しているかを求める。以上により、入力された音声データを単語として認識し、これにより音声データによる操作コマンドを認識することができる。 The recognition of the word series in the input voice data is performed as follows, for example. First, the input voice data is acoustically analyzed by comparing with the acoustic model of each voice data, and an acoustic feature quantity (for example, cepstrum) is extracted. By this acoustic analysis, acoustic feature amount time-series data is obtained. Then, this time series data is divided into several sections by a well-known HMM (Hidden Markov Model), DP (Dynamic Programming) matching method, or neural network, and each section is stored as dictionary data. Find out which word in a word corresponds to. As described above, it is possible to recognize the input voice data as a word and thereby recognize an operation command based on the voice data.
制御部13は、音声認識部12における認識結果に基づき、話者認識部17に音声データを出力する対象か否かを判定する。音声認識部12における認識結果により、マイクロホン15から入力された音声データが、個人情報を特定可能な操作コマンドに該当する場合は、話者認識部17に音声データを出力する対象であると判定される。例えば、「自宅に帰る」、「自宅に電話する」などの操作コマンドに相当する音声データである場合がこれに該当する。
Based on the recognition result in the
一方、個人情報を特定可能な操作コマンドに該当しない場合は、話者認識部17に音声データを出力する対象でない(非対象)と判定される。例えば、「東京駅に行く」、「ここから一番近い時間貸駐車場に行く」などの操作コマンドに相当する音声データである場合がこれに該当する。個人情報を特定可能な操作コマンドに該当しない場合は、そのままカーナビゲーション装置20の機能を実行する。
On the other hand, when it does not correspond to the operation command that can specify the personal information, it is determined that the voice data is not output to the speaker recognition unit 17 (non-target). For example, this corresponds to the case where the voice data corresponds to an operation command such as “go to Tokyo Station” or “go to the closest parking lot for the time from here”. If it does not correspond to an operation command that can specify personal information, the function of the
話者認識部17に音声データを出力する対象であると判定された場合は、話者認識部17において話者認識処理を行い、その認識結果を制御部13に出力する。話者認識処理においては、入力された音声データが、予め登録された音声データに一致するか否かを判定する。予め登録された音声データとは、例えば、所有者や所有者の家族など(以下、「所有者等」と称する)の音声データである。すなわち、話者認識処理においては、入力された音声データが、所有者等の音声に一致し、話者が特定されたかどうかを判定する。
If it is determined that the voice data is to be output to the
話者認識部17における話者認識処理において、話者が特定されなかった場合は、機能実行却下(コマンド機能を実行しない)と判定され、音声合成部11へのその旨の応答音声の出力指示を行い、処理を終了する。音声合成部11は、波形データベース内に格納されている音声波形を用い、音声対話制御部13からの応答音声の出力指示に基づく音声を合成する。この合成音声がスピーカ14に出力され、スピーカ14から当該音声が出力される。例えば「現在、その操作はご利用できません」との音声が出力される。ここで、機能実行却下とは、音声データにより入力された操作コマンドの実行を中止すること、当該コマンドに対応するカーナビゲーション装置20の機能を実行しないことを意味する。カーナビゲーション装置20の機能実行を却下することにより、所有者等以外の者(盗難者)に、個人情報が漏洩することを回避することができる。
In the speaker recognition processing in the
また、機能実行却下の一態様として、例えば、カーナビゲーション装置20が所有者の個人情報が登録されていない場合と同じ状態で機能実行するような動作とすることもできる。たとえば、「自宅に帰る」というコマンドで自宅を目的地に設定する場合は、まだ自宅が登録されていない状態で機能を実行するような動作とする。この場合は、「現在、その操作はご利用できません」という、単に機能を実行しないという応答ではなく、例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答とする。このように、所有者の個人情報が登録されていない場合と同じ応答とすることで、通常操作と変わらない動きとなるため、例えば盗難者に話者認識機能によるガードを入れていることを悟られない。また、機能実行却下の一態様として、ナビゲーション装置20を工場出荷状態に戻すようにしても同様の効果が得られる。
これにより、例えば自動車が盗難された場合に、盗難者の気分を逆なでし、さらに自動車の破損に及ばせるなどの二次的な被害にあう確率が減少する。また、当初の目的でもある、自宅の位置に関する情報も見えないようにすることが可能となる。
Further, as one mode of rejecting the function execution, for example, the
As a result, for example, when a car is stolen, the probability of a secondary damage such as the reverse of the feeling of the theft and further damage to the car is reduced. In addition, it is possible to hide the information regarding the position of the home, which is the original purpose.
また、このような処理に続いて、カーナビゲーション装置20を再起動するような操作をした際に、カーナビゲーション装置20の起動を停止する(起動させない)ようにしてもよい。このようにすることで、盗難者によるカーナビゲーション装置20の起動ができなくなるため、個人情報が漏洩することをより確実に回避することができる。なお、このような場合は、所有者により設定されたパスワードの入力により、本人照合を行わなければカーナビゲーション装置20を再起動できないようにする。
In addition, following such processing, when an operation for restarting the
話者認識部17における話者認識処理において、話者が特定された場合、すなわち、入力された音声データが、所有者等の音声に一致した場合は、カーナビゲーション装置20の所有者本人の操作であると判断し、通常の動作が実行される。この場合は、音声合成部11への応答音声の出力指示を行う。また、入力された音声データによるコマンドに従い、カーナビゲーション装置20の処理を実行する制御回路28に対して、必要な処理を行う。例えば、ナビゲート処理のために必要な目的地やコマンドを通知し、目的地の設定やコマンドを実行させるよう指示する処理を行う。このような処理の結果として、この音声認識ユニット10を利用すれば、上記操作スイッチ群23あるいはリモコン27aに対し、ユーザが手動操作をしなくても、音声入力によりカーナビゲーション装置に対する目的地の指示などが可能となる。
When a speaker is specified in the speaker recognition process in the
制御部13において、入力された音声データに対応したコマンドが、個人情報を特定可能な操作コマンドではない場合は、話者認識部17に音声データを出力する対象ではないと判定し、カーナビゲーション装置20において上述した通常の動作が実行される。
When the
また、本実施形態における音声コマンドの入力操作では、ユーザがPTTスイッチ16を押しながらマイクロホン15を介して音声データを入力するという利用方法を想定している。制御部13は、PTTスイッチ16が押されたタイミング、戻されたタイミング、及び押された状態が継続した時間を監視している。PTTスイッチ16が押された場合には、音声認識部12における処理の実行を指示する。一方、PTTスイッチ16が押されていない場合には、その処理を実行させないようにしている。従って、PTTスイッチ16が押されている間にマイクロホン15を介して入力された音声データが、音声認識部12へ出力されることとなる。このような構成とすることによって、カーナビゲーション装置20では、ユーザがコマンドを入力することによって、経路設定や経路案内、あるいは施設検索や施設表示など各種の処理を実行することができる。
In the voice command input operation according to the present embodiment, it is assumed that the user inputs voice data through the
次に、音声認識部12、制御部13、及び話者認識部17の構成についてさらに詳細に説明する。図2に示すように、音声認識部12は、音声抽出部101、音声認識照合部103(以下、照合部103と称する)、音声認識結果出力部105(以下、出力部105と称する)、音声認識辞書部107(以下、辞書部107と称する)を備えている。辞書部107は、例えば、コマンド対応辞書201、住所対応辞書203、楽曲対応辞書205、電話帳対応辞書207などを備えている。これら辞書には、音声データと照合可能であって、コマンド、住所などと対応付けされたデータが格納されている。
Next, the configuration of the
制御部13は、話者認識対象判定部121(以下、判定部121と称する)、機能実行処理決定部123(以下、決定部123と称する)、音声出力内容決定部125(以下、決定部125と称する)を備える。話者認識部17は、話者認識照合部141(以下、照合部141と称する)、及び登録話者データ143を備えている。
The
ユーザは、マイクロホン15からユーザが希望する操作を行うための音声を入力する。音声認識部12の音声抽出部101は、マイクロホン15から入力された音声データを例えばデジタル信号に変換し、辞書に格納されたデータと照合可能な音声データを抽出する。照合部103は、音声抽出部101から入力された音声データと、辞書(201〜207・・・)に格納されたデータとの照合を行い、入力された音声データがどのような言葉であるかを認識する。例えば、入力された音声データが「自宅に帰る」であった場合、コマンド対応辞書201中の、自宅までの経路を案内するコマンドに対応する言葉であると認識する。照合部103は、この認識結果を出力部105に出力する。出力部105は、照合部103から入力された認識結果を、制御部13の判定部121に出力する。なお、マイクロホン15から入力された音声データも、出力部105から判定部121に出力される。
The user inputs sound for performing an operation desired by the user from the
制御部13の判定部121は、出力部105から入力された認識結果に基づいて、入力された音声データが、話者認識部17に音声データを出力する対象であるか否かの判定を行う。入力された音声データが、個人情報を特定可能なコマンドに関係する場合は、話者認識部17に音声データを出力する対象であると判定される。この場合は、判定部121は音声データを話者認識部17の照合部141に出力する。話者認識部17では、制御部13から入力された音声データと登録話者データ143を話者照合部141で照合し、両者の一致、不一致を判定する。
Based on the recognition result input from the
照合部141における照合の結果、話者が特定された場合(一致)、すなわち、音声データが所有者等による入力であると判定した場合は、照合部141は照合結果を、制御部13の決定部123に出力する。決定部123では、入力された照合結果に基づいて、カーナビゲーション装置20において実行すべき処理を決定し、その決定結果が制御回路28に出力される。
As a result of the collation in the
照合部141における照合の結果、話者が特定されなかった場合(不一致)、すなわち、音声データの入力が所有者等による入力ではなかった場合は、照合部141は照合結果を、制御部13の機能実行却下判定部127に出力する。機能実行却下判定部127では、照合部141における照合結果に基づいて、機能実行却下と判定し、その判定結果を決定部125に出力する。決定部125において、当該判定結果に基づいて音声出力する内容が決定され、音声合成部11に当該内容が出力される。
If the speaker is not specified as a result of the verification in the verification unit 141 (mismatch), that is, if the voice data is not input by the owner or the like, the
制御部13の判定部121において、入力された音声データが、個人情報を特定可能なコマンドに関係しない場合は、話者認識部17に音声データを出力する対象でない(非対称)と判定される。この場合は、その判定結果を機構実行処理決定部123と決定部125に出力する。決定部125において、当該判定結果に基づいて音声出力する内容が決定され、音声合成部11に当該内容が出力される。決定部123では、入力された照合結果に基づいて、カーナビゲーション装置20において実行すべき処理を決定し、その決定結果が制御回路28に出力される。
In the
次に、話者認識を実行する処理について、図3、図4、図5を参照して説明する。また、適宜、図1及び図2を参照する。図3は、本実施形態に係る音声操作による処理を示すフローチャートである。まず、ステップS10で、マイク15を介して音声抽出部101に音声データが入力されると、ステップS20にて、照合部103は、辞書部107の辞書(201〜207)を用いて、認識処理が実行される。ステップS30にて、照合部103から出力部105に認識結果が出力される。
Next, processing for executing speaker recognition will be described with reference to FIGS. 3, 4, and 5. FIG. Moreover, FIG.1 and FIG.2 is referred suitably. FIG. 3 is a flowchart showing processing by voice operation according to the present embodiment. First, when voice data is input to the
次に、S40にて、判定部121で話者認識対象であるか否かが判定される。話者認識対象と判定された場合(ステップS40にて「YES」)は、ステップS50にて、登録話者データ143を用いて、照合部141での話者認識処理が実行され、ステップS60にて、話者が特定されたか否か、すなわち、一致、不一致が判定される。
Next, in S40, the
ステップS40にて、話者認識対象と判定されなかった場合、すなわち非対称と判定された場合(ステップS40にて「NO」)は、ステップS80にて、機能実行処理が行われ、音声操作を終了する。 If it is not determined as a speaker recognition target in step S40, that is, if it is determined as asymmetric (“NO” in step S40), a function execution process is performed in step S80, and the voice operation is terminated. To do.
次に、ステップS60にて、照合部141で話者が特定されたか否かが判定され、話者が特定された(一致)と判定された場合(ステップS60で「YES」)は、ステップS80にて、決定部123で機能実行処理が行われ、決定部125で音声操作を終了する決定がされる。
Next, in step S60, it is determined whether or not the speaker has been specified by the
また、ステップS60にて、照合部141で話者が特定されなかった(不一致)と判定された場合(ステップS60で「NO」)は、ステップS70にて、判定部127で機能実行を却下するとの判定が行われる。この場合は、その判定結果を決定部125に出力し、決定部125において音声操作を終了する。
If it is determined in step S60 that the speaker has not been identified by the verification unit 141 (no match) ("NO" in step S60), the
なお、ここで、突然音声操作を終了するメッセージを出力すると、盗難者にも話者認識機能によるガードを入れているということを知らせてしまうことになる。そこで、通常操作と変わらない動きで制御できるようにしておいてもよい。例えば、「自宅に帰る」というコマンドで自宅を目的地に設定する場合は、自宅の位置を特定されないようにナビゲーション機能を実行しないだけでなく、まだ自宅が登録されていない状態で機能実行するような動作とする。この場合は、例えば「現在、その操作はご利用できません」という応答ではなく、「自宅が登録されていません。自宅を登録してから実行してください」という応答とする。このようにすることで、通常操作と変わらない動きとなるため話者認識機能によるガードを入れているということが特定されなくなり、かつ、自宅の位置に関する情報も判明しないようにすることが可能となる。このようにして、話者認識処理を含む一連の音声操作処理が完了する。 If a message for suddenly terminating the voice operation is output here, the thief is informed that the guard by the speaker recognition function is put on. Therefore, the control may be performed with a motion that is not different from the normal operation. For example, when setting the home as the destination with the command “return to home”, the navigation function is not executed so that the position of the home is not specified, but the function is executed with the home not yet registered. Behave as expected. In this case, for example, the response is not “Your operation is not currently available” but “Your home is not registered. Please register your home before executing”. By doing so, it becomes impossible to specify that the guard by the speaker recognition function is put because it becomes the same movement as normal operation, and it is possible to prevent the information about the position of the home from being revealed. Become. In this way, a series of voice operation processing including speaker recognition processing is completed.
図4は、手動操作による処理を示すフローチャートである。最初のステップS110で手動操作にて画面遷移するとステップS120にて、話者認識対象であるか否かが判定される。手動操作は、例えば、ユーザにより、操作スイッチ群23(手入力部)への入力、又は、タッチパネル機能を有する表示装置26に表示された操作ボタン(手入力部)への入力により行われる。入力されたコマンドが話者認識対象と判定された場合(ステップS120にて「YES」)は、ステップS130にて、話者認識処理が実行される。次に、ステップS140にて、照合部141で話者が特定されたか否か(一致、又は不一致)が判定される。ステップS120の話者認識対象か否かを判定する処理は、ここでは制御回路28が行う(話者認識対象判定部)。また、ステップS120にて、話者認識対象と判定されなかった場合(ステップS120で「NO」)は、ステップS160にて、決定部123で機能を実行する決定が行われ、手動操作を終了し、ナビゲーション機能の実行は制御回路28によって遂行される。
FIG. 4 is a flowchart showing processing by manual operation. When the screen transition is made by manual operation in the first step S110, it is determined in step S120 whether or not it is a speaker recognition target. The manual operation is performed by, for example, a user input to the operation switch group 23 (manual input unit) or an operation button (manual input unit) displayed on the
次に、S140にて、話者が特定された(一致)と判定された場合(ステップS140にて「YES」)は、ステップS160にて、機能実行処理が行われ、手動操作を終了し、ナビゲーション機能の実行は制御回路28によって遂行される。また、ステップS140にて、話者が特定されなかった(不一致)と判定された場合(ステップS140にて「NO」)は、ステップS150にて、判定部127で機能実行を却下するとの判定が行われ、手動操作を終了する。また、判定部127は、決定部125に判定結果を出力し、これに基づいて、決定部125は、例えば、「現在、その操作はご利用できません」という応答を行う。また、この応答に代えて、まだ自宅が登録されていない状態で機能実行するような動作とし、「自宅が登録されていません。自宅を登録してから実行してください」という応答としてもよい。このようにして、話者認識処理を含む一連の手動操作処理が完了する。なお、ステップS140における処理で、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。このようにすることで、例えば、所有者本人による操作である場合に、パスワードの入力によって通常動作に復帰することができるため、利便性が向上する。
Next, when it is determined in S140 that the speaker has been identified (matched) ("YES" in step S140), a function execution process is performed in step S160, and the manual operation is terminated. The execution of the navigation function is performed by the
図5は話者認識のON/OFF切替処理の操作を示すフローチャートである。最初のステップS210で話者認識のON/OFF切替処理の設定画面へ遷移すると、ステップS220にて、判定部121で話者認識処理が実行される。処理された内容に基づいて、ステップS230にて、照合部141で話者が特定されたか否かが判定される。ステップS230にて、話者が特定された(一致)と判定された場合(ステップS230にて「YES」)は、ステップS250にて、決定部123で機能を実行する決定が行われ、話者認識のON/OFF切替処理を終了する。また、ステップS230にて、照合部141で話者が特定されなかった(不一致)と判定された場合(ステップS230にて「NO」)は、S240にて、判定部127で機能実行を却下する判定が行われ、話者認識のON/OFF切替処理を終了する。このようにして、話者認識のON/OFF切替処理が完了する。
FIG. 5 is a flowchart showing the operation of the speaker recognition ON / OFF switching process. When the screen transitions to the setting screen for the speaker recognition ON / OFF switching process in the first step S210, the
以上のように、音声操作、手動操作に話者認識機能を取り入れることで、カーナビゲーション装置20のガード機能のON/OFF切替を、第三者に簡単に操作されてしまうことがないようにする。これにより、万が一、自動車が盗難されてしまったとしても、カーナビゲーション装置20の中に含まれる重要な情報(例えば、個人情報を特定しうる情報であって、自宅の位置や自宅の電話番号などを含む情報)を盗まれないようにすることが可能となり、被害を最小限に抑えることができる。
As described above, by incorporating the speaker recognition function into the voice operation and the manual operation, it is possible to prevent the third party from easily operating ON / OFF switching of the guard function of the
また、話者認識のON/OFF切替処理を可能とすることで、カーナビゲーション装置20のガード機能を必要に応じて停止及び動作させることができ、利便性が向上する。例えば、少しの間、自動車から離れる場合であっても、上記ガード機能が有効となっていると、煩わしい場合がある。そこで、所有者の希望によって、上記ガード機能を停止、動作を可能とすれば、利便性が向上し、使い勝手が良くなる。
Further, by enabling the speaker recognition ON / OFF switching process, the guard function of the
次に、図6〜図9を用いて、本発明を適用したカーナビゲーション装置20における処理動作例を示す。図6(a)〜(c)は、音声操作で「自宅に帰る」コマンドを実行する場合の動作例を示す。図6(a)は、話者認識機能によるガードがOFFの場合、すなわち通常の音声操作処理を示すものである。この場合は、ユーザからの「自宅に帰る」という音声コマンドに対し、ユーザの指示通り、自宅を目的地に設定するという流れとなっている。従って、自動車が盗難された場合に盗難者によってコマンドが入力された場合であっても、個人情報を特定可能なコマンドが実行されてしまい、盗難者に、例えば所有者の自宅の位置が判明してしまうことになる。
Next, processing operation examples in the
図6(b)は、話者認識機能によるガードがONで、登録話者ユーザ(所有者)が「自宅に帰る」という音声コマンドを発話した場合の処理動作例を示す。この場合は、話者認識照合部141での話者認識機能により登録話者と特定され、その後は図6(a)に示したもの同じ処理動作例となっている。
FIG. 6B shows a processing operation example when the guard by the speaker recognition function is ON and the registered speaker user (owner) utters a voice command “go home”. In this case, the registered speaker is identified by the speaker recognition function in the speaker recognition /
図6(c)は、話者認識機能によるガードがONで、登録話者ユーザではないユーザ(盗難者)が「自宅に帰る」という音声コマンドを発話した場合の処理動作例を示す。例えば自動車が盗難にあった場合である。この場合は、話者認識照合部141での話者認識機能において、コマンド入力者が登録話者(所有者)と特定されないため(不一致)、「自宅に帰る」という音声コマンドによる機能実行は却下され、音声操作が強制的に終了するという処理動作例となっている。これにより、自動車が盗難にあった場合であっても、個人情報を特定可能なコマンドを実行することができないため、所有者の個人情報が守られる。 FIG. 6C shows an example of processing operation when the guard by the speaker recognition function is ON and a user (theft person) who is not a registered speaker user utters a voice command “go home”. For example, when a car is stolen. In this case, since the command input person is not identified as the registered speaker (owner) in the speaker recognition function in the speaker recognition verification unit 141 (mismatch), the function execution by the voice command “return to home” is rejected. In this example, the voice operation is forcibly terminated. As a result, even if the car is stolen, the command that can specify the personal information cannot be executed, so that the personal information of the owner is protected.
図7(a)〜(c)に、手動操作で「自宅を目的地に設定する」場合の処理動作例を示す。手動操作は、例えばユーザによる操作スイッチ群23に対する入力によって行われる。図7(a)は、話者認識機能によるガードがOFFの場合、すなわち通常の手動操作処理を示す図である。この場合は、ユーザからの「自宅を目的地に設定する」という手動操作に対し、ユーザの指示通り、自宅を目的地に設定するという流れとなっている。従って、自動車が盗難された場合に盗難者によってコマンドが入力された場合であっても、個人情報を特定可能なコマンドが実行されてしまい、盗難者に、例えば所有者の自宅の位置が判明してしまうことになる。
7A to 7C show processing operation examples in the case of “setting home as a destination” by manual operation. The manual operation is performed by an input to the
図7(b)は、話者認識機能によるガードがONで、登録ユーザ(所有者)が「自宅を目的地に設定する」という手動操作を実施した場合の処理動作例を示す図である。この場合は、話者認識機能で、ユーザが登録話者(所有者)と特定され(一致)、その後は図7(a)と同じ処理動作例となっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。 FIG. 7B is a diagram illustrating a processing operation example when the guard by the speaker recognition function is ON and the registered user (owner) performs a manual operation of “setting home as a destination”. In this case, with the speaker recognition function, the user is identified (matched) as a registered speaker (owner), and thereafter, the same processing operation example as in FIG. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.
図7(c)は、話者認識機能によるガードがONで、登録話者ユーザではないユーザ(盗難者)が「自宅を目的地に設定する」という手動操作を実施した場合の処理動作例を示す図である。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されないため(不一致)、「自宅を目的地に設定する」という手動操作による機能実行は却下され、手動操作が強制的に終了するという流れとなっている。これにより、自動車が盗難にあった場合であっても、個人情報を特定可能なコマンドを実行することができないため、所有者の個人情報が守られる。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。 FIG. 7C shows an example of processing operation when the guard by the speaker recognition function is ON and a user (theft person) who is not a registered speaker user performs a manual operation of “setting home as a destination”. FIG. For example, when a car is stolen. In this case, since the speaker recognition function does not identify the registered speaker (mismatch), the function execution by the manual operation of “set home as the destination” is rejected, and the manual operation is forcibly terminated. It has become. As a result, even if the car is stolen, the command that can specify the personal information cannot be executed, so that the personal information of the owner is protected. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.
図8(a)〜(b)に、話者認識機能のON/OFF切替処理の処理動作例を示す。図8(a)は、話者認識機能がONで、登録話者ユーザが「話者認識のON/OFF切替処理」を実施した場合の動作を示す図である。「話者認識のON/OFF切替処理」は、例えば、操作スイッチ群23(手入力部)による入力、又は、タッチパネル機能を有する表示装置26(手入力部)に表示された「設定」ボタンへの入力、及び、続いて表示される「話者認識のON/OFF切替」ボタンへの入力により行われる。「話者認識のON/OFF切替」ボタンを押下すると、話者認識処理に移行する。話者認識処理においては、上述したように、ユーザの音声が、スピーカ14を介して入力され、音声認識部12、音声認識制御部13、及び話者認識部17で処理される。この場合は、話者認識機能で登録話者と特定され、ユーザの指示通り、「話者認識ON/OFF切替」の設定画面に遷移するという流れとなっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。
FIGS. 8A to 8B show processing operation examples of the speaker recognition function ON / OFF switching processing. FIG. 8A is a diagram illustrating an operation when the speaker recognition function is ON and the registered speaker user performs “speaker recognition ON / OFF switching processing”. The “speaker recognition ON / OFF switching process” is, for example, input to the operation switch group 23 (manual input unit) or a “setting” button displayed on the display device 26 (manual input unit) having a touch panel function. And the input to the “Switch ON / OFF of speaker recognition” button displayed subsequently. When the “speaker recognition ON / OFF switching” button is pressed, the process proceeds to speaker recognition processing. In the speaker recognition process, as described above, the user's voice is input via the
図8(b)は、話者認識機能がONで、登録話者ユーザではないユーザが「話者認識のON/OFF切替処理」を実施した場合の処理動作例を示す図である。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されないため(不一致)、「話者認識ON/OFF切替」の設定画面への画面遷移は却下され、操作が強制的に終了するという流れとなっている。なお、ここで、音声入力による話者認識処理を行ったが、これに代えて、例えばパスワードの入力、及びその照合により話者認識処理を行ってもよい。 FIG. 8B is a diagram illustrating a processing operation example when a speaker recognition function is ON and a user who is not a registered speaker user performs “speaker recognition ON / OFF switching processing”. For example, when a car is stolen. In this case, since the speaker recognition function does not identify the registered speaker (mismatch), the screen transition to the “Speaker recognition ON / OFF switching” setting screen is rejected, and the operation is forcibly terminated. It has become. Here, speaker recognition processing by voice input is performed, but instead, speaker recognition processing may be performed by, for example, password input and verification.
なお、上述の実施形態では、「話者認識のON/OFF切替処理」を、操作スイッチ群23(手入力部)又は、タッチパネル機能を有する表示装置26(手入力部)への入力によって行う例を示したが、これに限られない。例えば、スピーカ14からの音声入力によって「話者認識のON/OFF切替処理」を行うこととしてもよい。
In the above-described embodiment, the “speaker recognition ON / OFF switching process” is performed by input to the operation switch group 23 (manual input unit) or the display device 26 (manual input unit) having a touch panel function. However, the present invention is not limited to this. For example, “speaker recognition ON / OFF switching process” may be performed by voice input from the
図9(a)及び(b)は、話者認識機能によるガードを適用した場合の他の処理動作例を示す図である。図9(a)は、音声操作で、話者認識機能がONで、登録話者ユーザではないユーザ(盗難者)が「自宅に帰る」という音声コマンドを発話した場合の処理を示す図である。例えば自動車が盗難にあった場合の処理動作例である。この場合は、話者認識機能で登録話者と特定されない(不一致)。そこで、「自宅に帰る」という音声コマンドによる機能実行を単に却下するのではなく、まだ自宅が登録されていない状態で機能を実行するような動作とする。例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答となる。 FIGS. 9A and 9B are diagrams illustrating another processing operation example when guarding by a speaker recognition function is applied. FIG. 9A is a diagram showing processing when a voice operation is performed and the speaker recognition function is ON and a user (theft person) who is not a registered speaker user utters a voice command “go home”. . For example, it is a processing operation example when a car is stolen. In this case, the speaker recognition function does not identify the registered speaker (mismatch). Therefore, instead of simply rejecting the execution of the function by the voice command “return to home”, the operation is executed in a state where the home is not yet registered. For example, the response is “Your home is not registered. Please register your home before executing”.
図9(b)は、手動操作で、話者認識機能がONで、登録話者ユーザではないユーザが「自宅を目的地に設定する」という手動操作を実施した場合の処理を示す。例えば自動車が盗難にあった場合である。この場合は、話者認識機能で登録話者と特定されない(不一致)。そこで、図9(a)と同様に、手動操作による機能実行を単に却下するのではなく、まだ自宅が登録されていない状態で機能を実行するような動作とする。以上に説明したようにすることで、万が一、盗難者が使用した場合にも、話者認識機能を適用したガードを入れていることが判別できないようにすることができる。 FIG. 9B shows processing when the speaker recognition function is turned on by manual operation and a user who is not a registered speaker user performs a manual operation of “setting home as a destination”. For example, when a car is stolen. In this case, the speaker recognition function does not identify the registered speaker (mismatch). Therefore, as in FIG. 9A, the function execution by manual operation is not simply rejected, but the function is executed in a state where the home is not yet registered. As described above, even if a theft is used, it can be determined that a guard to which the speaker recognition function is applied cannot be determined.
本発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。例えば、カーナビゲーション装置20の構成や、図3から図9に示した一連の処理は一例として挙げたものであって、要旨を逸脱しない範囲で適宜変更して実施することができる。
The present invention is not limited to the above-described embodiments, and can be applied to various embodiments without departing from the scope of the invention. For example, the configuration of the
また、話者認識部17の照合部141における登録話者データ143と入力された音声データとの照合における一致度(信頼度)に段階を設け、一致度(信頼度)が相当低い場合は、盗難者が発話している(使用している)と判定してもよい。そして、例えば、カーナビゲーション装置20の設定状態を強制的に工場出荷状態(初期状態)に戻してしまうような制御とすることにしてもよい。この場合は、所有者等の自宅住所が登録されていない状態となるため、カーナビゲーション装置20の応答としては、例えば「自宅が登録されていません。自宅を登録してから実行してください」という応答となる。このように、所有者の個人情報が登録されていない場合と同じ応答とすることで、通常操作と変わらない動きとなる。従って、盗難者に話者認識機能によるガードを入れているということが悟られないため、被害を最小限に抑えることができる。
If the matching level (reliability) in matching between the registered
また、個人情報を特定可能な処理に関するコマンドとして、「自宅に帰る」コマンドを例示して説明したが、これに限定されない。上述のガードを設ける対象となるコマンドを変更(追加、削除)できるようにしてもよい。例えば、カーナビゲーション装置20をスマートフォン(携帯機器)と連動させている場合、「自宅に帰る」コマンドだけでなく、「自宅に電話する」コマンドもガードの対象とするように、追加できることとしてもよい。
Further, the command “return to home” has been described as an example of the command relating to the processing that can specify personal information, but the present invention is not limited to this. You may enable it to change (add, delete) the command used as the object which provides the above-mentioned guard. For example, when the
このようにすることで、様々な個人情報を特定可能な処理に関するコマンドをガード機能の対象とすることができる。従って、車両の盗難者がカーナビゲーション装置を操作した場合であっても、所有者の個人情報を特定可能な機能に関係する様々なコマンドが実行されないため、所有者の個人情報が漏洩することをより十全に回避することができる。 By doing in this way, the command regarding the process which can specify various personal information can be made into the object of a guard function. Therefore, even when a car theft operator operates the car navigation device, various commands related to the function that can identify the owner's personal information are not executed, so that the owner's personal information is leaked. It can be avoided more fully.
図面中、10は音声認識ユニット、11は音声合成部、12は音声認識部、13は音声認識制御部、14はスピーカ(音声出力部)、15はマイクロホン(音声入力部、第2の入力部)、16はPTTスイッチ、17は話者認識部、20はカーナビゲーション装置、21は位置検出器、21aはジャイロスコープ、21bは距離センサ、21cはGPS受信機、22はデータ入力器、23は操作スイッチ群(手入力部、第1の入力部)、24は通信装置、25は外部メモリ、26は表示装置(手入力部、第1の入力部)、27はリモコンセンサ、27aはリモコン、28は制御回路(話者認識対象判定部、第1の判定部)、101は音声抽出部、103は音声認識照合部、105は音声認識結果出力部、107は音声認識辞書部、121は話者認識対象判定部(第1の判定部)、123は機構実行処理決定部、125は音声出力内容決定部、127は機能実行却下判定部、141は話者認識照合部(第2の判定部)、143は登録話者データ、201はコマンド対応辞書、203は住所対応辞書、205は楽曲対応辞書、207は電話帳対応辞書を示す。 In the drawing, 10 is a speech recognition unit, 11 is a speech synthesis unit, 12 is a speech recognition unit, 13 is a speech recognition control unit, 14 is a speaker (speech output unit), and 15 is a microphone (speech input unit, second input unit). ), 16 a PTT switch, 17 a speaker recognition unit, 20 a car navigation device, 21 a position detector, 21 a a gyroscope, 21 b a distance sensor, 21 c a GPS receiver, 22 a data input device, 23 Operation switch group (manual input unit, first input unit), 24 is a communication device, 25 is an external memory, 26 is a display device (manual input unit, first input unit), 27 is a remote control sensor, 27a is a remote control, 28 is a control circuit (speaker recognition target determination unit, first determination unit), 101 is a speech extraction unit, 103 is a speech recognition collation unit, 105 is a speech recognition result output unit, 107 is a speech recognition dictionary unit, and 121 is a speech Recognition target determination unit (first determination unit), 123 is a mechanism execution process determination unit, 125 is a voice output content determination unit, 127 is a function execution rejection determination unit, and 141 is a speaker recognition verification unit (second determination unit). 143, registered speaker data, 201, a command correspondence dictionary, 203, an address correspondence dictionary, 205, a music correspondence dictionary, and 207, a telephone directory correspondence dictionary.
Claims (10)
前記第1の音声データと、予め登録された第2の音声データとを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有し、
前記コマンドが、所有者の個人情報を特定可能な機能に関係する場合であって、
前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、前記コマンドを実行しないことを特徴とするカーナビゲーション装置(20)。 A first determination unit (121) for determining whether or not a command corresponding to the input first audio data relates to a function capable of specifying the owner's personal information;
A second determination unit (141) that collates the first audio data with pre-registered second audio data and determines whether or not they match,
The command relates to a function capable of identifying the owner's personal information,
The car navigation device (20), wherein the command is not executed when the first voice data and the second voice data do not match as a result of the collation in the second determination unit.
音声データを入力可能な第2の入力部(15)と、
前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係するか否かを判定する第1の判定部(121)と、
入力された音声データと、予め登録された第2の音声データを照合して、両者の一致、不一致を判定する第2の判定部(141)と、を有し、
前記第1の判定部において、前記第1の入力部から入力された前記コマンドが、所有者の個人情報を特定可能な機能に関係すると判定された場合は、
第1の音声データを前記第2の入力部に入力する処理と、
前記第2の判定部において、前記第1の音声データと、前記第2の音声データを照合する処理と、を行い、
前記第2の判定部における照合の結果、前記第1の音声データと、前記第2の音声データが不一致の場合は、前記コマンドを実行しないことを特徴とするカーナビゲーション装置。 A first input unit (23, 26) capable of manually inputting a command;
A second input unit (15) capable of inputting voice data;
A first determination unit (121) for determining whether or not the command input from the first input unit relates to a function capable of specifying the owner's personal information;
A second determination unit (141) that compares the input voice data with the second voice data registered in advance and determines whether or not they match,
In the first determination unit, when it is determined that the command input from the first input unit is related to a function capable of specifying the owner's personal information,
A process of inputting first audio data to the second input unit;
In the second determination unit, the first voice data and the process of collating the second voice data are performed,
The car navigation device characterized in that the command is not executed when the first voice data and the second voice data do not match as a result of the collation in the second determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015007756A JP2016133378A (en) | 2015-01-19 | 2015-01-19 | Car navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015007756A JP2016133378A (en) | 2015-01-19 | 2015-01-19 | Car navigation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016133378A true JP2016133378A (en) | 2016-07-25 |
Family
ID=56437790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015007756A Pending JP2016133378A (en) | 2015-01-19 | 2015-01-19 | Car navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016133378A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017003608A (en) * | 2015-06-04 | 2017-01-05 | シャープ株式会社 | Server device, system, method for managing voice recognition function and program for controlling information communication terminal |
CN110136705A (en) * | 2019-04-10 | 2019-08-16 | 华为技术有限公司 | A kind of method and electronic equipment of human-computer interaction |
CN111429882A (en) * | 2019-01-09 | 2020-07-17 | 北京地平线机器人技术研发有限公司 | Method and device for playing voice and electronic equipment |
JP2020181044A (en) * | 2019-04-24 | 2020-11-05 | コニカミノルタ株式会社 | Information processor, control method of the same and program |
CN112509580A (en) * | 2020-12-21 | 2021-03-16 | 北京百度网讯科技有限公司 | Voice processing method, device, equipment, storage medium and computer program product |
-
2015
- 2015-01-19 JP JP2015007756A patent/JP2016133378A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017003608A (en) * | 2015-06-04 | 2017-01-05 | シャープ株式会社 | Server device, system, method for managing voice recognition function and program for controlling information communication terminal |
CN111429882A (en) * | 2019-01-09 | 2020-07-17 | 北京地平线机器人技术研发有限公司 | Method and device for playing voice and electronic equipment |
CN111429882B (en) * | 2019-01-09 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | Voice playing method and device and electronic equipment |
CN110136705A (en) * | 2019-04-10 | 2019-08-16 | 华为技术有限公司 | A kind of method and electronic equipment of human-computer interaction |
CN110136705B (en) * | 2019-04-10 | 2022-06-14 | 华为技术有限公司 | Man-machine interaction method and electronic equipment |
JP2020181044A (en) * | 2019-04-24 | 2020-11-05 | コニカミノルタ株式会社 | Information processor, control method of the same and program |
CN112509580A (en) * | 2020-12-21 | 2021-03-16 | 北京百度网讯科技有限公司 | Voice processing method, device, equipment, storage medium and computer program product |
CN112509580B (en) * | 2020-12-21 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | Speech processing method, apparatus, device, storage medium and computer program product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106796786B (en) | Speech recognition system | |
US10706853B2 (en) | Speech dialogue device and speech dialogue method | |
CN107851437B (en) | Voice operation system, server device, vehicle-mounted device, and voice operation method | |
US8914163B2 (en) | System and method for incorporating gesture and voice recognition into a single system | |
JP2016133378A (en) | Car navigation device | |
US9378737B2 (en) | Voice recognition device | |
JP5637131B2 (en) | Voice recognition device | |
CN105222797B (en) | Utilize the system and method for oral instruction and the navigation system of partial match search | |
JPH11288296A (en) | Information processor | |
JP2000322078A (en) | On-vehicle voice recognition device | |
US11416593B2 (en) | Electronic device, control method for electronic device, and control program for electronic device | |
US9128517B2 (en) | Vehicular terminal with input switching | |
JP4770374B2 (en) | Voice recognition device | |
JP2011203434A (en) | Voice recognition device and voice recognition method | |
CN108352167B (en) | Vehicle speech recognition including wearable device | |
JP2018028733A (en) | Input device, input device control method, display device and input program | |
US10158745B2 (en) | Vehicle and communication control method for determining communication data connection for the vehicle | |
JP2020144274A (en) | Agent device, control method of agent device, and program | |
JP2007057805A (en) | Information processing apparatus for vehicle | |
US11217238B2 (en) | Information processing device and information processing method | |
KR101875440B1 (en) | Vehicle and control method for the same | |
JP4093394B2 (en) | Voice recognition device | |
JP7242873B2 (en) | Speech recognition assistance device and speech recognition assistance method | |
JP2005084589A (en) | Voice recognition device | |
WO2024070080A1 (en) | Information processing device, information processing method, and program |