JP2004086356A - Authentication method and authentication system - Google Patents

Authentication method and authentication system Download PDF

Info

Publication number
JP2004086356A
JP2004086356A JP2002244008A JP2002244008A JP2004086356A JP 2004086356 A JP2004086356 A JP 2004086356A JP 2002244008 A JP2002244008 A JP 2002244008A JP 2002244008 A JP2002244008 A JP 2002244008A JP 2004086356 A JP2004086356 A JP 2004086356A
Authority
JP
Japan
Prior art keywords
voiceprint
terminal device
input
user
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002244008A
Other languages
Japanese (ja)
Inventor
Kenji Hosokawa
細川 健司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2002244008A priority Critical patent/JP2004086356A/en
Publication of JP2004086356A publication Critical patent/JP2004086356A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an authentication method in which a voice is produced by a user operating a first terminal device and a second terminal device is put into the state that it can be used or can not be used by using the voiceprint of a voice representing a command which can be executed by the second terminal device and the command can be inputted by the voice, and also provide an authentication device. <P>SOLUTION: A voice input part 11 in which the user produces a voice and the voice representing a command a server can execute is converted to a voice signal and inputted; a voiceprint generating part 12 which generates an input voiceprint based on the inputted voice signal; a voiceprint storage part 13 which stores a registered voiceprint, that is, the voiceprint of a registered user who is allowed to use the server; a determination part 14 which determines whether the inputted voiceprint accords with the registered voiceprint; and a setting part 15 which sets the server to be in a usable state when the inputted voiceprint is determined to accord with the registered voiceprint and also sets the server to be in an unusable state when the inputted voiceprint is determined not to accord with the registered voiceprint are provided. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、利用者が第1端末装置を操作して、前記第1端末装置に通信回線を介して接続される第2端末装置を遠隔操作するときに、その利用者が登録済利用者であるか否かを判定する認証方法および認証装置に関する。
【0002】
【従来の技術】
図6は、バイオメトリクスを利用する保護システム1を模式的に示す図である。従来から、利用者が、サーバ2から離れた場所からクライアントマシン3を用いて前記サーバ2を遠隔操作するとき、クライアントマシン3を操作している利用者が、サーバ2の正規の利用者であるか否かを確認するために、予め設定されているパスワードの入力を前記利用者に要求し、そのパスワードが正しい場合には、その利用者にサーバ2の利用を許可するという認証を行って、サーバ2に不法に侵入するハッカーおよびクラッカーからの保護を行っている。近年、バイオメトリクス(Biometrics)と呼ばれる、声紋、虹彩、指紋および顔面などの生体情報を用いる生体認証を利用した保護システム1が市場に出回りつつある。生体情報として、たとえば虹彩、指紋および顔面を用いる生体認証には、虹彩および顔面を撮影するためのカメラ、ならびに指紋を読取るためのスキャナなど専用の周辺機器である生体認証デバイス5が必要であるが、これらの生体認証デバイス5は高価であるので導入コストがかかるために、一般に普及していない。
【0003】
利用者が、サーバ2から離れた場所からクライアントマシン3を操作して、前記サーバ2を遠隔操作する場合、インターネット4を介してクライアントマシン3を遠隔操作したいサーバ2に接続する。インターネット4は多くの人が利用しているので、サーバ2の正規利用者でない人がサーバ2を操作することを防止するために、通常二重および三重のパスワードを設定している。このようなパスワードの入力を、たとえばマイクロホンを介して音声入力して、入力された音声の声紋に基づいて、その利用者がサーバ2の正規利用者であるか否かを判断することができる。このような声紋を用いる認証に必要とされる生体認証デバイス5は、たとえばマイクロホンだけでよく、このようなマイクロホンはクライアントマシン3に搭載されている場合も多いだけでなく、扱いが非常に容易であり、これからの発展が期待できる。
【0004】
図7は、従来の認証方法の手順を示すフローチャートである。ステップu0で手順が開始されて、ステップu1に進む。ステップu1では、クライアントマシン3を操作する利用者は、予め定められるパスワードをマイクロホンに向かって発声し、クライアントマシン3において、その音声が音声信号に変換されて入力され、ステップu2に進む。ステップu2では、クライアントマシン2において、入力された音声信号に基づく声紋を生成して、生成した声紋をサーバ2に与えて、ステップu3に進む。
【0005】
ステップu3では、サーバ2において、サーバ2に記憶される声紋データベースに基づいて、ステップu2で生成された声紋は、声紋データベースに含まれる声紋に一致するか否か、すなわちクライアントマシン2を操作している利用者はサーバ2の正規利用者であるか否かを判断し、正規利用者であると判断するとステップu4に進み、正規利用者でないと判断するとステップu6に進む。
【0006】
ステップu3において、クライアントマシン2を操作している利用者は、サーバ2の正規利用者であると判断されてステップu4に進むと、ステップu4では、クライアントマシン2を操作している利用者は、クライアントマシン3のキーボードを操作して、サーバ2が実行可能なコマンドを入力して、ステップu5に進み、全ての手順を終了する。
【0007】
ステップu3において、クライアントマシン2を操作している利用者は、サーバ2の正規利用者でないと判断されてステップu6に進むと、ステップu6では、サーバ2はクライアントマシン3に、クライアントマシン2を操作している利用者は正規利用者でないことを示すエラーメッセージを与えて、クライアントマシン3のディスプレイにエラーメッセージを表示させて、ステップu1に戻る。
【0008】
【発明が解決しようとする課題】
以上のように、クライアントマシン2を操作している利用者がサーバ2の正規利用者であるか否かを判断するための1つの手段として、生体認証を利用しているだけである。クライアントマシン2を操作している利用者が、サーバ2の正規利用者であると判断されて、前記利用者が、サーバ2の利用を許可するという認証を受けて、前記利用者に対してサーバ2が利用可能状態に設定された後、前記利用者は、キーボードなどの入力装置を入力操作することによって、コマンドの入力を行う。また利用者は、認証を受けた後、自らサーバ2の利用可能状態を解除するログオフ(logoff)を行わない限り、クライアントマシン2を操作している利用者はサーバ2の正規利用者であるか否かの判断を再度行うことはない。
【0009】
しかし実際には認証はクライアントマシン2を操作する利用者に与えられるのではなく、そのクライアントマシン2に与えられる。したがって一旦認証を受けると、クライアントマシン3を操作する人が、正規利用者から正規利用者でない他の利用者に入替わっても、正規利用者でない他の利用者は、サーバ2を遠隔操作することが可能である。たとえば認証を受けた後、正規利用者がログオフせずに、クライアントマシン3から離れたときに、別の人がクライアントマシン3を操作して、サーバ2を遠隔操作してハッキングすることができる。
【0010】
したがって本発明の目的は、第1端末装置を操作する利用者が発声し、第2端末装置が実行可能なコマンドを表す音声の声紋を用いて、入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定して、第2端末装置を利用可能状態または利用不可能状態にすることができるとともに、音声でコマンドを入力することができる認証方法および認証装置を提供することである。
【0011】
【課題を解決するための手段】
請求項1に係る発明は、利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方において行われる認証方法であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力工程と、
入力された音声信号に基づいて入力声紋を生成する声紋生成工程と、
声紋生成工程で生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定する判定工程と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定工程とを含むことを特徴とする認証方法である。
【0012】
請求項1に係る発明に従えば、音声入力工程において、利用者が発声し、第2端末装置が実行可能なコマンドを表す音声が音声信号に変換して入力される。続く声紋生成工程において、入力された音声信号に基づいて入力声紋が生成される。そして判定工程において、声紋生成工程において生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かが判定される。さらに設定工程において、入力声紋と登録声紋とが一致すると判定された場合、第2端末装置が利用可能状態に設定され、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置が利用不可能状態に設定される。
【0013】
このように利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0014】
請求項2に係る発明は、設定工程で第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了工程をさらに含むことを特徴とする。
【0015】
請求項2に係る発明に従えば、さらに終了工程において、設定工程で第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定される。このように第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、第2端末装置が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0016】
請求項3に係る発明は、利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方に設けられる認証装置であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力手段と、
入力された音声信号に基づいて入力声紋を生成する声紋生成手段と、
第2端末装置を利用可能な登録済利用者の声紋である登録声紋が記憶されている声紋記憶手段と、
声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている登録声紋とが一致するか否かを判定する判定手段と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定手段とを備えることを特徴とする認証装置である。
【0017】
請求項3に係る発明に従えば、音声入力手段によって、利用者が発声し、第2端末装置が実行可能なコマンドを表す音声が音声信号に変換されて入力される。声紋生成手段によって、入力された音声信号に基づいて入力声紋が生成される。判定手段によって、声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かが判定される。設定手段によって、入力声紋と登録声紋とが一致すると判定された場合、第2端末装置が利用可能状態に設定され、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置が利用不可能状態に設定される。
【0018】
このように利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声することを省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0019】
請求項4に係る発明は、設定手段によって第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了手段をさらに含むことを特徴とする。
【0020】
請求項4に係る発明に従えば、設定手段によって第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、終了手段は、第2端末装置を利用不可能状態に設定する。このように第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、判定手段による入力声紋と登録声紋とが一致するか否かの判定、および設定手段による第2端末装置の利用可能状態または利用不可能状態の設定を行わずに、第2端末装置が、引き続いて入力されるコマンドを実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0021】
【発明の実施の形態】
図1は、本発明の実施の一形態の認証装置10の構成を示すブロック図である。図2は、認証装置10を含むコンピュータネットワーク30を模式的に示す図である。認証装置10は、利用者が操作する第1端末装置であるクライアントマシン31、およびクライアントマシン31に通信回線33を介して接続される第2端末装置であるサーバ32の少なくともいずれか一方に設けられる。本実施の形態において、クライアントマシン31は、通信回線33に接続可能な、たとえばパーソナルコンピュータ、携帯形情報端末装置(Personal Digital
Assistants ;略称:PDA)および携帯電話装置などで実現される。サーバ32は、通信回線に接続可能な、たとえばパーソナルコンピュータおよびワークステーションなどで実現される。通信回線33は、たとえば公衆電話回線およびインターネットで実現される。また本実施の形態において、認証装置10は、クライアントマシン31に設けられる。
【0022】
認証装置10は、音声入力部11、声紋生成部12、声紋記憶部13、判定部14、設定部15、音声解析部16、コマンド記憶部17、コマンド生成部18およびコマンド発行部19を含んで構成される。音声入力手段である音声入力部11は、たとえばマイクロホンで実現され、利用者が発声する音声を、通信回線33を伝送可能な音声信号に変換して入力し、声紋生成部12および音声解析部16に与える。本実施の形態において、音声入力部11は、クライアントマシン31に搭載されるマイクロホンである。声紋生成手段である声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与える。声紋は、サウンドスペクトログラムとも呼ばれ、音声信号に含まれる一定時間毎の周波数成分の強弱が表される。
【0023】
声紋記憶手段である声紋記憶部13は、たとえばハードディスクドライブ(
Hard Disc Drive ;略称:HDD)などの記憶装置で実現され、サーバ32を利用可能な登録済利用者の声紋である登録声紋がデータベース化されて記憶されている。登録声紋は、詳細に述べると、登録済利用者毎に、サーバ32が実行可能なコマンドを表す音声の音声信号に基づいて得られた声紋である。登録声紋に含まれるコマンドは、たとえば管理者権限を有する登録利用者が用いることのできるサーバ32のオペレーティングシステム(Operating System;略称:OS)の再起動を表す「reboot」およびOSの終了を表す「shutdown」、ならびに管理者権限を有さない登録利用者でも用いることができるディレクトリ(directory)内のファイルの一覧の出力を表す「ls」、現在の作業ディレクトリとは異なるディレクトリへの移動を表す「cd」およびパスワードの変更を表す「passwd」などの、比較的頻繁に用いられるコマンドである。
【0024】
判定手段である判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否か、すなわちクライアントマシン31を操作している利用者は登録済利用者であるか否かを判定し、その判定結果を設定部15に与える。判定部14は、詳細に述べると、入力声紋と登録声紋とを比較して、入力声紋と登録声紋との類似度である認証レベルを求め、認証レベルが予め定める閾値以上である場合には、入力声紋と登録声紋とが一致していると判定し、認証レベルが予め定める閾値未満である場合には、入力声紋と登録声紋とが一致していないと判定する。認証レベルの閾値は、たとえばコマンド毎に設定するようにしてもよい。
【0025】
設定部15は、判定部14からの判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログイン(login )させるようにサーバ32を設定する。この場合、たとえば設定部15は、前記利用者のサーバ32にログインするときのユーザアカウントおよびパスワードを、サーバ32に与えることによって、前記利用者に対してサーバ32を利用可能状態に設定する。また設定部15は、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定する。
【0026】
また終了手段でもある設定部17は、サーバ32が利用可能状態に設定されて、サーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定する。また設定部17は、サーバ32がクライアントマシン31を操作する利用者に対して、利用可能状態である場合、すなわち前記利用者がサーバ32にログインしている場合、前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与える。
【0027】
音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出する音声解析処理をおこなって、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド記憶部17は、たとえばHDDなどの記憶装置で実現され、サーバ32が実行可能なコマンドを示す音声信号の時系列波形およびパワースペクトルなどの登録音声解析情報が、コマンド毎にデータベース化されて記憶されている。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成するコマンド生成処理を行って、生成したコマンドをコマンド発行部19に与える。コマンド発行部19は、設定部15からログイン情報が与えられている場合、コマンド生成部19からのコマンドを、サーバ32のOSに与える。
【0028】
前述の声紋生成部12、判定部14、設定部15、音声解析部16、コマンド生成部18およびコマンド発行部19は、たとえばクライアントマシン31の中央演算処理装置(Central Processing Unit ;略称:CPU)が、クライアントマシン31のHDDに記憶されている後述する認証方法を示すプログラムを実行することによって実現される。また声紋記憶部13およびコマンド記憶部17は、たとえばクライアントマシン31のHDDで実現される。
【0029】
図3は、本発明の実施の他の形態の認証方法の手順を示すフローチャートである。ステップa0で、認証方法の手順が開始されて、ステップa1に進む。声紋入力工程であるステップa1では、サーバ32が実行可能なコマンドを表す音声を利用者が発声し、音声入力部11は、その音声を音声信号に変換して入力して、声紋生成部12および音声解析部16に与えて、ステップa2に進む。声紋生成工程であるステップa2では、声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与えて、ステップa3に進む。
【0030】
判定工程および設定工程であるステップa3では、判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否かを判定し、その判定結果を設定部15に与える。設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定するともに前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与えて、ステップa4に進む。また設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定して、ステップa8に進む。
【0031】
入力声紋と登録声紋とが一致すると判定されてステップa4に進むと、ステップa4では、音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出して、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成して、コマンド発行部19に与えて、ステップa5に進む。
【0032】
ステップa5では、コマンド発行部19は、設定部15からログイン情報に基づいて、コマンド生成部19からのコマンドを、サーバ32のOSに与える。サーバ32は、コマンド発行部19からのコマンドを実行してステップa6に進む。ステップa6では、サーバ32は、コマンドの実行結果を出力して、クライアントマシン31に与える。クライアントマシン31は、サーバ32からのコマンドの実行結果を、クライアントマシン31の液晶表示装置などの表示装置に表示させステップa7に進み、全ての手順を終了する。
【0033】
入力声紋と登録声紋とが一致しないと判定されてステップa8に進むと、ステップa8では、判定部14は、入力声紋と登録声紋とが一致しないことを示すエラーメッセージを、クライアントマシン31の表示装置に表示させるとともに、前記利用者に対してサーバ32にログインさせないようにサーバ32を設定してステップa1に戻る。
【0034】
図4は、本発明の実施のさらに他の形態の認証方法の手順を示すフローチャートである。ステップb0で、認証方法の手順が開始されて、ステップb1に進む。声紋入力工程であるステップb1では、サーバ32が実行可能なコマンドを表す音声を利用者が発声し、音声入力部11は、その音声を音声信号に変換して入力して、声紋生成部12および音声解析部16に与えて、ステップb2に進む。声紋生成工程であるステップb2では、声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与えて、ステップb3に進む。
【0035】
判定工程および設定工程であるステップb3では、判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否かを判定し、その判定結果を設定部15に与える。設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定するともに前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与えて、ステップb4に進む。また設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定して、ステップb7に進む。
【0036】
入力声紋と登録声紋とが一致すると判定されてステップb4に進むと、ステップb4では、音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出して、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成して、コマンド発行部19に与えて、ステップb5に進む。
【0037】
ステップb5では、コマンド発行部19は、設定部15からログイン情報に基づいて、コマンド生成部19からのコマンドを、サーバ32のOSに与える。サーバ32は、コマンド発行部19からのコマンドを実行してステップb6に進む。ステップb6では、サーバ32は、コマンドの実行結果を出力して、クライアントマシン31に与える。クライアントマシン31は、サーバ32からのコマンドの実行結果を、クライアントマシン31の液晶表示装置などの表示装置に表示させる。このとき設定部15は、サーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定する終了工程、すなわちサーバ32の利用可能状態を解除するログオフ(logoff)を行って、ステップb1に戻る。
【0038】
入力声紋と登録声紋とが一致しないと判定されてステップb7に進むと、ステップb7では、判定部14は、入力声紋と登録声紋とが一致しないことを示すエラーメッセージを、クライアントマシン31の表示装置に表示させるとともに、前記利用者に対してサーバ32にログインさせないようにサーバ32を設定してステップb1に戻る。
【0039】
このように前述の実施の形態の認証方法および認証装置10によれば、利用者が、サーバ32が実行可能なコマンドを表す音声を発声するだけで、サーバ32を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえばサーバ32を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドをサーバ32が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドをサーバ32が実行するまで要する時間を短縮することができる。さらに利用者は、サーバ32が実行可能なコマンドを表す音声を発声するだけで、サーバ32が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0040】
また前述の実施の形態の認証方法および認証装置10によれば、サーバ32が入力されたコマンドを実行後、サーバ32が利用不可能状態に設定されるので、サーバ32が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。サーバ32が入力されたコマンドを実行後、サーバ32が利用可能状態のままにしておく場合、サーバ32が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがってサーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定することによって、サーバ32が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0041】
前述の実施の形態の認証方法および認証装置10において、判定部14による判定工程に要する時間が長くなる場合には、登録済利用者がサーバ32にログインした後に、管理者権限を有する登録済利用者だけが用いることができるコマンドについてだけ、入力声紋と登録声紋とが一致するか否かを判定するようにしてもよい。この場合、コマンド発行部19は、管理者権限を有さない登録利用者でも用いることができるコマンドに対しては、そのままOSに与えるようにすればよい。これによって登録済利用者がコマンドを発声してから、サーバ32によるコマンドの実行が完了するまでに要する時間を短縮して、登録済利用者が迅速にサーバ32を操作することができるとともに、セキュリティー上重要となる管理者権限が必要となるコマンドに対しては、入力声紋と登録声紋とが一致するか否かを判定して、サーバ32のセキュリティーを維持することができる。
【0042】
また前述の実施の形態の認証方法および認証装置10において、判定部14による判定工程に要する時間が長くなる場合には、登録済利用者がサーバ32にログインした後に、入力声紋と登録声紋とが一致するか否かの判定と、コマンドの生成とを平行して行うようにしてもよい。この場合、たとえば、登録済利用者が、管理者権限を有さない登録利用者でも用いることができるコマンドである「ls」および「cd」ならびに管理者権限を有する登録済利用者だけが用いることができるコマンドである「shutdown」を連続して発声すると、「ls」および「cd」に関しては音声解析処理およびコマンド生成処理が施されて、コマンド発行部19は、これらのコマンドをそのままOSに与える。「shutdown」に関しても音声解析処理およびコマンド生成処理が施されるけれども、コマンド発行部18がこのコマンドは管理者権限を有する利用者だけが用いることができるコマンドであると判断して、音声の入力を一時的に止めるようなメッセージを出力して、判定部14による判定結果、および前記判定結果に基づく設定部15によるサーバ32の設定状態が得られるまで待機する。そしてサーバ32が登録済利用者に対してサーバ32を利用可能状態にして、前記登録済管理者が管理者権限を有する場合には、コマンド発行部19は、コマンドをOSに与えるようにする。
【0043】
また前述の実施の形態の認証方法および認証装置10において、登録済利用者が用いる全てのコマンドの声紋が登録声紋として声紋記憶部に記憶され、判定部14によって入力声紋と登録声紋とが一致するか否かを判定する場合には、音声解析部16による音声解析処理、コマンド生成部18によるコマンド生成処理、およびコマンド記憶部17を省略してもよい。この場合、判定部14によって、入力声紋と登録声紋とが一致するか否かを判定することによって、入力された音声信号に含まれるコマンドが生成される。これによって認証装置10の構成を単純にすることができるとともに、認証方法を簡略化することができる。
【0044】
また前述の実施の形態の認証方法および認証装置10において、設定部15は、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定するとしたが、これに限ることはない。たとえば管理者権限を有する登録利用者だけが用いることのできるコマンドに対しては、そのコマンドの入力声紋と登録声紋とが一致しないと判定された場合、設定部15は、即座にサーバ32を利用不可能状態に設定するようにしてもよい。また、たとえば管理者権限を有さない登録利用者でも用いることのできるコマンドに対しては、そのコマンドの入力声紋と登録声紋とが一致しないと判定された場合でも、設置部15は、サーバ32を利用不可能状態に設定しないで、利用可能状態を維持するようにしてもよい。これによって、コマンドの入力声紋と登録声紋とが一致するか否かの判定を簡素化して処理を迅速に行うとともに、サーバ32が管理者権限を有する登録利用者だけが用いることのできるコマンドによって、たとえば不所望にOSの再起動および終了が行われることを少なくとも防止することができる。
【0045】
また前述の実施の形態の認証方法および認証装置10において、認証装置10が設けられるクライアントマシン31をパーソナルコンピュータとして説明したけれども、これに限らず、携帯電話装置であってもよい。この場合、サーバ32によるコマンドの実行結果の出力およびエラーメッセージの出力を、音声によって行うようにしてもよい。これによって登録済利用者は、携帯電話装置を利用可能なエリア内であれば、どのような場所でもサーバ32を容易かつ確実に遠隔操作することができる。
【0046】
また前述の実施の形態の認証方法および認証装置10において、認証装置10は、クライアントマシン31に設けられるとしたけれども、これに限らず、たとえば認証装置10における音声入力部11を除く構成部を、サーバ32に設けるようにしてもよい。さらに、たとえば認証装置10における音声入力部11を除く構成部を、クライアントマシン31およびサーバ32のいずれか一方に、分散させて設けるようにしてもよい。
【0047】
図5は、指紋読取部51を有するキーボード52を備えるクライアントマシン31Aを模式的に示す図である。クライアントマシン31Aの入力装置であるキーボード52の、たとえばスペースキー53の左端部に、クライアントマシン31Aの利用者の左指の指紋を読取る指紋読取部51が設けられる。この場合、クライアントマシン31Aの利用者は、一定時間毎に、左指を指紋読取部51に触るようにする。指紋読取部51は、エンターキーに内蔵するようにしてもよい。
【0048】
クライアントマシン31Aには、さらに指紋記憶部および指紋判定部が備えられる。指紋読取部51は、利用者の左指の指紋を読取ると、その指紋の画像データである入力指紋を指紋判定部に与える。指紋記憶部は、たとえばHDDなどの記憶装置で実現され、サーバ32を利用可能な登録済利用者の指紋の画像データである登録指紋がデータベース化されて記憶されている。指紋判定部は、入力指紋と登録指紋とが一致するか否かを判定し、その判定結果を認証装置10の設定部15に与える。
【0049】
認証装置10の設定部15は、指紋判定部からの判定結果に基づいて、入力指紋と登録指紋とが一致すると判定された場合、クライアントマシン31Aを操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定する。また設定部15は、入力指紋と登録指紋とが一致しないと判定された場合、クライアントマシン31Aを操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定する。このように声紋と指紋とを用いることによって、セキュリティーをさらに向上することができる。
【0050】
さらにクライアントマシン31Aに、電化結合素子(Charge−Coupled Devices;略称:CCD)を内蔵して、クライアントマシン31Aを操作している利用者の顔面および虹彩を撮影して、その顔面および虹彩の画像データである入力画像を出力するカメラと、サーバ32を利用可能な登録済利用者の顔面および虹彩の画像データである登録画像がデータベース化されて記憶されている画像記憶部と、および入力画像と登録画像とが一致するか否かを判定し、その判定結果を認証装置10の設定部15に与える画像判定部とを備えるようにしてもよい。このように声紋、指紋、顔面および虹彩を用いることによって、セキュリティーを極めて向上することができる。
【0051】
【発明の効果】
以上のように請求項1に係る発明によれば、利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0052】
また請求項2に係る発明によれば、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、第2端末装置が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0053】
また請求項3に係る発明によれば、利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声することを省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0054】
また請求項4に係る発明によれば、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、判定手段による入力声紋と登録声紋とが一致するか否かの判定、および設定手段による第2端末装置の利用可能状態または利用不可能状態の設定を行わずに、第2端末装置が、引き続いて入力されるコマンドを実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態の認証装置10の構成を示すブロック図である。
【図2】認証装置10を含むコンピュータネットワーク30を模式的に示す図である。
【図3】本発明の実施の他の形態の認証方法の手順を示すフローチャートである。
【図4】本発明の実施のさらに他の形態の認証方法の手順を示すフローチャートである。
【図5】指紋読取部51を有するキーボード52を備えるクライアントマシン31Aを模式的に示す図である。
【図6】バイオメトリクスを利用する保護システム1を模式的に示す図である。
【図7】従来の認証方法の手順を示すフローチャートである。
【符号の説明】
10 認証装置
11 音声入力部
12 声紋生成部
13 音声記憶部
14 判定部
15 設定部
31 クライアントマシン
32 サーバ
33 通信回線
[0001]
TECHNICAL FIELD OF THE INVENTION
According to the present invention, when a user operates a first terminal device and remotely operates a second terminal device connected to the first terminal device via a communication line, the user is a registered user. The present invention relates to an authentication method and an authentication device for determining whether or not there is a device.
[0002]
[Prior art]
FIG. 6 is a diagram schematically showing the protection system 1 using biometrics. Conventionally, when a user remotely controls the server 2 using a client machine 3 from a place remote from the server 2, the user operating the client machine 3 is an authorized user of the server 2. Requesting the user to input a preset password in order to confirm whether or not the password is correct, and if the password is correct, perform authentication to permit the user to use the server 2; It protects the server 2 from hackers and crackers that intrude illegally. 2. Description of the Related Art In recent years, a protection system 1 using biometric authentication called biometrics using biometric information such as a voiceprint, an iris, a fingerprint, and a face, which is called Biometrics, is on the market. For biometric authentication using, for example, an iris, a fingerprint, and a face as biometric information, a biometric authentication device 5 which is a dedicated peripheral device such as a camera for photographing the iris and the face and a scanner for reading the fingerprint is required. However, these biometric authentication devices 5 are not widely used because they are expensive and require high introduction costs.
[0003]
When the user operates the client machine 3 from a location remote from the server 2 to remotely control the server 2, the user connects to the server 2 via the Internet 4 to which the client machine 3 is to be remotely controlled. Since the Internet 4 is used by many people, double and triple passwords are usually set in order to prevent a person who is not an authorized user of the server 2 from operating the server 2. Such a password input can be made by voice input via, for example, a microphone, and it can be determined whether or not the user is an authorized user of the server 2 based on the voiceprint of the input voice. The biometric authentication device 5 required for authentication using such a voiceprint may be, for example, only a microphone. Such a microphone is often mounted on the client machine 3 and is very easy to handle. Yes, we can expect further development.
[0004]
FIG. 7 is a flowchart showing a procedure of a conventional authentication method. The procedure starts at step u0, and proceeds to step u1. In step u1, the user operating the client machine 3 utters a predetermined password into the microphone, and the sound is converted into an audio signal in the client machine 3, and the process proceeds to step u2. In step u2, the client machine 2 generates a voiceprint based on the input voice signal, gives the generated voiceprint to the server 2, and proceeds to step u3.
[0005]
In step u3, the server 2 operates the client machine 2 based on the voiceprint database stored in the server 2 to determine whether the voiceprint generated in step u2 matches the voiceprint included in the voiceprint database. It is determined whether or not the user is an authorized user of the server 2. If it is determined that the user is an authorized user, the process proceeds to step u4. If it is determined that the user is not an authorized user, the process proceeds to step u6.
[0006]
In step u3, the user operating the client machine 2 is determined to be an authorized user of the server 2, and proceeds to step u4. In step u4, the user operating the client machine 2 By operating the keyboard of the client machine 3 and inputting a command that can be executed by the server 2, the process proceeds to step u5, and all procedures are ended.
[0007]
In step u3, it is determined that the user operating the client machine 2 is not an authorized user of the server 2, and the process proceeds to step u6. In step u6, the server 2 operates the client machine 3 to operate the client machine 2. The providing user gives an error message indicating that the user is not an authorized user, causes the display of the client machine 3 to display the error message, and returns to step u1.
[0008]
[Problems to be solved by the invention]
As described above, as one means for determining whether the user operating the client machine 2 is an authorized user of the server 2, only biometric authentication is used. The user operating the client machine 2 is determined to be an authorized user of the server 2, and the user is authenticated to permit the use of the server 2, and the server After the user 2 is set in a usable state, the user inputs a command by inputting an input device such as a keyboard. Further, after the user has been authenticated, the user operating the client machine 2 is an authorized user of the server 2 unless the user performs logoff (logoff) for releasing the usable state of the server 2 by himself / herself. No determination is made again.
[0009]
However, in practice, the authentication is not given to the user operating the client machine 2 but to the client machine 2. Therefore, once the user is authenticated, even if the person operating the client machine 3 is switched from an authorized user to another user who is not an authorized user, another user who is not an authorized user remotely operates the server 2. It is possible. For example, after the authentication, when the authorized user leaves the client machine 3 without logging off, another person can operate the client machine 3 and remotely control the server 2 to hack.
[0010]
Therefore, an object of the present invention is to provide an input voiceprint and a second terminal device using a voiceprint of a voice uttered by a user operating the first terminal device and representing a command executable by the second terminal device. It is possible to determine whether or not a registered voiceprint that is a registered user's voiceprint matches, to set the second terminal device in an available state or an unusable state, and to input a command by voice. It is an object of the present invention to provide an authentication method and an authentication device which can perform the authentication.
[0011]
[Means for Solving the Problems]
The invention according to claim 1 is an authentication method performed in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line. ,
A voice input step in which a user utters and converts a voice representing a command executable by the second terminal device into a voice signal and inputs the voice signal;
A voiceprint generation step of generating an input voiceprint based on the input voice signal;
A determining step of determining whether or not the input voiceprint generated in the voiceprint generating step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device;
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting step of setting the authentication method.
[0012]
According to the first aspect of the present invention, in the voice input step, a voice uttered by the user and representing a command executable by the second terminal device is converted into a voice signal and input. In a subsequent voiceprint generation step, an input voiceprint is generated based on the input voice signal. Then, in the determination step, it is determined whether or not the input voiceprint generated in the voiceprint generation step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device. Further, in the setting step, when it is determined that the input voiceprint matches the registered voiceprint, the second terminal device is set to the usable state, and when it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is determined. Is set to the unavailable state.
[0013]
In this manner, the user can set the second terminal device to the usable state or the unusable state only by uttering a voice representing a command executable by the second terminal device. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. By omitting the step of uttering the password, the time required for the user to execute a desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0014]
The invention according to claim 2 is an end step in which the second terminal device is set to an available state in the setting step, and after the second terminal device executes the input command, the second terminal device is set to an unusable state. Is further included.
[0015]
According to the invention according to claim 2, in the ending step, the second terminal device is set to a usable state in the setting step, and after the second terminal device executes the input command, the second terminal device becomes unavailable. Set to enabled state. After the second terminal device executes the input command as described above, the second terminal device is set to the unusable state, so that the second terminal device determines the subsequently input command as a determination step and a setting step. Can be prevented from being executed without going through. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[0016]
The invention according to claim 3 is an authentication device provided in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line. ,
Voice input means for converting a voice representing a command executable by the user into a voice signal and inputting the voice signal,
Voiceprint generating means for generating an input voiceprint based on the input voice signal;
Voiceprint storage means for storing a registered voiceprint which is a voiceprint of a registered user who can use the second terminal device;
Determining means for determining whether the input voiceprint generated by the voiceprint generating means matches the registered voiceprint stored in the voiceprint storing means,
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting unit for setting the authentication device.
[0017]
According to the third aspect of the present invention, the voice input means converts the voice uttered by the user and represents a command executable by the second terminal device into a voice signal and input. An input voiceprint is generated by the voiceprint generation means based on the input voice signal. The determination unit determines whether the input voiceprint generated by the voiceprint generation unit matches a registered voiceprint stored in the voiceprint storage unit, which is a voiceprint of a registered user who can use the second terminal device. Is done. If it is determined by the setting unit that the input voiceprint matches the registered voiceprint, the second terminal device is set to a usable state, and if it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device Set to unavailable state.
[0018]
In this manner, the user can set the second terminal device to the usable state or the unusable state only by uttering a voice representing a command executable by the second terminal device. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. The utterance of the password can be omitted, and the time required for the user to execute the desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0019]
The invention according to claim 4, wherein the setting means sets the second terminal device to an available state, and after the second terminal device executes the input command, sets the second terminal device to an unusable state. Is further included.
[0020]
According to the invention according to claim 4, the second terminal device is set to the usable state by the setting device, and after the second terminal device executes the input command, the ending device cannot use the second terminal device. Set to state. After the second terminal device executes the input command in this way, the second terminal device is set to the unusable state, so that the determining unit determines whether the input voiceprint matches the registered voiceprint, and The second terminal device can be prevented from executing a subsequently input command without setting the usable state or the unusable state of the second terminal device by the setting means. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of an authentication device 10 according to an embodiment of the present invention. FIG. 2 is a diagram schematically illustrating a computer network 30 including the authentication device 10. The authentication device 10 is provided in at least one of a client machine 31 that is a first terminal device operated by a user and a server 32 that is a second terminal device connected to the client machine 31 via a communication line 33. . In the present embodiment, the client machine 31 can be connected to the communication line 33, for example, a personal computer, a personal digital assistant (Personal Digital Terminal).
Assistants (abbreviation: PDA) and a mobile phone device. The server 32 is realized by, for example, a personal computer and a work station which can be connected to a communication line. Communication line 33 is implemented, for example, by a public telephone line and the Internet. In the present embodiment, the authentication device 10 is provided on the client machine 31.
[0022]
The authentication device 10 includes a voice input unit 11, a voiceprint generation unit 12, a voiceprint storage unit 13, a determination unit 14, a setting unit 15, a voice analysis unit 16, a command storage unit 17, a command generation unit 18, and a command issue unit 19. Be composed. The voice input unit 11 as a voice input unit is realized by, for example, a microphone, converts voice uttered by a user into a voice signal that can be transmitted through the communication line 33 and inputs the voice signal, and outputs a voice print generation unit 12 and a voice analysis unit 16. Give to. In the present embodiment, the voice input unit 11 is a microphone mounted on the client machine 31. The voiceprint generation unit 12 that is a voiceprint generation unit generates an input voiceprint based on the input voice signal, and provides the input voiceprint to the determination unit 14. The voiceprint is also called a sound spectrogram, and represents the strength of a frequency component included in an audio signal at regular intervals.
[0023]
The voiceprint storage unit 13 serving as a voiceprint storage unit includes, for example, a hard disk drive (
A registered voiceprint which is realized by a storage device such as a Hard Disc Drive (abbreviation: HDD) or the like and is a voiceprint of a registered user who can use the server 32 is stored in a database. More specifically, the registered voiceprint is a voiceprint obtained based on a voice signal of a voice representing a command executable by the server 32 for each registered user. The commands included in the registered voiceprint include, for example, "reboot" indicating restart of an operating system (OS) of the server 32 which can be used by a registered user having administrator authority, and "reboot" indicating termination of the OS. "shutdown", "ls" indicating the output of a list of files in a directory (directory) that can be used even by a registered user without administrator authority, and "shifting to a directory different from the current working directory". This is a relatively frequently used command such as "cd" and "passwd" indicating a password change.
[0024]
The determination unit 14 serving as a determination unit determines whether the input voiceprint generated by the voiceprint generation unit 12 matches the registered voiceprint stored in the voiceprint storage unit 13, that is, whether the input voiceprint is operating the client machine 31. The user determines whether or not the user is a registered user, and provides the determination result to the setting unit 15. More specifically, the determination unit 14 compares the input voiceprint with the registered voiceprint to obtain an authentication level that is a similarity between the input voiceprint and the registered voiceprint. If the authentication level is equal to or greater than a predetermined threshold, It is determined that the input voiceprint matches the registered voiceprint, and if the authentication level is less than a predetermined threshold, it is determined that the input voiceprint does not match the registered voiceprint. The threshold of the authentication level may be set, for example, for each command.
[0025]
When it is determined based on the determination result from the determination unit 14 that the input voiceprint matches the registered voiceprint, the setting unit 15 sets the server 32 in a usable state for a user who operates the client machine 31. That is, the server 32 is set so that the user logs in to the server 32. In this case, for example, the setting unit 15 sets the server 32 in an available state for the user by giving the server 32 a user account and a password for logging in to the server 32 of the user. When it is determined that the input voiceprint and the registered voiceprint do not match, the setting unit 15 sets the server 32 in an unusable state for the user who operates the client machine 31, that is, for the user, Server 32 so as not to log in to server 32.
[0026]
The setting unit 17, which is also an ending means, sets the server 32 to an available state, and after the server 32 executes the input command, sets the server 32 to an unusable state. When the server 32 is in a usable state with respect to the user who operates the client machine 31, that is, when the user logs in to the server 32, the setting unit 17 logs in to the server 32. The log-in information indicating that the log-in is performed is given to the command issuing unit 19.
[0027]
The voice analysis unit 16 performs a voice analysis process for calculating a time-series waveform, a power spectrum, and the like of the input voice signal, and provides input voice analysis information that is the calculation result to the command generation unit 18. The command storage unit 17 is realized by, for example, a storage device such as an HDD. Registered voice analysis information such as a time-series waveform and a power spectrum of a voice signal indicating a command executable by the server 32 is stored in a database for each command and stored. Have been. The command generation unit 18 generates a command included in the input voice signal based on the voice analysis information input from the voice analysis unit 16 and the registered voice analysis information stored in the command storage unit 17. And gives the generated command to the command issuing unit 19. When the login information is given from the setting unit 15, the command issuing unit 19 gives the command from the command generation unit 19 to the OS of the server 32.
[0028]
The above-described voiceprint generation unit 12, determination unit 14, setting unit 15, voice analysis unit 16, command generation unit 18, and command issuing unit 19 are, for example, a central processing unit (Central Processing Unit; CPU) of the client machine 31. This is realized by executing a program indicating an authentication method described later, which is stored in the HDD of the client machine 31. The voiceprint storage unit 13 and the command storage unit 17 are realized by, for example, the HDD of the client machine 31.
[0029]
FIG. 3 is a flowchart showing a procedure of an authentication method according to another embodiment of the present invention. In step a0, the procedure of the authentication method is started, and the process proceeds to step a1. In step a1, which is a voiceprint input step, the user utters a voice representing a command that can be executed by the server 32, and the voice input unit 11 converts the voice into a voice signal and inputs the voice signal. This is provided to the voice analysis unit 16, and the process proceeds to step a2. In step a2, which is a voiceprint generation step, the voiceprint generation unit 12 generates an input voiceprint based on the input voice signal, provides the input voiceprint to the determination unit 14, and proceeds to step a3.
[0030]
In step a3, which is a determination step and a setting step, the determination unit 14 determines whether or not the input voiceprint generated by the voiceprint generation unit 12 matches the registered voiceprint stored in the voiceprint storage unit 13. The result of the determination is given to the setting unit 15. When it is determined based on the determination result that the input voiceprint matches the registered voiceprint, the setting unit 15 sets the server 32 in an available state for the user operating the client machine 31, ie, The server 32 is set so that the user logs in to the server 32, and login information indicating that the user is logged in to the server 32 is given to the command issuing unit 19, and the process proceeds to step a4. If the setting unit 15 determines that the input voiceprint and the registered voiceprint do not match based on the determination result, the setting unit 15 sets the server 32 to an unusable state for the user operating the client machine 31. That is, the server 32 is set so that the user is not logged in to the server 32, and the process proceeds to step a8.
[0031]
When it is determined that the input voiceprint matches the registered voiceprint and the process proceeds to step a4, in step a4, the voice analysis unit 16 calculates a time-series waveform and a power spectrum of the input voice signal, and calculates the power spectrum. Certain input voice analysis information is provided to the command generation unit 18. The command generation unit 18 generates a command included in the input voice signal based on the voice analysis information input from the voice analysis unit 16 and the registered voice analysis information stored in the command storage unit 17. This is provided to the issuing unit 19, and the process proceeds to step a5.
[0032]
In step a5, the command issuing unit 19 gives the command from the command generation unit 19 to the OS of the server 32 based on the login information from the setting unit 15. The server 32 executes the command from the command issuing unit 19 and proceeds to step a6. In step a6, the server 32 outputs the execution result of the command and gives it to the client machine 31. The client machine 31 displays the execution result of the command from the server 32 on a display device such as a liquid crystal display device of the client machine 31, proceeds to step a7, and ends all the procedures.
[0033]
When it is determined that the input voiceprint does not match the registered voiceprint and the process proceeds to step a8, in step a8, the determination unit 14 sends an error message indicating that the input voiceprint does not match the registered voiceprint to the display device of the client machine 31. And the server 32 is set so that the user is not logged in to the server 32, and the process returns to step a1.
[0034]
FIG. 4 is a flowchart showing a procedure of an authentication method according to still another embodiment of the present invention. In step b0, the procedure of the authentication method is started, and the process proceeds to step b1. In step b1, which is a voiceprint input process, the user utters a voice representing a command executable by the server 32, and the voice input unit 11 converts the voice into a voice signal and inputs the voice signal. This is provided to the voice analysis unit 16, and the process proceeds to step b2. In step b2, which is a voiceprint generation step, the voiceprint generation unit 12 generates an input voiceprint based on the input voice signal, gives the input voiceprint to the determination unit 14, and proceeds to step b3.
[0035]
In step b3, which is a determination step and a setting step, the determination unit 14 determines whether or not the input voiceprint generated by the voiceprint generation unit 12 matches the registered voiceprint stored in the voiceprint storage unit 13. The result of the determination is given to the setting unit 15. When it is determined based on the determination result that the input voiceprint matches the registered voiceprint, the setting unit 15 sets the server 32 in an available state for the user operating the client machine 31, ie, The server 32 is set so that the user logs in to the server 32, and login information indicating that the user is logged in to the server 32 is given to the command issuing unit 19, and the process proceeds to step b4. If the setting unit 15 determines that the input voiceprint and the registered voiceprint do not match based on the determination result, the setting unit 15 sets the server 32 to an unusable state for the user operating the client machine 31. That is, the server 32 is set so that the user is not logged in to the server 32, and the process proceeds to step b7.
[0036]
When it is determined that the input voiceprint matches the registered voiceprint and the process proceeds to step b4, in step b4, the voice analysis unit 16 calculates a time-series waveform and a power spectrum of the input voice signal, and uses the calculation result. Certain input voice analysis information is provided to the command generation unit 18. The command generation unit 18 generates a command included in the input voice signal based on the voice analysis information input from the voice analysis unit 16 and the registered voice analysis information stored in the command storage unit 17. This is provided to the issuing unit 19, and the process proceeds to step b5.
[0037]
In step b5, the command issuing unit 19 gives the command from the command generation unit 19 to the OS of the server 32 based on the login information from the setting unit 15. The server 32 executes the command from the command issuing unit 19 and proceeds to step b6. In step b6, the server 32 outputs the execution result of the command and gives it to the client machine 31. The client machine 31 displays the execution result of the command from the server 32 on a display device such as a liquid crystal display device of the client machine 31. At this time, after the server 32 executes the input command, the setting unit 15 performs an end step of setting the server 32 to an unusable state, that is, performs a log-off (logoff) to release the usable state of the server 32, and Return to b1.
[0038]
When it is determined that the input voiceprint does not match the registered voiceprint and the process proceeds to step b7, in step b7, the determination unit 14 outputs an error message indicating that the input voiceprint does not match the registered voiceprint to the display device of the client machine 31. And the server 32 is set so that the user is not logged in to the server 32, and the process returns to step b1.
[0039]
As described above, according to the authentication method and the authentication device 10 of the above-described embodiment, the user merely speaks a voice indicating a command that can be executed by the server 32, and the server 32 can be used in the usable state or the unusable state. Can be set to As a result, not only security can be improved by using the voiceprint, but also a password used only for making the server 32 usable can be determined in advance, and the user can utter a voice representing the password. In comparison with a case where a command is input after the password is determined to be correct, the user utters a voice and then utters a password from when the server 32 executes the desired command to when the user executes a desired command. By omitting the process, the time required for the user to execute a desired command by the server 32 can be reduced. Further, the user simply inputs a voice representing a command that can be executed by the server 32 and the server 32 executes the command. For example, the user inputs a command by inputting an input device such as a keyboard. Command input can be performed extremely easily as compared with the case.
[0040]
Further, according to the authentication method and the authentication device 10 of the above-described embodiment, the server 32 is set to the unusable state after the server 32 executes the input command, so that the server 32 is continuously input. It is possible to prevent the command from being executed without going through the determining step and the setting step. If the server 32 remains available after the server 32 executes the entered command, the server 32 may enter a command that is subsequently entered, and the command is uttered by a user other than a registered user. However, there is a risk of execution. Therefore, after the server 32 executes the input command, the server 32 is set to the unusable state, thereby reliably preventing the server 32 from executing a command uttered by a user other than the registered user. can do.
[0041]
In the authentication method and the authentication device 10 according to the above-described embodiment, when the time required for the determination process by the determination unit 14 becomes long, after the registered user logs in to the server 32, the registered use having the administrator authority is performed. Only for commands that can be used by the user, it may be determined whether the input voiceprint matches the registered voiceprint. In this case, the command issuing unit 19 may give a command that can be used by a registered user who does not have administrator authority to the OS as it is. As a result, the time required from when the registered user utters the command to when the execution of the command by the server 32 is completed is shortened, and the registered user can operate the server 32 quickly, and the security can be improved. For a command that requires an administrator privilege that is more important, it is possible to determine whether the input voiceprint matches the registered voiceprint, and maintain the security of the server 32.
[0042]
In the authentication method and the authentication device 10 of the above-described embodiment, when the time required for the determination process by the determination unit 14 becomes long, after the registered user logs in to the server 32, the input voiceprint and the registered voiceprint are The determination as to whether they match or the command generation may be performed in parallel. In this case, for example, the registered user who is a registered user who does not have administrator authority can use the commands "ls" and "cd" and only registered users who have administrator authority can use it. When "shutdown", which is a command that can be performed, is continuously uttered, voice analysis processing and command generation processing are performed on "ls" and "cd", and the command issuing unit 19 gives these commands to the OS as they are. . Speech analysis processing and command generation processing are also performed on “shutdown”, but the command issuing unit 18 determines that this command is a command that can be used only by a user having administrator authority, and inputs a voice. Is output, and the process waits until the determination result by the determination unit 14 and the setting state of the server 32 by the setting unit 15 based on the determination result are obtained. Then, when the server 32 makes the server 32 available to registered users and the registered administrator has administrator authority, the command issuing unit 19 gives a command to the OS.
[0043]
In the authentication method and the authentication device 10 according to the above-described embodiment, voiceprints of all commands used by registered users are stored in the voiceprint storage unit as registered voiceprints, and the input voiceprint matches the registered voiceprint by the determination unit 14. When it is determined whether or not this is the case, the voice analysis process by the voice analysis unit 16, the command generation process by the command generation unit 18, and the command storage unit 17 may be omitted. In this case, the determination unit 14 determines whether the input voiceprint matches the registered voiceprint, thereby generating a command included in the input voice signal. Thus, the configuration of the authentication device 10 can be simplified, and the authentication method can be simplified.
[0044]
In the authentication method and the authentication device 10 according to the above-described embodiment, the setting unit 15 sends the server 32 to the user operating the client machine 31 when it is determined that the input voiceprint does not match the registered voiceprint. It is set to be in the unavailable state, but it is not limited to this. For example, for a command that can be used only by a registered user having administrator authority, if it is determined that the input voiceprint of the command does not match the registered voiceprint, the setting unit 15 immediately uses the server 32. You may make it set to an impossible state. Also, for a command that can be used by a registered user who does not have administrator authority, for example, even if it is determined that the input voiceprint of the command does not match the registered voiceprint, the installation unit 15 sets the server 32 May be maintained without setting the unusable state. This simplifies the process of determining whether the input voiceprint of the command and the registered voiceprint match or not, and allows the server 32 to use the command that can be used only by registered users who have administrator authority. For example, it is possible to at least prevent undesired restart and termination of the OS.
[0045]
In the authentication method and the authentication device 10 of the above-described embodiment, the client machine 31 provided with the authentication device 10 has been described as a personal computer. However, the present invention is not limited to this, and may be a mobile phone device. In this case, the output of the command execution result and the output of the error message by the server 32 may be performed by voice. As a result, the registered user can remotely and easily operate the server 32 at any location within the area where the mobile phone device can be used.
[0046]
In the authentication method and the authentication device 10 according to the above-described embodiment, the authentication device 10 is provided in the client machine 31. However, the present invention is not limited to this. The server 32 may be provided. Further, for example, components other than the voice input unit 11 in the authentication device 10 may be provided separately in one of the client machine 31 and the server 32.
[0047]
FIG. 5 is a diagram schematically illustrating a client machine 31A including a keyboard 52 having a fingerprint reading unit 51. A fingerprint reading unit 51 for reading the fingerprint of the left finger of the user of the client machine 31A is provided at the left end of, for example, the space key 53 of the keyboard 52 as an input device of the client machine 31A. In this case, the user of the client machine 31 </ b> A touches the fingerprint reading unit 51 with the left finger at regular intervals. The fingerprint reading unit 51 may be built in the enter key.
[0048]
The client machine 31A further includes a fingerprint storage unit and a fingerprint determination unit. When reading the fingerprint of the left finger of the user, the fingerprint reading unit 51 provides an input fingerprint, which is image data of the fingerprint, to the fingerprint determination unit. The fingerprint storage unit is realized by a storage device such as an HDD, for example, and stores registered fingerprints, which are image data of fingerprints of registered users who can use the server 32, in a database. The fingerprint determination unit determines whether the input fingerprint matches the registered fingerprint, and provides the determination result to the setting unit 15 of the authentication device 10.
[0049]
When the setting unit 15 of the authentication device 10 determines that the input fingerprint matches the registered fingerprint based on the determination result from the fingerprint determination unit, the setting unit 15 uses the server 32 for the user operating the client machine 31A. The server 32 is set to a possible state, that is, the server 32 is set so that the user logs in to the server 32. When it is determined that the input fingerprint and the registered fingerprint do not match, the setting unit 15 sets the server 32 to an unusable state for the user who operates the client machine 31A, that is, for the user, Server 32 so as not to log in to server 32. By using the voiceprint and the fingerprint as described above, security can be further improved.
[0050]
Further, the client machine 31A incorporates an electrification-coupled device (Charge-Coupled Devices; abbreviated as CCD) to photograph the face and iris of the user operating the client machine 31A, and to obtain image data of the face and iris. A camera that outputs an input image, a registered image that is image data of the face and iris of a registered user who can use the server 32, and an image storage unit in which a registered image is stored in a database. An image determination unit that determines whether or not the image matches the image and provides the determination result to the setting unit 15 of the authentication device 10 may be provided. By using the voiceprint, the fingerprint, the face, and the iris as described above, security can be significantly improved.
[0051]
【The invention's effect】
As described above, according to the first aspect of the present invention, the user simply puts the second terminal device into a usable state or an unusable state by merely uttering a voice representing a command that can be executed by the second terminal device. Can be set. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. By omitting the step of uttering the password, the time required for the user to execute a desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0052]
According to the second aspect of the present invention, after the second terminal device executes the input command, the second terminal device is set to an unusable state, so that the second terminal device is continuously input. It is possible to prevent the command from being executed without going through the determining step and the setting step. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[0053]
According to the invention according to claim 3, the user sets the second terminal device to the usable state or the unusable state only by uttering a voice representing a command executable by the second terminal device. Can be. As a result, not only security can be improved by using the voiceprint, but also, for example, a password used only to make the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, compared to the case where the command is input after the password is determined to be correct, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. The utterance of the password can be omitted, and the time required for the user to execute the desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0054]
According to the fourth aspect of the present invention, after the second terminal device executes the input command, the second terminal device is set to the unusable state, so that the input voiceprint and the registered voiceprint by the determination unit match. The second terminal device executes a command that is subsequently input without determining whether or not to perform the setting and setting the usable state or the unusable state of the second terminal device by the setting unit. Can be prevented. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an authentication device 10 according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing a computer network 30 including an authentication device 10.
FIG. 3 is a flowchart illustrating a procedure of an authentication method according to another embodiment of the present invention.
FIG. 4 is a flowchart showing a procedure of an authentication method according to still another embodiment of the present invention.
5 schematically shows a client machine 31A including a keyboard 52 having a fingerprint reading unit 51. FIG.
FIG. 6 is a diagram schematically showing a protection system 1 using biometrics.
FIG. 7 is a flowchart showing a procedure of a conventional authentication method.
[Explanation of symbols]
10 Authentication device
11 Voice input section
12 Voiceprint generator
13 Voice storage unit
14 Judgment unit
15 Setting section
31 Client machine
32 servers
33 Communication line

Claims (4)

利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方において行われる認証方法であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力工程と、
入力された音声信号に基づいて入力声紋を生成する声紋生成工程と、
声紋生成工程で生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定する判定工程と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定工程とを含むことを特徴とする認証方法。
An authentication method performed in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line,
A voice input step in which a user utters and converts a voice representing a command executable by the second terminal device into a voice signal and inputs the voice signal;
A voiceprint generation step of generating an input voiceprint based on the input voice signal;
A determining step of determining whether or not the input voiceprint generated in the voiceprint generating step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device;
If it is determined that the input voiceprint matches the registered voiceprint, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting step for setting the authentication method.
設定工程で第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了工程をさらに含むことを特徴とする請求項1記載の認証方法。The method further comprises the step of setting the second terminal device to an available state in the setting step, and setting the second terminal device to an unusable state after the second terminal device executes the input command. The authentication method according to claim 1. 利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方に設けられる認証装置であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力手段と、
入力された音声信号に基づいて入力声紋を生成する声紋生成手段と、
第2端末装置を利用可能な登録済利用者の声紋である登録声紋が記憶されている声紋記憶手段と、
声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている登録声紋とが一致するか否かを判定する判定手段と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定手段とを備えることを特徴とする認証装置。
An authentication device provided in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line,
Voice input means for converting a voice representing a command executable by the user into a voice signal and inputting the voice signal,
Voiceprint generating means for generating an input voiceprint based on the input voice signal;
Voiceprint storage means for storing a registered voiceprint which is a voiceprint of a registered user who can use the second terminal device;
Determining means for determining whether the input voiceprint generated by the voiceprint generating means matches the registered voiceprint stored in the voiceprint storing means,
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. An authentication device comprising: a setting unit configured to set the authentication information to a user.
設定手段によって第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了手段をさらに含むことを特徴とする請求項3記載の認証装置。The method further comprises ending means for setting the second terminal device to the usable state by the setting means, and for setting the second terminal device to the unusable state after the second terminal device executes the input command. The authentication device according to claim 3.
JP2002244008A 2002-08-23 2002-08-23 Authentication method and authentication system Pending JP2004086356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002244008A JP2004086356A (en) 2002-08-23 2002-08-23 Authentication method and authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002244008A JP2004086356A (en) 2002-08-23 2002-08-23 Authentication method and authentication system

Publications (1)

Publication Number Publication Date
JP2004086356A true JP2004086356A (en) 2004-03-18

Family

ID=32052624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002244008A Pending JP2004086356A (en) 2002-08-23 2002-08-23 Authentication method and authentication system

Country Status (1)

Country Link
JP (1) JP2004086356A (en)

Cited By (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300958A (en) * 2004-04-13 2005-10-27 Mitsubishi Electric Corp Talker check system
JP2008197995A (en) * 2007-02-14 2008-08-28 Yahoo Japan Corp Electric equipment and control method of electric equipment
JP2014517366A (en) * 2011-03-21 2014-07-17 アップル インコーポレイテッド Device access using voice authentication
JP2015509680A (en) * 2012-02-24 2015-03-30 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for controlling lock / unlock state of terminal through voice recognition
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP2016058816A (en) * 2014-09-08 2016-04-21 シャープ株式会社 Information terminal and information terminal system
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
JP2021193466A (en) * 2014-07-18 2021-12-23 グーグル エルエルシーGoogle LLC Speaker verification using co-location information
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11676608B2 (en) 2021-04-02 2023-06-13 Google Llc Speaker verification using co-location information
US11942095B2 (en) 2014-07-18 2024-03-26 Google Llc Speaker verification using co-location information

Cited By (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
JP2005300958A (en) * 2004-04-13 2005-10-27 Mitsubishi Electric Corp Talker check system
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP2008197995A (en) * 2007-02-14 2008-08-28 Yahoo Japan Corp Electric equipment and control method of electric equipment
JP4644689B2 (en) * 2007-02-14 2011-03-02 ヤフー株式会社 Electric device and method for controlling electric device
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
JP2016129011A (en) * 2011-03-21 2016-07-14 アップル インコーポレイテッド Device access using voice authentication
US10417405B2 (en) 2011-03-21 2019-09-17 Apple Inc. Device access using voice authentication
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP2014517366A (en) * 2011-03-21 2014-07-17 アップル インコーポレイテッド Device access using voice authentication
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
JP2015509680A (en) * 2012-02-24 2015-03-30 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for controlling lock / unlock state of terminal through voice recognition
US10216916B2 (en) 2012-02-24 2019-02-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling lock/unlock state of terminal through voice recognition
US9852278B2 (en) 2012-02-24 2017-12-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling lock/unlock state of terminal through voice recognition
US20170153868A1 (en) 2012-02-24 2017-06-01 Samsung Electronics Co., Ltd. Method and apparatus for controlling lock/unlock state of terminal through voice recognition
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP2021193466A (en) * 2014-07-18 2021-12-23 グーグル エルエルシーGoogle LLC Speaker verification using co-location information
JP7384877B2 (en) 2014-07-18 2023-11-21 グーグル エルエルシー Speaker matching using collocation information
US11942095B2 (en) 2014-07-18 2024-03-26 Google Llc Speaker verification using co-location information
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
JP2016058816A (en) * 2014-09-08 2016-04-21 シャープ株式会社 Information terminal and information terminal system
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11676608B2 (en) 2021-04-02 2023-06-13 Google Llc Speaker verification using co-location information

Similar Documents

Publication Publication Date Title
JP2004086356A (en) Authentication method and authentication system
US9799338B2 (en) Voice print identification portal
US20200295940A1 (en) System and method for device registration and authentication
JP2006505021A (en) Robust multi-factor authentication for secure application environments
US8499166B2 (en) Controlling access to a protected network
US9454656B2 (en) System and method for verifying status of an authentication device through a biometric profile
US8812319B2 (en) Dynamic pass phrase security system (DPSS)
JP4480597B2 (en) Computer security system and method
US8630391B2 (en) Voice authentication system and method using a removable voice ID card
US8082448B2 (en) System and method for user authentication using non-language words
US20020104027A1 (en) N-dimensional biometric security system
US20160292408A1 (en) Continuously authenticating a user of voice recognition services
WO2016015687A1 (en) Voiceprint verification method and device
US20080059805A1 (en) Biometrics authentication apparatus
US20130006626A1 (en) Voice-based telecommunication login
US20210320801A1 (en) Systems and methods for multi-factor verification of users using biometrics and cryptographic sequences
CN105072249A (en) Method and device of preventing mobile device from being stolen, and corresponding mobile device
CN111630510B (en) Echo pattern user authentication
JP2002055956A (en) Device for personal authentication and storage medium
JP2002269047A (en) Sound user authentication system
US20220310100A1 (en) Authentication using a conversational user interface
JP2002288140A (en) System for personal identification
JP2004139221A (en) Authentication system
US20030088794A1 (en) Method and system for rendering secure pin entry
WO2008035412A1 (en) Information processor and starting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414