JP2004086356A - Authentication method and authentication system - Google Patents
Authentication method and authentication system Download PDFInfo
- Publication number
- JP2004086356A JP2004086356A JP2002244008A JP2002244008A JP2004086356A JP 2004086356 A JP2004086356 A JP 2004086356A JP 2002244008 A JP2002244008 A JP 2002244008A JP 2002244008 A JP2002244008 A JP 2002244008A JP 2004086356 A JP2004086356 A JP 2004086356A
- Authority
- JP
- Japan
- Prior art keywords
- voiceprint
- terminal device
- input
- user
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、利用者が第1端末装置を操作して、前記第1端末装置に通信回線を介して接続される第2端末装置を遠隔操作するときに、その利用者が登録済利用者であるか否かを判定する認証方法および認証装置に関する。
【0002】
【従来の技術】
図6は、バイオメトリクスを利用する保護システム1を模式的に示す図である。従来から、利用者が、サーバ2から離れた場所からクライアントマシン3を用いて前記サーバ2を遠隔操作するとき、クライアントマシン3を操作している利用者が、サーバ2の正規の利用者であるか否かを確認するために、予め設定されているパスワードの入力を前記利用者に要求し、そのパスワードが正しい場合には、その利用者にサーバ2の利用を許可するという認証を行って、サーバ2に不法に侵入するハッカーおよびクラッカーからの保護を行っている。近年、バイオメトリクス(Biometrics)と呼ばれる、声紋、虹彩、指紋および顔面などの生体情報を用いる生体認証を利用した保護システム1が市場に出回りつつある。生体情報として、たとえば虹彩、指紋および顔面を用いる生体認証には、虹彩および顔面を撮影するためのカメラ、ならびに指紋を読取るためのスキャナなど専用の周辺機器である生体認証デバイス5が必要であるが、これらの生体認証デバイス5は高価であるので導入コストがかかるために、一般に普及していない。
【0003】
利用者が、サーバ2から離れた場所からクライアントマシン3を操作して、前記サーバ2を遠隔操作する場合、インターネット4を介してクライアントマシン3を遠隔操作したいサーバ2に接続する。インターネット4は多くの人が利用しているので、サーバ2の正規利用者でない人がサーバ2を操作することを防止するために、通常二重および三重のパスワードを設定している。このようなパスワードの入力を、たとえばマイクロホンを介して音声入力して、入力された音声の声紋に基づいて、その利用者がサーバ2の正規利用者であるか否かを判断することができる。このような声紋を用いる認証に必要とされる生体認証デバイス5は、たとえばマイクロホンだけでよく、このようなマイクロホンはクライアントマシン3に搭載されている場合も多いだけでなく、扱いが非常に容易であり、これからの発展が期待できる。
【0004】
図7は、従来の認証方法の手順を示すフローチャートである。ステップu0で手順が開始されて、ステップu1に進む。ステップu1では、クライアントマシン3を操作する利用者は、予め定められるパスワードをマイクロホンに向かって発声し、クライアントマシン3において、その音声が音声信号に変換されて入力され、ステップu2に進む。ステップu2では、クライアントマシン2において、入力された音声信号に基づく声紋を生成して、生成した声紋をサーバ2に与えて、ステップu3に進む。
【0005】
ステップu3では、サーバ2において、サーバ2に記憶される声紋データベースに基づいて、ステップu2で生成された声紋は、声紋データベースに含まれる声紋に一致するか否か、すなわちクライアントマシン2を操作している利用者はサーバ2の正規利用者であるか否かを判断し、正規利用者であると判断するとステップu4に進み、正規利用者でないと判断するとステップu6に進む。
【0006】
ステップu3において、クライアントマシン2を操作している利用者は、サーバ2の正規利用者であると判断されてステップu4に進むと、ステップu4では、クライアントマシン2を操作している利用者は、クライアントマシン3のキーボードを操作して、サーバ2が実行可能なコマンドを入力して、ステップu5に進み、全ての手順を終了する。
【0007】
ステップu3において、クライアントマシン2を操作している利用者は、サーバ2の正規利用者でないと判断されてステップu6に進むと、ステップu6では、サーバ2はクライアントマシン3に、クライアントマシン2を操作している利用者は正規利用者でないことを示すエラーメッセージを与えて、クライアントマシン3のディスプレイにエラーメッセージを表示させて、ステップu1に戻る。
【0008】
【発明が解決しようとする課題】
以上のように、クライアントマシン2を操作している利用者がサーバ2の正規利用者であるか否かを判断するための1つの手段として、生体認証を利用しているだけである。クライアントマシン2を操作している利用者が、サーバ2の正規利用者であると判断されて、前記利用者が、サーバ2の利用を許可するという認証を受けて、前記利用者に対してサーバ2が利用可能状態に設定された後、前記利用者は、キーボードなどの入力装置を入力操作することによって、コマンドの入力を行う。また利用者は、認証を受けた後、自らサーバ2の利用可能状態を解除するログオフ(logoff)を行わない限り、クライアントマシン2を操作している利用者はサーバ2の正規利用者であるか否かの判断を再度行うことはない。
【0009】
しかし実際には認証はクライアントマシン2を操作する利用者に与えられるのではなく、そのクライアントマシン2に与えられる。したがって一旦認証を受けると、クライアントマシン3を操作する人が、正規利用者から正規利用者でない他の利用者に入替わっても、正規利用者でない他の利用者は、サーバ2を遠隔操作することが可能である。たとえば認証を受けた後、正規利用者がログオフせずに、クライアントマシン3から離れたときに、別の人がクライアントマシン3を操作して、サーバ2を遠隔操作してハッキングすることができる。
【0010】
したがって本発明の目的は、第1端末装置を操作する利用者が発声し、第2端末装置が実行可能なコマンドを表す音声の声紋を用いて、入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定して、第2端末装置を利用可能状態または利用不可能状態にすることができるとともに、音声でコマンドを入力することができる認証方法および認証装置を提供することである。
【0011】
【課題を解決するための手段】
請求項1に係る発明は、利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方において行われる認証方法であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力工程と、
入力された音声信号に基づいて入力声紋を生成する声紋生成工程と、
声紋生成工程で生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定する判定工程と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定工程とを含むことを特徴とする認証方法である。
【0012】
請求項1に係る発明に従えば、音声入力工程において、利用者が発声し、第2端末装置が実行可能なコマンドを表す音声が音声信号に変換して入力される。続く声紋生成工程において、入力された音声信号に基づいて入力声紋が生成される。そして判定工程において、声紋生成工程において生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かが判定される。さらに設定工程において、入力声紋と登録声紋とが一致すると判定された場合、第2端末装置が利用可能状態に設定され、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置が利用不可能状態に設定される。
【0013】
このように利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0014】
請求項2に係る発明は、設定工程で第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了工程をさらに含むことを特徴とする。
【0015】
請求項2に係る発明に従えば、さらに終了工程において、設定工程で第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定される。このように第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、第2端末装置が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0016】
請求項3に係る発明は、利用者が操作する第1端末装置、および前記第1端末装置に通信回線を介して接続される第2端末装置の少なくともいずれか一方に設けられる認証装置であって、
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力手段と、
入力された音声信号に基づいて入力声紋を生成する声紋生成手段と、
第2端末装置を利用可能な登録済利用者の声紋である登録声紋が記憶されている声紋記憶手段と、
声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている登録声紋とが一致するか否かを判定する判定手段と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定手段とを備えることを特徴とする認証装置である。
【0017】
請求項3に係る発明に従えば、音声入力手段によって、利用者が発声し、第2端末装置が実行可能なコマンドを表す音声が音声信号に変換されて入力される。声紋生成手段によって、入力された音声信号に基づいて入力声紋が生成される。判定手段によって、声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かが判定される。設定手段によって、入力声紋と登録声紋とが一致すると判定された場合、第2端末装置が利用可能状態に設定され、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置が利用不可能状態に設定される。
【0018】
このように利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声することを省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0019】
請求項4に係る発明は、設定手段によって第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定する終了手段をさらに含むことを特徴とする。
【0020】
請求項4に係る発明に従えば、設定手段によって第2端末装置が利用可能状態に設定され、第2端末装置が入力されたコマンドを実行後、終了手段は、第2端末装置を利用不可能状態に設定する。このように第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、判定手段による入力声紋と登録声紋とが一致するか否かの判定、および設定手段による第2端末装置の利用可能状態または利用不可能状態の設定を行わずに、第2端末装置が、引き続いて入力されるコマンドを実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0021】
【発明の実施の形態】
図1は、本発明の実施の一形態の認証装置10の構成を示すブロック図である。図2は、認証装置10を含むコンピュータネットワーク30を模式的に示す図である。認証装置10は、利用者が操作する第1端末装置であるクライアントマシン31、およびクライアントマシン31に通信回線33を介して接続される第2端末装置であるサーバ32の少なくともいずれか一方に設けられる。本実施の形態において、クライアントマシン31は、通信回線33に接続可能な、たとえばパーソナルコンピュータ、携帯形情報端末装置(Personal Digital
Assistants ;略称:PDA)および携帯電話装置などで実現される。サーバ32は、通信回線に接続可能な、たとえばパーソナルコンピュータおよびワークステーションなどで実現される。通信回線33は、たとえば公衆電話回線およびインターネットで実現される。また本実施の形態において、認証装置10は、クライアントマシン31に設けられる。
【0022】
認証装置10は、音声入力部11、声紋生成部12、声紋記憶部13、判定部14、設定部15、音声解析部16、コマンド記憶部17、コマンド生成部18およびコマンド発行部19を含んで構成される。音声入力手段である音声入力部11は、たとえばマイクロホンで実現され、利用者が発声する音声を、通信回線33を伝送可能な音声信号に変換して入力し、声紋生成部12および音声解析部16に与える。本実施の形態において、音声入力部11は、クライアントマシン31に搭載されるマイクロホンである。声紋生成手段である声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与える。声紋は、サウンドスペクトログラムとも呼ばれ、音声信号に含まれる一定時間毎の周波数成分の強弱が表される。
【0023】
声紋記憶手段である声紋記憶部13は、たとえばハードディスクドライブ(
Hard Disc Drive ;略称:HDD)などの記憶装置で実現され、サーバ32を利用可能な登録済利用者の声紋である登録声紋がデータベース化されて記憶されている。登録声紋は、詳細に述べると、登録済利用者毎に、サーバ32が実行可能なコマンドを表す音声の音声信号に基づいて得られた声紋である。登録声紋に含まれるコマンドは、たとえば管理者権限を有する登録利用者が用いることのできるサーバ32のオペレーティングシステム(Operating System;略称:OS)の再起動を表す「reboot」およびOSの終了を表す「shutdown」、ならびに管理者権限を有さない登録利用者でも用いることができるディレクトリ(directory)内のファイルの一覧の出力を表す「ls」、現在の作業ディレクトリとは異なるディレクトリへの移動を表す「cd」およびパスワードの変更を表す「passwd」などの、比較的頻繁に用いられるコマンドである。
【0024】
判定手段である判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否か、すなわちクライアントマシン31を操作している利用者は登録済利用者であるか否かを判定し、その判定結果を設定部15に与える。判定部14は、詳細に述べると、入力声紋と登録声紋とを比較して、入力声紋と登録声紋との類似度である認証レベルを求め、認証レベルが予め定める閾値以上である場合には、入力声紋と登録声紋とが一致していると判定し、認証レベルが予め定める閾値未満である場合には、入力声紋と登録声紋とが一致していないと判定する。認証レベルの閾値は、たとえばコマンド毎に設定するようにしてもよい。
【0025】
設定部15は、判定部14からの判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログイン(login )させるようにサーバ32を設定する。この場合、たとえば設定部15は、前記利用者のサーバ32にログインするときのユーザアカウントおよびパスワードを、サーバ32に与えることによって、前記利用者に対してサーバ32を利用可能状態に設定する。また設定部15は、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定する。
【0026】
また終了手段でもある設定部17は、サーバ32が利用可能状態に設定されて、サーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定する。また設定部17は、サーバ32がクライアントマシン31を操作する利用者に対して、利用可能状態である場合、すなわち前記利用者がサーバ32にログインしている場合、前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与える。
【0027】
音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出する音声解析処理をおこなって、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド記憶部17は、たとえばHDDなどの記憶装置で実現され、サーバ32が実行可能なコマンドを示す音声信号の時系列波形およびパワースペクトルなどの登録音声解析情報が、コマンド毎にデータベース化されて記憶されている。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成するコマンド生成処理を行って、生成したコマンドをコマンド発行部19に与える。コマンド発行部19は、設定部15からログイン情報が与えられている場合、コマンド生成部19からのコマンドを、サーバ32のOSに与える。
【0028】
前述の声紋生成部12、判定部14、設定部15、音声解析部16、コマンド生成部18およびコマンド発行部19は、たとえばクライアントマシン31の中央演算処理装置(Central Processing Unit ;略称:CPU)が、クライアントマシン31のHDDに記憶されている後述する認証方法を示すプログラムを実行することによって実現される。また声紋記憶部13およびコマンド記憶部17は、たとえばクライアントマシン31のHDDで実現される。
【0029】
図3は、本発明の実施の他の形態の認証方法の手順を示すフローチャートである。ステップa0で、認証方法の手順が開始されて、ステップa1に進む。声紋入力工程であるステップa1では、サーバ32が実行可能なコマンドを表す音声を利用者が発声し、音声入力部11は、その音声を音声信号に変換して入力して、声紋生成部12および音声解析部16に与えて、ステップa2に進む。声紋生成工程であるステップa2では、声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与えて、ステップa3に進む。
【0030】
判定工程および設定工程であるステップa3では、判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否かを判定し、その判定結果を設定部15に与える。設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定するともに前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与えて、ステップa4に進む。また設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定して、ステップa8に進む。
【0031】
入力声紋と登録声紋とが一致すると判定されてステップa4に進むと、ステップa4では、音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出して、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成して、コマンド発行部19に与えて、ステップa5に進む。
【0032】
ステップa5では、コマンド発行部19は、設定部15からログイン情報に基づいて、コマンド生成部19からのコマンドを、サーバ32のOSに与える。サーバ32は、コマンド発行部19からのコマンドを実行してステップa6に進む。ステップa6では、サーバ32は、コマンドの実行結果を出力して、クライアントマシン31に与える。クライアントマシン31は、サーバ32からのコマンドの実行結果を、クライアントマシン31の液晶表示装置などの表示装置に表示させステップa7に進み、全ての手順を終了する。
【0033】
入力声紋と登録声紋とが一致しないと判定されてステップa8に進むと、ステップa8では、判定部14は、入力声紋と登録声紋とが一致しないことを示すエラーメッセージを、クライアントマシン31の表示装置に表示させるとともに、前記利用者に対してサーバ32にログインさせないようにサーバ32を設定してステップa1に戻る。
【0034】
図4は、本発明の実施のさらに他の形態の認証方法の手順を示すフローチャートである。ステップb0で、認証方法の手順が開始されて、ステップb1に進む。声紋入力工程であるステップb1では、サーバ32が実行可能なコマンドを表す音声を利用者が発声し、音声入力部11は、その音声を音声信号に変換して入力して、声紋生成部12および音声解析部16に与えて、ステップb2に進む。声紋生成工程であるステップb2では、声紋生成部12は、入力された音声信号に基づいて入力声紋を生成し、入力声紋を判定部14に与えて、ステップb3に進む。
【0035】
判定工程および設定工程であるステップb3では、判定部14は、声紋生成部12によって生成された入力声紋と、声紋記憶部13に記憶されている登録声紋とが一致するか否かを判定し、その判定結果を設定部15に与える。設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致すると判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定するともに前記利用者がサーバ32にログインしていることを示すログイン情報をコマンド発行部19に与えて、ステップb4に進む。また設定部15は、判定結果に基づいて、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定して、ステップb7に進む。
【0036】
入力声紋と登録声紋とが一致すると判定されてステップb4に進むと、ステップb4では、音声解析部16は、入力された音声信号の時系列波形およびパワースペクトルなどを算出して、その算出結果である入力音声解析情報を、コマンド生成部18に与える。コマンド生成部18は、音声解析部16からの入力音声解析情報と、コマンド記憶部17に記憶される登録音声解析情報とに基づいて、入力された音声信号に含まれるコマンドを生成して、コマンド発行部19に与えて、ステップb5に進む。
【0037】
ステップb5では、コマンド発行部19は、設定部15からログイン情報に基づいて、コマンド生成部19からのコマンドを、サーバ32のOSに与える。サーバ32は、コマンド発行部19からのコマンドを実行してステップb6に進む。ステップb6では、サーバ32は、コマンドの実行結果を出力して、クライアントマシン31に与える。クライアントマシン31は、サーバ32からのコマンドの実行結果を、クライアントマシン31の液晶表示装置などの表示装置に表示させる。このとき設定部15は、サーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定する終了工程、すなわちサーバ32の利用可能状態を解除するログオフ(logoff)を行って、ステップb1に戻る。
【0038】
入力声紋と登録声紋とが一致しないと判定されてステップb7に進むと、ステップb7では、判定部14は、入力声紋と登録声紋とが一致しないことを示すエラーメッセージを、クライアントマシン31の表示装置に表示させるとともに、前記利用者に対してサーバ32にログインさせないようにサーバ32を設定してステップb1に戻る。
【0039】
このように前述の実施の形態の認証方法および認証装置10によれば、利用者が、サーバ32が実行可能なコマンドを表す音声を発声するだけで、サーバ32を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえばサーバ32を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドをサーバ32が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドをサーバ32が実行するまで要する時間を短縮することができる。さらに利用者は、サーバ32が実行可能なコマンドを表す音声を発声するだけで、サーバ32が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0040】
また前述の実施の形態の認証方法および認証装置10によれば、サーバ32が入力されたコマンドを実行後、サーバ32が利用不可能状態に設定されるので、サーバ32が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。サーバ32が入力されたコマンドを実行後、サーバ32が利用可能状態のままにしておく場合、サーバ32が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがってサーバ32が入力されたコマンドを実行後、サーバ32を利用不可能状態に設定することによって、サーバ32が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0041】
前述の実施の形態の認証方法および認証装置10において、判定部14による判定工程に要する時間が長くなる場合には、登録済利用者がサーバ32にログインした後に、管理者権限を有する登録済利用者だけが用いることができるコマンドについてだけ、入力声紋と登録声紋とが一致するか否かを判定するようにしてもよい。この場合、コマンド発行部19は、管理者権限を有さない登録利用者でも用いることができるコマンドに対しては、そのままOSに与えるようにすればよい。これによって登録済利用者がコマンドを発声してから、サーバ32によるコマンドの実行が完了するまでに要する時間を短縮して、登録済利用者が迅速にサーバ32を操作することができるとともに、セキュリティー上重要となる管理者権限が必要となるコマンドに対しては、入力声紋と登録声紋とが一致するか否かを判定して、サーバ32のセキュリティーを維持することができる。
【0042】
また前述の実施の形態の認証方法および認証装置10において、判定部14による判定工程に要する時間が長くなる場合には、登録済利用者がサーバ32にログインした後に、入力声紋と登録声紋とが一致するか否かの判定と、コマンドの生成とを平行して行うようにしてもよい。この場合、たとえば、登録済利用者が、管理者権限を有さない登録利用者でも用いることができるコマンドである「ls」および「cd」ならびに管理者権限を有する登録済利用者だけが用いることができるコマンドである「shutdown」を連続して発声すると、「ls」および「cd」に関しては音声解析処理およびコマンド生成処理が施されて、コマンド発行部19は、これらのコマンドをそのままOSに与える。「shutdown」に関しても音声解析処理およびコマンド生成処理が施されるけれども、コマンド発行部18がこのコマンドは管理者権限を有する利用者だけが用いることができるコマンドであると判断して、音声の入力を一時的に止めるようなメッセージを出力して、判定部14による判定結果、および前記判定結果に基づく設定部15によるサーバ32の設定状態が得られるまで待機する。そしてサーバ32が登録済利用者に対してサーバ32を利用可能状態にして、前記登録済管理者が管理者権限を有する場合には、コマンド発行部19は、コマンドをOSに与えるようにする。
【0043】
また前述の実施の形態の認証方法および認証装置10において、登録済利用者が用いる全てのコマンドの声紋が登録声紋として声紋記憶部に記憶され、判定部14によって入力声紋と登録声紋とが一致するか否かを判定する場合には、音声解析部16による音声解析処理、コマンド生成部18によるコマンド生成処理、およびコマンド記憶部17を省略してもよい。この場合、判定部14によって、入力声紋と登録声紋とが一致するか否かを判定することによって、入力された音声信号に含まれるコマンドが生成される。これによって認証装置10の構成を単純にすることができるとともに、認証方法を簡略化することができる。
【0044】
また前述の実施の形態の認証方法および認証装置10において、設定部15は、入力声紋と登録声紋とが一致しないと判定された場合、クライアントマシン31を操作する利用者に対して、サーバ32を利用不可能状態に設定するとしたが、これに限ることはない。たとえば管理者権限を有する登録利用者だけが用いることのできるコマンドに対しては、そのコマンドの入力声紋と登録声紋とが一致しないと判定された場合、設定部15は、即座にサーバ32を利用不可能状態に設定するようにしてもよい。また、たとえば管理者権限を有さない登録利用者でも用いることのできるコマンドに対しては、そのコマンドの入力声紋と登録声紋とが一致しないと判定された場合でも、設置部15は、サーバ32を利用不可能状態に設定しないで、利用可能状態を維持するようにしてもよい。これによって、コマンドの入力声紋と登録声紋とが一致するか否かの判定を簡素化して処理を迅速に行うとともに、サーバ32が管理者権限を有する登録利用者だけが用いることのできるコマンドによって、たとえば不所望にOSの再起動および終了が行われることを少なくとも防止することができる。
【0045】
また前述の実施の形態の認証方法および認証装置10において、認証装置10が設けられるクライアントマシン31をパーソナルコンピュータとして説明したけれども、これに限らず、携帯電話装置であってもよい。この場合、サーバ32によるコマンドの実行結果の出力およびエラーメッセージの出力を、音声によって行うようにしてもよい。これによって登録済利用者は、携帯電話装置を利用可能なエリア内であれば、どのような場所でもサーバ32を容易かつ確実に遠隔操作することができる。
【0046】
また前述の実施の形態の認証方法および認証装置10において、認証装置10は、クライアントマシン31に設けられるとしたけれども、これに限らず、たとえば認証装置10における音声入力部11を除く構成部を、サーバ32に設けるようにしてもよい。さらに、たとえば認証装置10における音声入力部11を除く構成部を、クライアントマシン31およびサーバ32のいずれか一方に、分散させて設けるようにしてもよい。
【0047】
図5は、指紋読取部51を有するキーボード52を備えるクライアントマシン31Aを模式的に示す図である。クライアントマシン31Aの入力装置であるキーボード52の、たとえばスペースキー53の左端部に、クライアントマシン31Aの利用者の左指の指紋を読取る指紋読取部51が設けられる。この場合、クライアントマシン31Aの利用者は、一定時間毎に、左指を指紋読取部51に触るようにする。指紋読取部51は、エンターキーに内蔵するようにしてもよい。
【0048】
クライアントマシン31Aには、さらに指紋記憶部および指紋判定部が備えられる。指紋読取部51は、利用者の左指の指紋を読取ると、その指紋の画像データである入力指紋を指紋判定部に与える。指紋記憶部は、たとえばHDDなどの記憶装置で実現され、サーバ32を利用可能な登録済利用者の指紋の画像データである登録指紋がデータベース化されて記憶されている。指紋判定部は、入力指紋と登録指紋とが一致するか否かを判定し、その判定結果を認証装置10の設定部15に与える。
【0049】
認証装置10の設定部15は、指紋判定部からの判定結果に基づいて、入力指紋と登録指紋とが一致すると判定された場合、クライアントマシン31Aを操作する利用者に対して、サーバ32を利用可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせるようにサーバ32を設定する。また設定部15は、入力指紋と登録指紋とが一致しないと判定された場合、クライアントマシン31Aを操作する利用者に対して、サーバ32を利用不可能状態に設定する、すなわち前記利用者に対してサーバ32にログインさせないようにサーバ32を設定する。このように声紋と指紋とを用いることによって、セキュリティーをさらに向上することができる。
【0050】
さらにクライアントマシン31Aに、電化結合素子(Charge−Coupled Devices;略称:CCD)を内蔵して、クライアントマシン31Aを操作している利用者の顔面および虹彩を撮影して、その顔面および虹彩の画像データである入力画像を出力するカメラと、サーバ32を利用可能な登録済利用者の顔面および虹彩の画像データである登録画像がデータベース化されて記憶されている画像記憶部と、および入力画像と登録画像とが一致するか否かを判定し、その判定結果を認証装置10の設定部15に与える画像判定部とを備えるようにしてもよい。このように声紋、指紋、顔面および虹彩を用いることによって、セキュリティーを極めて向上することができる。
【0051】
【発明の効果】
以上のように請求項1に係る発明によれば、利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声する工程を省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0052】
また請求項2に係る発明によれば、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、第2端末装置が、引き続いて入力されるコマンドを、判定工程および設定工程を経ずに実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【0053】
また請求項3に係る発明によれば、利用者が、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置を利用可能状態または利用不可能状態に設定することができる。これによって、声紋を用いることによるセキュリティーの向上を実現できるだけでなく、たとえば第2端末装置を利用可能状態にするためにだけに用いるパスワードを予め決めておいて、利用者がパスワードを表す音声を発声して、そのパスワードが正しいと判断されてから、コマンドを入力するような場合に比べて、利用者が音声を発声してから、利用者が所望のコマンドを第2端末装置が実行するまでにおけるパスワードを発声することを省略して、利用者が所望のコマンドを第2端末装置が実行するまで要する時間を短縮することができる。さらに利用者は、第2端末装置が実行可能なコマンドを表す音声を発声するだけで、第2端末装置が当該コマンドを実行するので、たとえば利用者がキーボードなどの入力装置を入力操作することによってコマンドを入力する場合に比べて、コマンドの入力極めて容易に行うことができる。
【0054】
また請求項4に係る発明によれば、第2端末装置が入力されたコマンドを実行後、第2端末装置が利用不可能状態に設定されるので、判定手段による入力声紋と登録声紋とが一致するか否かの判定、および設定手段による第2端末装置の利用可能状態または利用不可能状態の設定を行わずに、第2端末装置が、引き続いて入力されるコマンドを実行してしまうことを防止することができる。第2端末装置が入力されたコマンドを実行後、第2端末装置が利用可能状態のままにしておく場合、第2端末装置が、引き続いて入力されるコマンド、そのコマンドが登録済利用者以外の利用者が発声したものであっても、実行してしまう恐れがある。したがって第2端末装置が入力されたコマンドを実行後、第2端末装置を利用不可能状態に設定することによって、第2端末装置が登録済利用者以外の利用者が発声したコマンドを実行してしまうことを確実に防止することができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態の認証装置10の構成を示すブロック図である。
【図2】認証装置10を含むコンピュータネットワーク30を模式的に示す図である。
【図3】本発明の実施の他の形態の認証方法の手順を示すフローチャートである。
【図4】本発明の実施のさらに他の形態の認証方法の手順を示すフローチャートである。
【図5】指紋読取部51を有するキーボード52を備えるクライアントマシン31Aを模式的に示す図である。
【図6】バイオメトリクスを利用する保護システム1を模式的に示す図である。
【図7】従来の認証方法の手順を示すフローチャートである。
【符号の説明】
10 認証装置
11 音声入力部
12 声紋生成部
13 音声記憶部
14 判定部
15 設定部
31 クライアントマシン
32 サーバ
33 通信回線[0001]
TECHNICAL FIELD OF THE INVENTION
According to the present invention, when a user operates a first terminal device and remotely operates a second terminal device connected to the first terminal device via a communication line, the user is a registered user. The present invention relates to an authentication method and an authentication device for determining whether or not there is a device.
[0002]
[Prior art]
FIG. 6 is a diagram schematically showing the
[0003]
When the user operates the
[0004]
FIG. 7 is a flowchart showing a procedure of a conventional authentication method. The procedure starts at step u0, and proceeds to step u1. In step u1, the user operating the
[0005]
In step u3, the
[0006]
In step u3, the user operating the
[0007]
In step u3, it is determined that the user operating the
[0008]
[Problems to be solved by the invention]
As described above, as one means for determining whether the user operating the
[0009]
However, in practice, the authentication is not given to the user operating the
[0010]
Therefore, an object of the present invention is to provide an input voiceprint and a second terminal device using a voiceprint of a voice uttered by a user operating the first terminal device and representing a command executable by the second terminal device. It is possible to determine whether or not a registered voiceprint that is a registered user's voiceprint matches, to set the second terminal device in an available state or an unusable state, and to input a command by voice. It is an object of the present invention to provide an authentication method and an authentication device which can perform the authentication.
[0011]
[Means for Solving the Problems]
The invention according to
A voice input step in which a user utters and converts a voice representing a command executable by the second terminal device into a voice signal and inputs the voice signal;
A voiceprint generation step of generating an input voiceprint based on the input voice signal;
A determining step of determining whether or not the input voiceprint generated in the voiceprint generating step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device;
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting step of setting the authentication method.
[0012]
According to the first aspect of the present invention, in the voice input step, a voice uttered by the user and representing a command executable by the second terminal device is converted into a voice signal and input. In a subsequent voiceprint generation step, an input voiceprint is generated based on the input voice signal. Then, in the determination step, it is determined whether or not the input voiceprint generated in the voiceprint generation step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device. Further, in the setting step, when it is determined that the input voiceprint matches the registered voiceprint, the second terminal device is set to the usable state, and when it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is determined. Is set to the unavailable state.
[0013]
In this manner, the user can set the second terminal device to the usable state or the unusable state only by uttering a voice representing a command executable by the second terminal device. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. By omitting the step of uttering the password, the time required for the user to execute a desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0014]
The invention according to
[0015]
According to the invention according to
[0016]
The invention according to
Voice input means for converting a voice representing a command executable by the user into a voice signal and inputting the voice signal,
Voiceprint generating means for generating an input voiceprint based on the input voice signal;
Voiceprint storage means for storing a registered voiceprint which is a voiceprint of a registered user who can use the second terminal device;
Determining means for determining whether the input voiceprint generated by the voiceprint generating means matches the registered voiceprint stored in the voiceprint storing means,
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting unit for setting the authentication device.
[0017]
According to the third aspect of the present invention, the voice input means converts the voice uttered by the user and represents a command executable by the second terminal device into a voice signal and input. An input voiceprint is generated by the voiceprint generation means based on the input voice signal. The determination unit determines whether the input voiceprint generated by the voiceprint generation unit matches a registered voiceprint stored in the voiceprint storage unit, which is a voiceprint of a registered user who can use the second terminal device. Is done. If it is determined by the setting unit that the input voiceprint matches the registered voiceprint, the second terminal device is set to a usable state, and if it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device Set to unavailable state.
[0018]
In this manner, the user can set the second terminal device to the usable state or the unusable state only by uttering a voice representing a command executable by the second terminal device. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. The utterance of the password can be omitted, and the time required for the user to execute the desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0019]
The invention according to
[0020]
According to the invention according to
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of an
Assistants (abbreviation: PDA) and a mobile phone device. The server 32 is realized by, for example, a personal computer and a work station which can be connected to a communication line. Communication line 33 is implemented, for example, by a public telephone line and the Internet. In the present embodiment, the
[0022]
The
[0023]
The
A registered voiceprint which is realized by a storage device such as a Hard Disc Drive (abbreviation: HDD) or the like and is a voiceprint of a registered user who can use the server 32 is stored in a database. More specifically, the registered voiceprint is a voiceprint obtained based on a voice signal of a voice representing a command executable by the server 32 for each registered user. The commands included in the registered voiceprint include, for example, "reboot" indicating restart of an operating system (OS) of the server 32 which can be used by a registered user having administrator authority, and "reboot" indicating termination of the OS. "shutdown", "ls" indicating the output of a list of files in a directory (directory) that can be used even by a registered user without administrator authority, and "shifting to a directory different from the current working directory". This is a relatively frequently used command such as "cd" and "passwd" indicating a password change.
[0024]
The
[0025]
When it is determined based on the determination result from the
[0026]
The setting
[0027]
The
[0028]
The above-described
[0029]
FIG. 3 is a flowchart showing a procedure of an authentication method according to another embodiment of the present invention. In step a0, the procedure of the authentication method is started, and the process proceeds to step a1. In step a1, which is a voiceprint input step, the user utters a voice representing a command that can be executed by the server 32, and the voice input unit 11 converts the voice into a voice signal and inputs the voice signal. This is provided to the
[0030]
In step a3, which is a determination step and a setting step, the
[0031]
When it is determined that the input voiceprint matches the registered voiceprint and the process proceeds to step a4, in step a4, the
[0032]
In step a5, the
[0033]
When it is determined that the input voiceprint does not match the registered voiceprint and the process proceeds to step a8, in step a8, the
[0034]
FIG. 4 is a flowchart showing a procedure of an authentication method according to still another embodiment of the present invention. In step b0, the procedure of the authentication method is started, and the process proceeds to step b1. In step b1, which is a voiceprint input process, the user utters a voice representing a command executable by the server 32, and the voice input unit 11 converts the voice into a voice signal and inputs the voice signal. This is provided to the
[0035]
In step b3, which is a determination step and a setting step, the
[0036]
When it is determined that the input voiceprint matches the registered voiceprint and the process proceeds to step b4, in step b4, the
[0037]
In step b5, the
[0038]
When it is determined that the input voiceprint does not match the registered voiceprint and the process proceeds to step b7, in step b7, the
[0039]
As described above, according to the authentication method and the
[0040]
Further, according to the authentication method and the
[0041]
In the authentication method and the
[0042]
In the authentication method and the
[0043]
In the authentication method and the
[0044]
In the authentication method and the
[0045]
In the authentication method and the
[0046]
In the authentication method and the
[0047]
FIG. 5 is a diagram schematically illustrating a
[0048]
The
[0049]
When the
[0050]
Further, the
[0051]
【The invention's effect】
As described above, according to the first aspect of the present invention, the user simply puts the second terminal device into a usable state or an unusable state by merely uttering a voice representing a command that can be executed by the second terminal device. Can be set. As a result, not only security can be improved by using a voiceprint, but also a password used only for making the second terminal device usable can be determined in advance, and the user can utter a voice representing the password. Then, as compared with the case where the password is determined to be correct and the case where a command is input, the time between when the user utters the voice and when the user executes the desired command by the second terminal device is compared. By omitting the step of uttering the password, the time required for the user to execute a desired command by the second terminal device can be reduced. Further, the user merely utters a voice representing a command that can be executed by the second terminal device, and the second terminal device executes the command. For example, when the user performs an input operation on an input device such as a keyboard, Command input can be performed extremely easily as compared with the case where a command is input.
[0052]
According to the second aspect of the present invention, after the second terminal device executes the input command, the second terminal device is set to an unusable state, so that the second terminal device is continuously input. It is possible to prevent the command from being executed without going through the determining step and the setting step. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[0053]
According to the invention according to
[0054]
According to the fourth aspect of the present invention, after the second terminal device executes the input command, the second terminal device is set to the unusable state, so that the input voiceprint and the registered voiceprint by the determination unit match. The second terminal device executes a command that is subsequently input without determining whether or not to perform the setting and setting the usable state or the unusable state of the second terminal device by the setting unit. Can be prevented. If the second terminal device leaves the second terminal device available after executing the command entered by the second terminal device, the second terminal device may execute a command that is subsequently input, and the command is executed by a user other than the registered user. Even if the user utters the message, there is a risk of execution. Therefore, after the second terminal device executes the input command, by setting the second terminal device to the unusable state, the second terminal device executes the command uttered by a user other than the registered user. Can be reliably prevented.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an
FIG. 2 is a diagram schematically showing a
FIG. 3 is a flowchart illustrating a procedure of an authentication method according to another embodiment of the present invention.
FIG. 4 is a flowchart showing a procedure of an authentication method according to still another embodiment of the present invention.
5 schematically shows a
FIG. 6 is a diagram schematically showing a
FIG. 7 is a flowchart showing a procedure of a conventional authentication method.
[Explanation of symbols]
10 Authentication device
11 Voice input section
12 Voiceprint generator
13 Voice storage unit
14 Judgment unit
15 Setting section
31 Client machine
32 servers
33 Communication line
Claims (4)
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力工程と、
入力された音声信号に基づいて入力声紋を生成する声紋生成工程と、
声紋生成工程で生成された入力声紋と、第2端末装置を利用可能な登録済利用者の声紋である登録声紋とが一致するか否かを判定する判定工程と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定工程とを含むことを特徴とする認証方法。An authentication method performed in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line,
A voice input step in which a user utters and converts a voice representing a command executable by the second terminal device into a voice signal and inputs the voice signal;
A voiceprint generation step of generating an input voiceprint based on the input voice signal;
A determining step of determining whether or not the input voiceprint generated in the voiceprint generating step matches a registered voiceprint that is a voiceprint of a registered user who can use the second terminal device;
If it is determined that the input voiceprint matches the registered voiceprint, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. And a setting step for setting the authentication method.
利用者が発声し、第2端末装置が実行可能なコマンドを表す音声を音声信号に変換して入力する音声入力手段と、
入力された音声信号に基づいて入力声紋を生成する声紋生成手段と、
第2端末装置を利用可能な登録済利用者の声紋である登録声紋が記憶されている声紋記憶手段と、
声紋生成手段によって生成された入力声紋と、声紋記憶手段に記憶されている登録声紋とが一致するか否かを判定する判定手段と、
入力声紋と登録声紋とが一致すると判定された場合、第2端末装置を利用可能状態に設定し、入力声紋と登録声紋とが一致しないと判定された場合、第2端末装置を利用不可能状態に設定する設定手段とを備えることを特徴とする認証装置。An authentication device provided in at least one of a first terminal device operated by a user and a second terminal device connected to the first terminal device via a communication line,
Voice input means for converting a voice representing a command executable by the user into a voice signal and inputting the voice signal,
Voiceprint generating means for generating an input voiceprint based on the input voice signal;
Voiceprint storage means for storing a registered voiceprint which is a voiceprint of a registered user who can use the second terminal device;
Determining means for determining whether the input voiceprint generated by the voiceprint generating means matches the registered voiceprint stored in the voiceprint storing means,
If it is determined that the input voiceprint and the registered voiceprint match, the second terminal device is set to a usable state. If it is determined that the input voiceprint does not match the registered voiceprint, the second terminal device is disabled. An authentication device comprising: a setting unit configured to set the authentication information to a user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002244008A JP2004086356A (en) | 2002-08-23 | 2002-08-23 | Authentication method and authentication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002244008A JP2004086356A (en) | 2002-08-23 | 2002-08-23 | Authentication method and authentication system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004086356A true JP2004086356A (en) | 2004-03-18 |
Family
ID=32052624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002244008A Pending JP2004086356A (en) | 2002-08-23 | 2002-08-23 | Authentication method and authentication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004086356A (en) |
Cited By (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005300958A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Talker check system |
JP2008197995A (en) * | 2007-02-14 | 2008-08-28 | Yahoo Japan Corp | Electric equipment and control method of electric equipment |
JP2014517366A (en) * | 2011-03-21 | 2014-07-17 | アップル インコーポレイテッド | Device access using voice authentication |
JP2015509680A (en) * | 2012-02-24 | 2015-03-30 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for controlling lock / unlock state of terminal through voice recognition |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP2016058816A (en) * | 2014-09-08 | 2016-04-21 | シャープ株式会社 | Information terminal and information terminal system |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
JP2021193466A (en) * | 2014-07-18 | 2021-12-23 | グーグル エルエルシーGoogle LLC | Speaker verification using co-location information |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US11676608B2 (en) | 2021-04-02 | 2023-06-13 | Google Llc | Speaker verification using co-location information |
US11942095B2 (en) | 2014-07-18 | 2024-03-26 | Google Llc | Speaker verification using co-location information |
-
2002
- 2002-08-23 JP JP2002244008A patent/JP2004086356A/en active Pending
Cited By (145)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP2005300958A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Talker check system |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP2008197995A (en) * | 2007-02-14 | 2008-08-28 | Yahoo Japan Corp | Electric equipment and control method of electric equipment |
JP4644689B2 (en) * | 2007-02-14 | 2011-03-02 | ヤフー株式会社 | Electric device and method for controlling electric device |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10475446B2 (en) | 2009-06-05 | 2019-11-12 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984326B2 (en) | 2010-01-25 | 2021-04-20 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984327B2 (en) | 2010-01-25 | 2021-04-20 | New Valuexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US11410053B2 (en) | 2010-01-25 | 2022-08-09 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
JP2016129011A (en) * | 2011-03-21 | 2016-07-14 | アップル インコーポレイテッド | Device access using voice authentication |
US10417405B2 (en) | 2011-03-21 | 2019-09-17 | Apple Inc. | Device access using voice authentication |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
JP2014517366A (en) * | 2011-03-21 | 2014-07-17 | アップル インコーポレイテッド | Device access using voice authentication |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
JP2015509680A (en) * | 2012-02-24 | 2015-03-30 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for controlling lock / unlock state of terminal through voice recognition |
US10216916B2 (en) | 2012-02-24 | 2019-02-26 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling lock/unlock state of terminal through voice recognition |
US9852278B2 (en) | 2012-02-24 | 2017-12-26 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling lock/unlock state of terminal through voice recognition |
US20170153868A1 (en) | 2012-02-24 | 2017-06-01 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling lock/unlock state of terminal through voice recognition |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2021193466A (en) * | 2014-07-18 | 2021-12-23 | グーグル エルエルシーGoogle LLC | Speaker verification using co-location information |
JP7384877B2 (en) | 2014-07-18 | 2023-11-21 | グーグル エルエルシー | Speaker matching using collocation information |
US11942095B2 (en) | 2014-07-18 | 2024-03-26 | Google Llc | Speaker verification using co-location information |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
JP2016058816A (en) * | 2014-09-08 | 2016-04-21 | シャープ株式会社 | Information terminal and information terminal system |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US11556230B2 (en) | 2014-12-02 | 2023-01-17 | Apple Inc. | Data detection |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11676608B2 (en) | 2021-04-02 | 2023-06-13 | Google Llc | Speaker verification using co-location information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004086356A (en) | Authentication method and authentication system | |
US9799338B2 (en) | Voice print identification portal | |
US20200295940A1 (en) | System and method for device registration and authentication | |
JP2006505021A (en) | Robust multi-factor authentication for secure application environments | |
US8499166B2 (en) | Controlling access to a protected network | |
US9454656B2 (en) | System and method for verifying status of an authentication device through a biometric profile | |
US8812319B2 (en) | Dynamic pass phrase security system (DPSS) | |
JP4480597B2 (en) | Computer security system and method | |
US8630391B2 (en) | Voice authentication system and method using a removable voice ID card | |
US8082448B2 (en) | System and method for user authentication using non-language words | |
US20020104027A1 (en) | N-dimensional biometric security system | |
US20160292408A1 (en) | Continuously authenticating a user of voice recognition services | |
WO2016015687A1 (en) | Voiceprint verification method and device | |
US20080059805A1 (en) | Biometrics authentication apparatus | |
US20130006626A1 (en) | Voice-based telecommunication login | |
US20210320801A1 (en) | Systems and methods for multi-factor verification of users using biometrics and cryptographic sequences | |
CN105072249A (en) | Method and device of preventing mobile device from being stolen, and corresponding mobile device | |
CN111630510B (en) | Echo pattern user authentication | |
JP2002055956A (en) | Device for personal authentication and storage medium | |
JP2002269047A (en) | Sound user authentication system | |
US20220310100A1 (en) | Authentication using a conversational user interface | |
JP2002288140A (en) | System for personal identification | |
JP2004139221A (en) | Authentication system | |
US20030088794A1 (en) | Method and system for rendering secure pin entry | |
WO2008035412A1 (en) | Information processor and starting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090414 |