JP2011150237A - 認証装置、認証方法及びプログラム - Google Patents
認証装置、認証方法及びプログラム Download PDFInfo
- Publication number
- JP2011150237A JP2011150237A JP2010013044A JP2010013044A JP2011150237A JP 2011150237 A JP2011150237 A JP 2011150237A JP 2010013044 A JP2010013044 A JP 2010013044A JP 2010013044 A JP2010013044 A JP 2010013044A JP 2011150237 A JP2011150237 A JP 2011150237A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- received
- authentication
- user
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】サービスやシステムが第三者に不正に利用されてしまうことを防止する。
【解決手段】入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することで、ユーザ認証を行う認証装置であって、ユーザを一意に識別するIDと、当該ユーザが発声した複数の言葉毎に生成された複数の音声データとを対応付けて記憶し、さらに、複数の音声データのそれぞれと、ID毎に固有の情報である複数の固有情報とを対応付けて記憶し、端末からIDを受信すると、受信したIDの複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信すると、特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
【選択図】図1
【解決手段】入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することで、ユーザ認証を行う認証装置であって、ユーザを一意に識別するIDと、当該ユーザが発声した複数の言葉毎に生成された複数の音声データとを対応付けて記憶し、さらに、複数の音声データのそれぞれと、ID毎に固有の情報である複数の固有情報とを対応付けて記憶し、端末からIDを受信すると、受信したIDの複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信すると、特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
【選択図】図1
Description
本発明は、人が発声した音声によって認証を行う認証装置、認証方法及びプログラムに関する。
近年、通信回線を介してサービスやシステムを利用する際、そのサービスやシステムを利用する権限を持つユーザであるかどうかを判定するために、声紋によるユーザ認証が用いられるようになってきている。
声紋によるユーザ認証では、まず、ユーザが発声した認証用の言葉を認証装置等に音声データまたは声紋データとして予め記憶させておく。そして、サービスやシステムを利用しようとする被認証者に認証用の言葉を発声させる。そして、被認証者が発声した認証用の言葉の音声と、予め記憶させておいた音声データまたは声紋データに基づく音声とを認証装置で分析する。そして、それらの音声が、同一人物によって発声された音声であるかどうかを判定する。
しかし、サービスやシステムを利用する権限を持つユーザが発声した認証用の言葉を第三者に録音され、その第三者がユーザ認証の際に、録音された認証用の言葉を再生した場合、その第三者は、ユーザになりすますことが可能となる。この場合、サービスやシステムが第三者に不正に利用されてしまうという問題点がある。
そこで、声紋によるユーザ認証の安全性を高めることが求められ、それを可能にする技術が例えば、特許文献1に開示されている。
特許文献1に開示されている技術では、予め登録しておいた複数の言葉を被認証者に発声させる際、認証者側に予め登録された複数の言葉の中から、認証者側が任意の1つの言葉を選択する。そして、選択された言葉を認証者側に提示し、被認証者が発声した言葉の声紋と、選択された言葉の声紋とを照合することにより、個人認証(ユーザ認証)を行なうというものである。
上述した特許文献1に開示されている技術を利用すれば、第三者によるサービスやシステムの不正な利用を防止できるようにも思える。
特許文献1に開示されている技術では、ユーザ認証の際に被認証者に発声させる認証用の言葉そのものを、その被認証者に提示する。そのため、ユーザが発声した複数の認証用の言葉の全てを第三者に録音されてしまった場合、その第三者は、録音した言葉の中から、認証者側が提示した言葉を選択して再生すればユーザ認証に成功する。
従って、特許文献1に開示されている技術は、サービスやシステムが第三者に不正に利用されてしまうという問題点を解決するためには十分なものではない。
本発明は、サービスやシステムが第三者に不正に利用されてしまうことを防止できる認証装置、認証方法及びプログラムを提供することを目的とする。
上記目的を達成するために本発明の認証装置は、入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置であって、
ユーザを一意に識別するIDと、当該ユーザが発声した複数の言葉毎に生成された複数の音声データとを対応付けて記憶し、さらに、前記複数の音声データのそれぞれと、前記ID毎に固有の情報である複数の固有情報とを対応付けて記憶し、端末から前記IDを受信すると、該受信した前記IDの前記複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
ユーザを一意に識別するIDと、当該ユーザが発声した複数の言葉毎に生成された複数の音声データとを対応付けて記憶し、さらに、前記複数の音声データのそれぞれと、前記ID毎に固有の情報である複数の固有情報とを対応付けて記憶し、端末から前記IDを受信すると、該受信した前記IDの前記複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
また、上記目的を達成するために本発明の認証方法は、入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置における認証方法であって、
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知処理と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証処理と、を有する。
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知処理と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証処理と、を有する。
また、上記目的を達成するために本発明のプログラムは、入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置に、
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知機能と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証機能と、を実現させる。
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知機能と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証機能と、を実現させる。
本発明の認証装置は、ユーザを一意に識別するIDを端末から受信すると、受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する。そして、本発明の認証装置は、当該端末から送信された音声信号を受信すると、特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
これにより、ユーザ認証の際に被認証者に発声させる認証用の言葉が、ユーザ認証の度にランダムに変化することになる。さらに、ユーザ認証の際に被認証者に発声させる認証用の言葉そのものが被認証者に提示されることがない。
そのため、ユーザ認証の際にユーザに発声させる複数の認証用の言葉の全てを第三者に録音されたとしても、その第三者は、どの言葉を用いればユーザ認証に成功するのかがわからない。
従って、サービスやシステムが第三者に不正に利用されてしまうことを防止できる。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の認証装置を適用した声紋認証システムの実施の一形態の構成を示すブロック図である。
本実施形態の声紋認証システムは図1に示すように、認証装置10と、オペレータ用装置20と、ユーザ端末30−1〜30−nを備えている。なお、認証装置10とユーザ端末30−1〜30−nとは、通信網100を介して接続されている。
オペレータ用装置20は、サービスやシステムを提供するサービス提供事業者が、そのサービス提供事業者のユーザに対してサービスやシステムを提供する際の仲介人となるオペレータが操作する端末である。
ユーザ端末30−1〜30−nは、サービス提供事業者の複数のユーザのそれぞれが、通信網100を介してサービス提供事業者にアクセスする際に使用する端末である。具体的には、ユーザは、ユーザ端末30−1〜30−nが備える電話機能部(不図示)を操作して認証装置10へ電話をかける。これにより、ユーザ端末30−1〜30−nは、認証装置10との間で音声接続を確立する。また、ユーザ端末30−1〜30−nは、ユーザ端末30−1〜30−nが備える情報受付部(不図示)をユーザが操作することによって入力した情報を受け付け、受け付けた情報を認証装置10へ送信する。また、ユーザ端末30−1〜30−nは、ユーザ端末30−1〜30−nが備える音声受付部(不図示)により、ユーザが発声した言葉の音声を受け付け、受け付けた音声を音声信号として認証装置10へ送信する。
認証装置10は、制御部11と、記憶部であるユーザ情報記憶部12と、変換部である音声データ変換部13と、声紋分析部14と、声紋データ比較部15と、音声信号変換部16とを備えている。
ユーザ情報記憶部12は、サービス提供事業者の複数のユーザのそれぞれに関する情報であるユーザ情報を記憶する。
図2は、図1に示したユーザ情報記憶部12に記憶されたユーザ情報の構成の一例を示す図である。
図2に示すように、ユーザ情報では、複数のユーザのそれぞれを識別するユーザIDと、そのユーザの氏名、住所、複数の固有情報からなる数列である電話番号、及び、10個の音声データ(0)〜(9)とが対応付けられている。
ここで、10個の音声データ(0)〜(9)は、ユーザが作成するパスワード記入用紙に記入された内容に基づいて設定される。
図3は、パスワード記入用紙の一例を示す図である。
パスワード記入用紙は、ユーザ情報のうち音声データ(0)〜(9)以外の情報がユーザ情報記憶部12に既に記憶されたユーザへサービス事業提供者から送付される。
サービス提供事業者から送付されたパスワード記入用紙は、「言葉」の行が空白となっている。
パスワード記入用紙を受領したユーザは、パスワード記入用紙の「言葉」の行に言葉を記入する。この言葉の1つ1つがその上に記載された相互に異なる1桁の番号と対応付けられる。また、パスワード記入用紙の番号の行の「0」に対応する言葉を発声した音声の音声データは、音声データ(0)となる。音声データ(1)〜(9)についても同様である。従って、図3に示したパスワード記入用紙に当てはめると例えば、音声データ(2)は、「は」を発声したときの音声の音声データとなる。
なお、図3においては、各番号に対応付けられた言葉は1文字となっているが、各番号に対応付けられる言葉は1文字に限定されるものではない。
再度、図1を参照すると、制御部11は、音声データをユーザ情報記憶部12に記憶させる音声データ記憶段階と、ユーザ認証を行う認証段階とにおいて、ユーザ端末30−1〜30−nと認証装置10の各部との間を仲介する。具体的には、音声データ記憶段階においては、制御部11は、ユーザ端末30−1〜30−nとの間の音声接続が確立されると、ユーザIDの入力を促す音声ガイダンスを出力する。次に、制御部11は、ユーザ端末30−1〜30−nから送信されたユーザIDを受信し、パスワード記入用紙に記入した言葉を順番に発声することを促す音声ガイダンスを出力する。ここで、「順番に発声する」とは例えば、図3に示したパスワード記入用紙の「言葉」の行に記載された1つ1つの言葉を図3の図中左から順番に発声するということである。そして、その後、ユーザ端末30−1〜30−nから送信された音声信号である記憶用音声信号を受信すると、受信したユーザIDと記憶用音声信号とを音声信号変換部16へ出力する。
認証段階においては、制御部11は、ユーザ端末30−1〜30−nとの間の音声接続が確立されると、ユーザIDの入力を促す音声ガイダンスを出力する。次に、制御部11は、ユーザ端末30−1〜30−nから送信されたユーザIDを受信し、受信したユーザIDに対応するユーザ情報をユーザ情報記憶部12から抽出する。次に、制御部11は、抽出したユーザ情報の電話番号のいずれかの桁を選択し、選択した桁の数字に対応する言葉を発声することを促す音声ガイダンスを出力する。つまり、複数の固有情報からなる電話番号の数字のいずれかを特定するための特定情報である桁を被認証者へ通知することとなる。具体的には例えば、電話番号が「017892345」で、選択した桁が4桁目である場合、選択した桁の数字は「8」となる。この場合、被認証者は、パスワード記入用紙の番号の行の「8」に対応する言葉を発声すれば、ユーザ認証に成功することとなる。この言葉は、図3に示したパスワード記入用紙の場合には「り」となる。それとともに、制御部11は、抽出したユーザ情報の音声データ(0)〜(9)のうち、選択した桁の数字に対応する音声データを音声データ変換部13へ出力する。具体的には例えば、電話番号が「017892345」で、選択した桁が4桁目である場合、選択した桁の数字は「8」となる。従って、制御部11は、音声データ(8)を音声データ変換部13へ出力する。その後、制御部11は、ユーザ端末30−1〜30−nから送信された音声信号を受信すると、受信した音声信号を声紋分析部14へ出力する。その後、制御部11は、ユーザ認証が成功したことを示す認証成功情報、または、ユーザ認証が失敗したことを示す認証失敗情報を、声紋データ比較部15から受け付ける。認証成功情報を受け付けた場合、制御部11は、ユーザ端末30−1〜30−nとの間の音声接続を切り替え、ユーザ端末30−1〜30−nとオペレータ用装置20との間で音声接続を確立させる。一方、認証失敗情報を受け付けた場合には、制御部11は、ユーザ認証に失敗したこと示す音声ガイダンスを出力した上で、ユーザ端末30−1〜30−nとの間に確立されていた音声接続を切断する。
音声データ変換部13は、認証段階において制御部11から出力された音声データを受け付け、受け付けた音声データを音声信号に変換する。そして、音声データ変換部13は、変換された音声信号を声紋分析部14へ出力する。
声紋分析部14は、認証段階において、制御部11から出力された音声信号と、音声データ変換部13から出力された音声信号とを受け付ける。そして、声紋分析部14は、制御部11から出力された音声信号を声紋データに変換した第1の声紋データを生成し、さらに、音声データ変換部13から出力された音声信号を声紋データに変換した第2の声紋データを生成する。そして、生成された第1の声紋データ及び第2の声紋データを声紋データ比較部15へ出力する。なお、声紋データとは、音声信号の特徴を表したデータのことである。
声紋データ比較部15は、認証段階において、声紋分析部14から出力された第1の声紋データ及び第2の声紋データを受け付け、受け付けた第1の声紋データと第2の声紋データとを比較する。これにより、同一人物によって発声された音声かどうかを判定する。具体的には、第1の声紋データと第2の声紋データとが一致した場合、声紋データ比較部15は、同一人物によって発声された音声であると判定する。そして、第1の声紋データと第2の声紋データとが一致した場合、声紋データ比較部15は、認証成功情報を制御部11へ出力する。一方、第1の声紋データと第2の声紋データとが一致しない場合、声紋データ比較部15は、認証失敗情報を制御部11へ出力する。
音声信号変換部16は、音声データ記憶段階において、制御部11から出力されたユーザIDと記憶用音声信号と受け付ける。そして、受け付けた音声信号を変換した音声データ(0)〜(9)を生成する。そして、音声信号変換部16は、生成された音声データ(0)〜(9)を、受け付けたユーザIDに対応付けてユーザ情報記憶部12に記憶させる。
以下に、上記のように構成された声紋認証システムにおける認証装置10の動作について説明する。
まず、図1に示した認証装置10の音声データ記憶段階における動作について説明する。
図4は、図1に示した認証装置10の音声データ記憶段階における動作を説明するためのフローチャートである。ここでは、ユーザ端末30−1から送信された記憶用音声信号を音声データとして記憶する場合について説明するが、ユーザ端末30−2〜30−nから送信された記憶用音声信号を音声データとして記憶する場合も同様の動作となる。なお、音声データ記憶段階においては、音声データ以外の情報は、ユーザ情報としてユーザ情報記憶部12に既に記憶されている。
まず、ユーザは、ユーザ端末30−1が備える電話機能部を操作して認証装置10へ電話をかける。これにより、ユーザ端末30−1と認証装置10との間で音声接続が確立される(ステップS1)。
ユーザ端末30−1と認証装置10との間の音声接続が確立されると、制御部11は、ユーザIDの入力を促す音声ガイダンスを出力する(ステップS2)。
そして、ユーザは、ユーザ端末30−1が備える情報受付部を操作することによってユーザIDを入力する。
ユーザIDの入力を受け付けたユーザ端末30−1は、受け付けたユーザIDを認証装置10へ送信する。
認証装置10の制御部11は、ユーザ端末30−1から送信されたユーザIDを受信する(ステップS3)。
そして、制御部11は、パスワード記入用紙に記入した複数の言葉を順番に発声することを促す音声ガイダンスを出力する(ステップS4)。
次に、ユーザは、パスワード記入用紙に記入された複数の言葉を順番に発声する。このとき、複数の言葉のそれぞれを個別に認識できるように、例えば、言葉と言葉との間を所定の時間あけて発声する。
ユーザ端末30−1は、ユーザ端末30−1が備える音声受付部により、ユーザが発声した複数の言葉の音声を受け付け、受け付けた音声を記憶用音声信号として認証装置10へ送信する。
認証装置10の制御部11は、ユーザ端末30−1から送信された記憶用音声信号を受信する(ステップS5)。
次に、制御部11は、ステップS3にて受信したユーザIDと、ステップS5にて受信した記憶用音声信号とを音声信号変換部16へ出力する。
制御部11から出力されたユーザID及び音声信号を受け付けた音声信号変換部16は、受け付けた記憶用音声信号を変換した音声データ(0)〜(9)を生成する(ステップS6)。
そして、音声信号変換部16は、生成された音声データ(0)〜(9)を、受け付けたユーザIDに対応付けてユーザ情報記憶部12に記憶させる(ステップS7)。
以上が、認証装置10の音声データ記憶段階における動作である。
次に、認証装置10の認証段階における動作について説明する。
図5は、図1に示した認証装置10の認証段階における動作を説明するためのフローチャートである。ここでは、被認証者がユーザ端末30−1を用いてユーザ認証を受ける場合について説明するが、被認証者がユーザ端末30−2〜30−nを用いてユーザ認証を受ける場合も同様の動作となる。なお、被認証者とは、サービス提供事業者のユーザ、または、サービス提供事業者のユーザ以外の第三者である。
まず、被認証者は、ユーザ端末30−1が備える電話機能部を操作して認証装置10へ電話をかける。これにより、ユーザ端末30−1と認証装置10との間で音声接続が確立される(ステップS21)。
ユーザ端末30−1と認証装置10との間の音声接続が確立されると、制御部11は、ユーザIDの入力を促す音声ガイダンスを出力する(ステップS22)。
そして、被認証者は、ユーザ端末30−1が備える情報受付部を操作することによってユーザIDを入力する。
ユーザIDの入力を受け付けたユーザ端末30−1は、受け付けたユーザIDを認証装置10へ送信する。
認証装置10の制御部11は、ユーザ端末30−1から送信されたユーザIDを受信する(ステップS23)。
次に、制御部11は、受信したユーザIDに対応するユーザ情報をユーザ情報記憶部12から抽出する。
次に、制御部11は、抽出したユーザ情報の電話番号のいずれかの桁を選択する(ステップS24)
そして、選択した桁の数字に対応する言葉を発声することを促す音声ガイダンスを出力する(ステップS25)。
そして、選択した桁の数字に対応する言葉を発声することを促す音声ガイダンスを出力する(ステップS25)。
また、制御部11は、抽出したユーザ情報の音声データ(0)〜(9)のうち、選択した桁の数字に対応する音声データを音声データ変換部13へ出力する。
制御部11から出力された音声データを受け付けた音声データ変換部13は、受け付けた音声データを音声信号に変換し、変換された音声信号を声紋分析部14へ出力する。
被認証者は、ステップS25にて認証装置10から出力された音声ガイダンスに従って言葉を発声する。
ユーザ端末30−1は、ユーザ端末30−1が備える音声受付部により、被認証者が発声した言葉の音声を受け付け、受け付けた音声を音声信号として認証装置10へ送信する。
認証装置10の制御部11は、ユーザ端末30−1から送信された音声信号を受信する(ステップS26)。
そして、制御部11は、受信した音声信号を声紋分析部14へ出力する。
制御部11から出力された音声信号と、音声データ変換部13から出力された音声信号とを受け付けた声紋分析部14は、制御部11から出力された音声信号から第1の声紋データを生成する。さらに、声紋分析部14は、音声データ変換部13から出力された音声信号から第2の声紋データを生成する。(ステップS27)。
そして、声紋分析部14は、生成された第1及び第2の声紋データを声紋データ比較部15へ出力する。
声紋分析部14から出力された第1及び第2の声紋データを受け付けた声紋データ比較部15は、受け付けた第1の声紋データと第2の声紋データとを比較する(ステップS28)。
そして、声紋データ比較部15は、第1の声紋データと第2の声紋データとが一致するかどうかを判定する(ステップS29)。
ステップS29における判定の結果、第1の声紋データと第2の声紋データとが一致する場合、声紋データ比較部15は、認証成功情報を制御部11へ出力する。
声紋データ比較部15から出力された認証成功情報を受け付けた制御部11は、ユーザ端末30−1との接続を切り替えることにより、ユーザ端末30−1とオペレータ用装置20と間の音声接続を確立する(ステップS30)。
一方、ステップS29における判定の結果、第1の声紋データと第2の声紋データとが一致しない場合には、声紋データ比較部15は、認証失敗情報を制御部11へ出力する。
声紋データ比較部15から出力された認証失敗情報を受け付けた制御部11は、ユーザ認証に失敗したこと示す音声ガイダンスを出力する。
そして、制御部11は、ユーザ端末30−1との間に確立されていた音声接続を切断する(ステップS31)。
このように本実施形態において認証装置10は、ユーザを一意に識別するユーザIDをユーザ端末30−1〜30−nから受信すると、受信したユーザIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データ(0)〜(9)のそれぞれと対応付けられ、ユーザID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該ユーザ端末へ送信する。そして、当該ユーザ端末から送信された音声信号を受信すると、特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する。
これにより、ユーザ認証の際に被認証者に発声させる認証用の言葉が、ユーザ認証の度にランダムに変化することになる。さらに、ユーザ認証の際に被認証者に発声させる認証用の言葉そのものが被認証者に提示されることがない。
そのため、ユーザ認証の際にユーザに発声させる複数の認証用の言葉の全てを第三者に録音されたとしても、その第三者は、どの言葉を用いればユーザ認証に成功するのかがわからない。
従って、サービスやシステムが第三者に不正に利用されてしまうことを防止できる。
なお、本実施形態においては、電話番号の1つの桁を選択することにより、選択された桁の数字に対応する1つの言葉を被認証者に発声させる場合を主に想定していた。しかし、電話番号の複数の桁を選択し、複数の言葉を認証者に発声させることによってユーザ認証を行うことも可能である。電話番号の複数の桁を選択した場合、例えば、選択された複数の桁を順番に被認証者へ通知し、その複数の桁の数字に対応する複数の言葉を、通知された複数の桁と同じ順番で被認証者に発声させるようにする。
このように、1回のユーザ認証において複数の言葉を組み合わせて被認証者に発声させることにより、第三者によるサービスやシステムの不正な利用をより強固に防止することが可能となる。
また、本発明においては、認証装置内の処理は上述の専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを認証装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを認証装置に読み込ませ、実行するものであっても良い。認証装置にて読取可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、認証装置に内蔵されたHDDなどを指す。
10 認証装置
11 制御部
12 ユーザ情報記憶部
13 音声データ変換部
14 声紋分析部
15 声紋データ比較部
16 音声信号変換部
20 オペレータ用装置
30−1〜30−n ユーザ端末
100 通信網
11 制御部
12 ユーザ情報記憶部
13 音声データ変換部
14 声紋分析部
15 声紋データ比較部
16 音声信号変換部
20 オペレータ用装置
30−1〜30−n ユーザ端末
100 通信網
Claims (9)
- 入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置であって、
ユーザを一意に識別するIDと、当該ユーザが発声した複数の言葉毎に生成された複数の音声データとを対応付けて記憶し、さらに、前記複数の音声データのそれぞれと、前記ID毎に固有の情報である複数の固有情報とを対応付けて記憶し、端末から前記IDを受信すると、該受信した前記IDの前記複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証装置。 - 請求項1に記載の認証装置において、
前記複数の音声データのそれぞれは、相互に異なる1桁の数字のそれぞれと一意に対応付けられ、
前記複数の固有情報は、数列であり、
前記IDと、前記複数の音声データと、前記数列とを対応付けて記憶する記憶部と、
前記端末から送信された前記IDを受信すると、該受信した前記IDに対応する前記数列のいずれかの桁を選択し、該選択された桁を示す情報を当該端末へ送信し、その後、当該端末から送信された音声信号を受信する制御部と、
前記受信した前記IDに対応する前記複数の音声データのうち、前記選択された桁の数字に対応する音声データを音声信号に変換する変換部と、
前記制御部にて受信された音声信号の特徴を表す第1の声紋データを生成し、前記変換部にて変換された音声信号の特徴を表す第2の声紋データを生成する声紋分析部と、
前記第1の声紋データと前記第2の声紋データとを比較することにより、同一人物によって発声された音声であるかどうかを判定する声紋データ比較部と、を有する認証装置。 - 請求項2に記載の認証装置において、
前記声紋データ比較部は、前記第1の声紋データと前記第2の声紋データとが一致する場合、同一人物によって発声された音声であると判定する認証装置。 - 入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置における認証方法であって、
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知処理と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証処理と、を有する認証方法。 - 請求項4に記載の認証方法において、
前記複数の音声データのそれぞれは、相互に異なる1桁の数字のそれぞれと一意に対応付けられ、
前記複数の固有情報は、数列であり、
前記通知処理は、
前記端末から送信された前記IDを受信する処理と、
前記受信した前記IDに対応付けられた前記数列のいずれかの桁を選択し、該選択された桁を示す情報を当該端末へ送信する処理と、を含み、
前記認証処理は、
当該端末から送信された音声信号を受信する処理と、
前記受信した前記IDに対応する前記複数の音声データのうち、前記選択された桁の数字に対応する音声データを音声信号に変換する処理と、
前記受信された音声信号の特徴を表す第1の声紋データを生成し、前記変換された音声信号の特徴を表す第2の声紋データを生成する処理と、
前記第1の声紋データと前記第2の声紋データとを比較することにより、同一人物によって発声された音声であるかどうかを判定する判定処理と、を含む認証方法。 - 請求項5に記載の認証方法において、
前記判定処理は、前記第1の声紋データと前記第2の声紋データとが一致する場合、同一人物によって発声された音声であると判定する処理である認証方法。 - 入力を受け付けた音声信号に基づく音声と、予め記憶された音声とが、同一人物によって発声された音声であるかどうかを判定することにより、ユーザ認証を行う認証装置に、
ユーザを一意に識別するIDを端末から受信すると、該受信したIDにて識別されるユーザが発声した複数の言葉毎に生成された複数の音声データのそれぞれと対応付けられ、前記ID毎に固有の情報である複数の固有情報のいずれかを特定するための特定情報を当該端末へ送信する通知機能と、
当該端末から送信された音声信号を受信すると、前記特定情報にて特定される固有情報に対応する音声データを変換した音声信号の特徴と、前記受信した音声信号の特徴とを比較することにより、同一人物によって発声された音声であるかどうかを判定する認証機能と、を実現させるためのプログラム。 - 請求項7に記載のプログラムにおいて、
前記複数の音声データのそれぞれは、相互に異なる1桁の数字のそれぞれと一意に対応付けられ、
前記複数の固有情報は、数列であり、
前記通知機能は、
前記端末から送信された前記IDを受信する機能と、
前記受信した前記IDに対応付けられた前記数列のいずれかの桁を選択し、該選択された桁を示す情報を当該端末へ送信する機能と、を含み、
前記認証機能は、
当該端末から送信された音声信号を受信する機能と、
前記受信した前記IDに対応する前記複数の音声データのうち、前記選択された桁の数字に対応する音声データを音声信号に変換する機能と、
前記受信された音声信号の特徴を表す第1の声紋データを生成し、前記変換された音声信号の特徴を表す第2の声紋データを生成する機能と、
前記第1の声紋データと前記第2の声紋データとを比較することにより、同一人物によって発声された音声であるかどうかを判定する判定機能と、を含むプログラム。 - 請求項8に記載のプログラムにおいて、
前記判定機能は、前記第1の声紋データと前記第2の声紋データとが一致する場合、同一人物によって発声された音声であると判定する機能であるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010013044A JP2011150237A (ja) | 2010-01-25 | 2010-01-25 | 認証装置、認証方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010013044A JP2011150237A (ja) | 2010-01-25 | 2010-01-25 | 認証装置、認証方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011150237A true JP2011150237A (ja) | 2011-08-04 |
Family
ID=44537265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010013044A Pending JP2011150237A (ja) | 2010-01-25 | 2010-01-25 | 認証装置、認証方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011150237A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191076A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 音声識別装置 |
-
2010
- 2010-01-25 JP JP2010013044A patent/JP2011150237A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191076A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 音声識別装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6233556B1 (en) | Voice processing and verification system | |
US10984802B2 (en) | System for determining identity based on voiceprint and voice password, and method thereof | |
US9455983B2 (en) | Digital signatures for communications using text-independent speaker verification | |
US7567901B2 (en) | Bio-phonetic multi-phrase speaker identity verification | |
US8812319B2 (en) | Dynamic pass phrase security system (DPSS) | |
US7158776B1 (en) | Techniques for voice-based user authentication for mobile access to network services | |
CN1977522B (zh) | 基于ip语音的生物测量认证 | |
US7920680B2 (en) | VoIP caller authentication by voice signature continuity | |
JP2006079595A (ja) | アプリケーションデータへの音声アクセスのセキュリティ保護 | |
JP2014531694A (ja) | ユーザ認証 | |
JP2006505021A (ja) | 安全なアプリケーション環境のためのローバスト多要素認証 | |
US20030220095A1 (en) | Biometric authentication of a wireless device user | |
CN106504745A (zh) | 一种语音验证码系统及其实现方法 | |
JP2010109618A (ja) | 認証装置、認証方法、及びプログラム | |
KR101626302B1 (ko) | 화자 인식을 위한 자연적 등록 방법 | |
US6519699B2 (en) | Method and system for voice guided secure entry of private data in a public setting | |
JP2008234398A (ja) | 音声認証システム及び認証局サーバ | |
US5499318A (en) | Method and apparatus for access control based on an audible uttering and timing of the audible uttering | |
JP2011150237A (ja) | 認証装置、認証方法及びプログラム | |
JP2014072701A (ja) | 通信端末 | |
JPS6126079B2 (ja) | ||
JP3592415B2 (ja) | 話者認識システム | |
Shrestha et al. | Sound-based two-factor authentication: Vulnerabilities and redesign | |
JP2000181490A (ja) | 利用者照合方法および利用者照合装置 | |
US20060190735A1 (en) | Method of entering a security code for a network apparatus |