JP5704013B2 - ユーザ認証方法、ユーザ認証装置、およびプログラム - Google Patents

ユーザ認証方法、ユーザ認証装置、およびプログラム Download PDF

Info

Publication number
JP5704013B2
JP5704013B2 JP2011168897A JP2011168897A JP5704013B2 JP 5704013 B2 JP5704013 B2 JP 5704013B2 JP 2011168897 A JP2011168897 A JP 2011168897A JP 2011168897 A JP2011168897 A JP 2011168897A JP 5704013 B2 JP5704013 B2 JP 5704013B2
Authority
JP
Japan
Prior art keywords
user
sound source
user authentication
head
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011168897A
Other languages
English (en)
Other versions
JP2013033368A5 (ja
JP2013033368A (ja
Inventor
功誠 山下
功誠 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011168897A priority Critical patent/JP5704013B2/ja
Priority to US13/557,742 priority patent/US9147053B2/en
Priority to CN2012102733277A priority patent/CN102915734A/zh
Publication of JP2013033368A publication Critical patent/JP2013033368A/ja
Publication of JP2013033368A5 publication Critical patent/JP2013033368A5/ja
Application granted granted Critical
Publication of JP5704013B2 publication Critical patent/JP5704013B2/ja
Priority to US14/821,060 priority patent/US10445480B2/en
Priority to US16/564,903 priority patent/US11100207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Headphones And Earphones (AREA)

Description

本開示は、ユーザ認証方法、ユーザ認証装置、およびプログラムに関する。
生体認証は、パスワードや磁気カードなどの代わりにユーザの生体情報を用いるユーザ認証方法である。生体認証の例としては、特許文献1に記載されているような静脈認証および指紋認証や、特許文献2に記載されているような虹彩認証が知られている。
このような生体認証は、忘却や紛失などによってユーザ本人が認証されなくなったり、情報の漏洩や盗難などによって第三者がユーザになりすまして不正に認証されたりする可能性が低いユーザ認証方法として、近年普及している。
特開2008−165742号公報 特開2001−34754号公報
特許文献1,2に記載された静脈認証、指紋認証および虹彩認証などの生体認証では、静脈パターンや指紋、虹彩パターンを予めテンプレートとして取得し、保持する。このように、ユーザ個人の身体的形状をデータとして収集することに対しては、指紋の採取に代表されるように、ユーザが心理的な抵抗感を感じる場合がある。
また、生体情報といえども、例えばユーザが第三者と共謀したような場合など、複製される可能性はゼロではない。また、何らかの原因で予め取得されたテンプレートの情報が流出すると、テンプレートが複製されることによって安全性が大きく低下する可能性がある。
そこで、本開示では、より効果的な生体認証を実現することが可能な、新規かつ改良されたユーザ認証方法、ユーザ認証装置、およびプログラムを提案する。
本開示によれば、ユーザの頭部伝達関数を用いて上記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを上記ユーザに向けて再生すること、上記再生された音データを聴取した上記ユーザが上記音源の位置として推定した、上記ユーザの周りの空間の第2の位置を取得すること、および上記第1の位置と上記第2の位置との符合によって上記ユーザを認証することを含むユーザ認証方法が提供される。
また、本開示によれば、ユーザの頭部伝達関数を用いて上記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを上記ユーザに向けて再生する再生部、上記再生された音データを聴取した上記ユーザが上記音源の位置として推定した、上記ユーザの周りの空間の第2の位置を取得する回答取得部、および上記第1の位置と上記第2の位置との符合によって上記ユーザを認証する認証部を備えるユーザ認証装置が提供される。
さらに、本開示によれば、ユーザの頭部伝達関数を用いて上記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを上記ユーザに向けて再生する機能、上記再生された音データを聴取した上記ユーザが上記音源の位置として推定した、上記ユーザの周りの空間の第2の位置を取得する機能、および上記第1の位置と上記第2の位置との符合によって上記ユーザを認証する機能をコンピュータに実現させるためのプログラムが提供される。
本開示によれば、テンプレートとしてユーザ個人の直接的な身体的形状表現ではない頭部伝達関数が用いられるため、ユーザの心理的抵抗感が比較的少ない。また、頭部伝達関数による音源の位置の推定はユーザ固有の能力であるため、テンプレートの頭部伝達関数の複製または流出が発生しても安全性が低下しにくい。
以上説明したように本開示によれば、より効果的な生体認証を実現することができる。
立体音響空間における音源について説明するための図である。 立体音響空間における頭部伝達関数について説明するための図である。 仮想的な音源の再生について説明するための図である。 仮想的な音源を再生するための装置構成の例を示す図である。 頭部伝達関数を利用したユーザ認証の一例を概念的に示す図である。 頭部伝達関数を利用したユーザ認証の別の例を概念的に示す図である。 本開示の第1の実施形態においてユーザ認証に用いられる装置の構成を示す図である。 本開示の第1の実施形態に係るユーザ認証装置の機能構成を示すブロック図である。 本開示の第1の実施形態におけるユーザIDおよび回答の入力装置の例について説明するための図である。 本開示の第1の実施形態における回答ボタンの水平方向の配置について説明するための図である。 本開示の第1の実施形態における回答ボタンの上下方向の配置について説明するための図である。 本開示の第1の実施形態におけるユーザ認証処理のステップを示すフローチャートである。 図12に示した処理の変形例のステップを示すフローチャートである。 本開示の第2の実施形態においてユーザ認証に用いられる装置の構成を示す図である。 本開示の第3の実施形態においてユーザ認証に用いられる装置の構成を示す図である。 本開示の第3の実施形態におけるユーザIDおよび回答の入力画面の例を示す図である。 本開示の第4の実施形態においてユーザ認証に用いられる装置の構成を示す図である。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.頭部伝達関数を利用したユーザ認証の基本的なアイデア
2.本開示の実施形態
2−1.第1の実施形態(バイノーラル再生の例)
2−2.第2の実施形態(トランスオーラル再生の例)
2−3.第3の実施形態(端末装置を回答に用いる例)
2−4.第4の実施形態(端末装置のユーザを認証する例)
3.補足
(1.頭部伝達関数を利用したユーザ認証の基本的なアイデア)
以下で説明する本開示の実施形態では、頭部伝達関数を利用してユーザが認証される。まず、この頭部伝達関数を利用したユーザ認証の基本的なアイデアについて、図1〜6を参照して説明する。
(頭部伝達関数について)
図1は、立体音響空間における音源について説明するための図である。
立体音響空間Rは、聴取者であるユーザUの周りの空間であり、音源Sが存在する。以下の説明では、音源Sの位置を、ユーザUの位置を原点とする極座標系において、動径r、偏角θ,φを用いて表現する。ユーザUの位置は、正確には、ユーザUの左右の耳を結ぶ線分の中点でありうる。動径rは、この点から音源Sの位置までの距離である。また、偏角θは、水平面内で、ユーザUの正面の方向と音源Sの方向とがなす角である。偏角φは、垂直面内で、ユーザUの位置を含む水平面と音源Sの方向とがなす角である。
図2は、立体音響空間における頭部伝達関数について説明するための図である。
ここで、ユーザUの鼓膜に到達する音波(以下、聴取音ともいう)では、ユーザUの頭部や耳での反射および回折のために、音源Sから放射される音波(以下、原音ともいう)の特定の周波数成分が強調されたり減衰したりする。ユーザUの左耳と右耳とでは、原音が反射したり回折したりする過程が異なるため、聴取音の周波数成分が異なりうる。また、ユーザUの左耳と右耳とでは、音源Sからの距離が異なるため、聴取音の位相も異なりうる。
このときの原音から聴取音への変化を伝達関数として表現したものが、頭部伝達関数HRTF(Head-Related Transfer Function)である。HRTFは、特に、ユーザUの頭部の形状、耳介の形状、外耳道形状、および皮膚の音響インピーダンスなどに強く依存する。すなわち、HRTFは、それぞれのユーザによって異なる関数である。また、HRTFは、立体音響空間Rにおける音源Sの位置によっても異なる。
図では、音源Sからの音波が、頭部伝達関数HRTF_Lで変化してユーザUの左耳の鼓膜に到達し、頭部伝達関数HRTF_Rで変化してユーザUの右耳の鼓膜に到達することが示されている。上記のように、HRTFはそれぞれのユーザに固有であり、また音源Sの位置によって異なる。従って、HRTF_LおよびHRTF_Rは、それぞれユーザU、音源Sの位置を示す動径rおよび偏角θ,φに依存する関数として、HRTF_L(U,r,θ,φ)、およびHRTF_R(U,r,θ,φ)と表せる。
ユーザUの感覚中枢である脳は、音源Sの位置(r,θ,φ)と頭部伝達関数HRTFとの関係を、経験則として認識している。これによって、ユーザUは、HRTF_L(U,r,θ,φ)およびHRTF_R(U,r,θ,φ)で変化した聴取音によって、音源Sの位置(r,θ,φ)を認識することができる。
HRTFは、原音と聴取音との間の伝達特性を周波数領域において表現したものである。このHRTFを離散フーリエ逆変換すると、頭部インパルスレスポンスHRIR(Head-Related Impulse Response)が得られる。HRIRは、原音と聴取音との間の伝達特性を時間領域において表現したものであり、広義には頭部伝達関数に含まれる。HRIRも、HRTFと同様に、左耳と右耳とで異なり、ユーザU、音源Sの位置を示す動径rおよび偏角θ,φに依存する関数として、HRIR_L(U,r,θ,φ)およびHRIR_R(U,r,θ,φ)と表せる。
図3は、仮想的な音源の再生について説明するための図である。
立体音響空間Vは、聴取者であるユーザUの周りの空間として認識される仮想的な空間である。原音Xに、測定された頭部インパルスレスポンスHRIR_L(U,r,θ,φ),HRIR_R(U,r,θ,φ)を畳み込み積分すると、原音Xは、現実の立体音響空間Rで位置(r,θ,φ)にある音源Sから放射されてユーザUの鼓膜に到達する聴取音と同様に変化する。そのため、畳み込み積分後の音波をユーザUの鼓膜の近傍から放射すると、ユーザは仮想的な立体音響空間Vにおいて位置(r,θ,φ)に位置する音源を知覚する。これは一種の錯聴ともいえる。この場合、ユーザの左耳への出力信号Yと、右耳への出力信号Yとは、それぞれ以下の式1,2のように表せる。なお、“*”は、畳み込み積分演算を示す。
=X*HRIR_L(U,r,θ,φ) ・・・(式1)
=X*HRIR_R(U,r,θ,φ) ・・・(式2)
ユーザUのHRIRは、実際の音響空間Rで、音源Sとしてインパルス信号やTSP(Time Stretched Pulse)信号などを再生し、ユーザUの左耳および右耳に装着したマイクロホンで聴取音を収音することによって周波数領域のHRTF_LおよびHRTF_Rを測定し、これを離散フーリエ逆変換することによって求められる。また、測定されたインパルス応答信号から時間領域で直接的に求めることも可能である。
上述のように、HRIRは音源Sの位置を示す動径rおよび偏角θ,φに依存するため、音源Sが位置する可能性があるそれぞれの位置で測定されることが望ましい。例えば、音源Sまでの動径rを1mなどの所定の距離に固定し、偏角θまたは偏角φを1度ごとに変化させながら、すべての偏角θ,φの組み合わせにおけるHRIRを測定することが考えられる。聴覚によって認識される方位角の最小分解能は、方向にもよるが概ね1度程度であるため、偏角θ,φを1度ずつ変化させたメッシュ上の観測点におけるHRIRを測定することによって、立体音響空間VにおいてユーザUからの距離がrの任意の位置にある仮想的な音源を再生することができる。
なお、ユーザUの鼓膜近傍からの音波の放射には、例えばイヤホンやヘッドホンなどが用いられる。この場合、イヤホンやヘッドホンの装着位置を考慮した外耳道の伝達特性の補正、およびイヤホンやヘッドホンのスピーカドライバの音響特性の補正などを加えることによって、ユーザUに音源の位置をより正確に知覚させることが可能になる。また、ユーザUの鼓膜近傍への音波の放射には、後述するトランスオーラルシステムが用いられてもよい。
図4は、仮想的な音源を再生するための装置構成の例を示す図である。
装置10において、左用および右用のFIR(Finite Impulse Response)フィルタ11L,11Rで、入力された原音データ(モノラル)とHRIR_LまたはHRIR_Rとの畳み込み積分が実行される。原音データは、例えばサンプリング周波数44.1kHz、量子化ビット数16ビットのデジタル信号として入力される。ここで、HRIR係数のタップ長を512サンプルとすると、FIRフィルタ11L,11Rでの畳み込み積分は、512タップの積和演算処理になる。FIRフィルタはDSP(Digital Signal Processor)のような演算ハードウェアとして実装されてもよいし、またCPU(Central Processing Unit)によるソフトウェア信号処理として実装されてもよい。
FIRフィルタ11L,11Rでの畳み込み積分の結果、ユーザの左耳への出力信号Y、および右耳への出力信号Yが得られる。これらの信号は、それぞれ、D/Aコンバータ12L,12Rでデジタル信号からアナログ信号に変換され、アンプ13L,13Rで増幅され、スピーカ14L,14Rから聴取者であるユーザUに向けて出力される。後述するように、スピーカ14L,14Rは、ヘッドホンやイヤホン、またはトランスオーラルシステムを構成するスピーカなど、ユーザUの左耳と右耳とに別々の音声を出力する機能を有するスピーカである。
ここで、FIRフィルタ11L,11Rは、CPU15によって制御される。CPU15は、入力された音源位置に応じて、ストレージ装置などに格納されたHRIR係数テーブル16からHRIR係数を取得する。HRIR係数は、例えば、ユーザUを識別するユーザIDに紐付けられ、音源Sの位置を示す動径rおよび偏角θ,φの組み合わせごとに、それぞれHRIR_LおよびHRIR_Rについて格納される。
(頭部伝達関数を用いたユーザ認証)
上述のように、頭部伝達関数であるHRTFおよびHRIRは、それぞれのユーザに固有な関数である。ユーザUは、自己のHRTFによって位置(r,θ,φ)にある音源Sから放射された原音がどのように変化して聴取音になるかを経験的に学習している。ユーザUは、この学習を通して、聴取音から音源Sの位置を認識することができるようになる。
従って、例えば図3に示した仮想的な立体音響空間Vにおける音源の再生で、他のユーザU’の頭部インパルスレスポンスHRIR_L(U’,r,θ,φ),HRIR_R(U’,r,θ,φ)を原音Xに畳み込み積分したものをユーザUの鼓膜の近傍から放射しても、ユーザは仮想的な立体音響空間Vにおいて位置(r,θ,φ)に位置する音源を知覚しない。他のユーザU’のHRTFによる原音Xの変化は、ユーザUが経験的に学習している自己のHRTFによる変化とは異なるためである。このように、仮想音源の定位の知覚に関する個人差が著しいことは、一般的によく知られている現象である。
ユーザUに、自己のものではないHRTFから算出したHRIRを畳み込み積分した原音Xを提示した場合、上記のように音源の位置は正しく知覚されない。特に、前方や上下の任意の位置に正確に定位(前方定位、上下定位)させることは極めて難しい。この場合、音源は、ユーザUの頭の内部(頭内定位)、またはユーザUの後方の誤った位置に定位(後方定位)して知覚されることが知られている。
逆にいえば、ユーザUの頭部インパルスレスポンスHRIR_L(U,r,θ,φ),HRIR_R(U,r,θ,φ)を畳み込み積分した原音Xを提示された場合に、音源が位置(r,θ,φ)にあることを正しく知覚できるのは、ユーザUだけである。
頭部伝達関数を利用したユーザ認証の基本的なアイデアは、上記の発見によるものである。つまり、頭部伝達関数を利用したユーザ認証は、ユーザUのHRIRなどの頭部伝達関数をテンプレートとして用い、この頭部伝達関数を用いて仮想的に発生させた音源の位置を正確に推定させることによってユーザUを認証するというものである。この認証では、例えば、仮想的に発生させた音源の位置が所定の微小な誤差の範囲内で正確に推定された場合に限って、ユーザUを本人であると認証する。
図5は、頭部伝達関数を利用したユーザ認証の一例を概念的に示す図である。
例えば、ユーザUの前方の位置(r,θ,0)にある音源Sを、頭部インパルスレスポンスHRIR_L(U,r,θ,0),HRIR_R(U,r,θ,0)を原音Xに畳み込み積分することによって仮想的に再生して、聴取者に提示する。この場合、聴取者がユーザUであれば、音源Sの位置を正しく知覚できるはずである。一方、聴取者がユーザUではなければ、音源Sの位置を正しく知覚できず、例えば聴取者の後方に位置する音源Sと誤って知覚する。従って、ユーザUの前方にある音源Sの位置を推定させれば、ユーザUを精度よく認証することができる。
図6は、頭部伝達関数を利用したユーザ認証の別の例を概念的に示す図である。
上述のように、ユーザUに、自己のものではないHRTFから算出したHRIRを畳み込み積分した原音Xを提示した場合、音源は、ユーザUの頭の内部、またはユーザUの後方の誤った位置に定位して知覚される。この誤った位置が分布する範囲は、ユーザUの上下方向について、特に狭い。つまり、自己のものではないHRTFから算出したHRIRを畳み込み積分した原音Xを提示された場合、聴取者が音源の高さを識別することは非常に困難である。
例えば、ユーザUの前方の位置(r,0,φ)にある音源Sを、頭部インパルスレスポンスHRIR_L(U,r,0,φ),HRIR_R(U,r,0,φ)を原音Xに畳み込み積分することによって仮想的に再生して、聴取者に提示する。この場合、聴取者がユーザUであれば、音源Sの位置を正しく知覚できるはずである。一方、聴取者がユーザUではなければ、音源Sの位置を正しく知覚できず、多くの場合、聴取者の後方で聴取者と同じ高さに位置する音源Sと誤って知覚する。従って、ユーザUからみて高さが異なる複数の位置のいずれかにある音源Sの位置を推定させれば、ユーザUを精度よく認証することができる。
(2.本開示の実施形態)
次に、以上で説明した基本的なアイデアを利用してユーザを認証する実施形態のいくつかの例について説明する。
(2−1.第1の実施形態)
まず、図7〜図12を参照して、本開示の第1の実施形態について説明する。本実施形態では、ユーザUの頭部伝達関数を用いて再生された仮想的な音源が、バイノーラル再生によって聴取者に提供される。聴取者は、推定した音源の位置を、入力装置を用いて回答する。回答が正しい場合、聴取者がユーザUとして認証される。
図7は、本開示の第1の実施形態においてユーザ認証に用いられる装置の構成を示す図である。
本実施形態では、ユーザ認証装置100に、ID入力装置150と、ヘッドホン160と、回答入力装置170とが接続される。ID入力装置150と、ヘッドホン160と、回答入力装置170とは、ユーザUが認証される場所、例えば機密情報を扱う部屋の入口などに設置される。ユーザUは、例えばこの部屋に入る権限を有し、ユーザUの頭部伝達関数は予め測定されてユーザ認証装置100に登録されている。
ID入力装置150は、ユーザUが自己のユーザIDを入力するのに用いられる。ユーザUの頭部伝達関数は、ユーザIDと関連付けられてユーザ認証装置100に登録されており、ID入力装置150によって取得されたユーザIDを用いて読み出される。
ヘッドホン160は、ユーザ認証装置100が生成した、音源を仮想的に再生した音声を、バイノーラル再生によって聴取者に提供するのに用いられる。上述のように、ヘッドホン160の装着位置やスピーカドライバの音響特性を考慮した補正を音声に加えることによって、ユーザUに音源の位置をより正確に知覚させることが可能になる。
回答入力装置170は、聴取者が推定した音源の位置を回答として取得するのに用いられる。図示されているように、回答入力装置170は、“1”〜“9”の9つのボタンを有する。聴取者は、これらのボタンのうちのいずれかを選択し、選択されたボタンに対応する位置が回答として取得される。なお、回答入力装置170のボタンの配置については後述する。
本実施形態では、以上のような装置構成を用いて、聴取者が仮想的に再生された音源の位置を正しく推定できるかを判定する。聴取者が音源の位置を正しく推定できた場合、聴取者はユーザUとして認証され、例えばユーザ認証装置100から認証結果を取得した外部装置が部屋の入口のロックを解除するなどの処理が実行されうる。
このように、専用の入力装置を用いてユーザIDおよび回答を取得することによって、ユーザUは磁気カードなどを携帯しなくてもよく、ユーザUの負担感を軽減することができる。
図8は、本開示の第1の実施形態に係るユーザ認証装置の機能構成を示すブロック図である。
ユーザ認証装置100は、ID取得部101と、頭部伝達関数取得部103と、仮想音源位置設定部107と、生成部109と、デコード回路113と、再生部115と、回答取得部117と、認証部119と、認証結果出力部121とを含む。また、ユーザ認証装置100は、ストレージ装置などに格納された頭部伝達関数データ105および原音データ111を参照する。
ID取得部101は、ユーザUのユーザIDを取得する。ID取得部101は、例えばID入力装置150に接続されるインターフェースであり、聴取者がID入力装置150を用いて入力したユーザIDの情報を取得する。ID取得部101は、取得したIDの情報を頭部伝達関数取得部103に提供する。
頭部伝達関数取得部103は、予め測定されたユーザUの頭部伝達関数を取得する。上述のように、頭部伝達関数は、ユーザUと、音源Sの位置(r,θ,φ)とに依存する。そこで、頭部伝達関数取得部103は、ID取得部101から取得したユーザIDと、仮想音源位置設定部107から取得した仮想音源の位置とを用いて頭部伝達関数データ105を参照し、予め測定されて格納されているユーザUの頭部伝達関数の情報を取得する。ここで取得される頭部伝達関数は、例えばHRIRである。頭部伝達関数取得部103は、取得した頭部伝達関数の情報を生成部109に提供する。
仮想音源位置設定部107は、仮想音源の位置(r,θ,φ)をランダムに設定する。仮想音源位置設定部107は、仮想的な立体音響空間Vの任意の位置を仮想音源の位置(以下、第1の位置ともいう)に設定する。本実施形態においては、仮想音源の位置が9つの選択肢からの選択によって回答されるため、仮想音源位置設定部107は、この9つの選択肢のそれぞれに対応する立体音響空間Vの9つの位置うちのいずれかを仮想音源の位置として設定する。なお、回答の選択肢と仮想音源の位置との関係については後述する。仮想音源位置設定部107は、設定した第1の位置の情報を頭部伝達関数取得部103および認証部119に提供する。
上記のように、頭部伝達関数取得部103は、ID取得部101が取得したユーザIDと、仮想音源位置設定部107が設定した第1の位置とに基づいて、頭部伝達関数データ105から頭部伝達関数を取得する。ここで、仮想音源位置設定部107によって設定されうる第1の位置は、9つの位置のうちのいずれかである。そのため、頭部伝達関数データ105には、ユーザUについて、少なくとも上記の9つの位置の頭部伝達関数が予め用意されている。
生成部109は、頭部伝達関数を用いて立体音響空間Vの第1の位置にある音源を仮想的に再生した音データを生成する。生成部109は、ユーザUの第1の位置での頭部伝達関数の情報を、頭部伝達関数取得部103から取得する。生成部109は、例えば図4に示した装置10の場合と同様に、FIRフィルタを用いて実現されうる。生成部109は、デコード回路113から提供された原音のデータを、頭部伝達関数を用いて加工して、仮想音源の音データを生成する。生成部109は、生成した音データを再生部115に提供する。
デコード回路113は、原音データ111をデコードする。原音データ111は、例えば、サンプリング周波数44.1kHz、量子化ビット数16bitでMP3圧縮されたモノラルの音データである。デコード回路113は、この音データをデコードしてPCM信号に復調し、生成部109に提供する。
再生部115は、聴取者、つまり認証を受けようとするユーザUに向けて、生成部109から提供された音データを再生する。再生部115は、例えばヘッドホン160に接続されるインターフェースであり、D/Aコンバータやアンプなどを含んでもよい。再生部115は、音データを聴取者に提示するためにヘッドホン160に提供する。
回答取得部117は、ヘッドホン160を用いて再生部115によって再生された音データを聴取した聴取者が推定した、立体音響空間Vにおける仮想的な音源の位置(以下、第2の位置ともいう)を回答として取得する。回答取得部17は、例えば回答入力装置170に接続されるインターフェースであり、聴取者が回答入力装置170を用いて入力した第2の位置の情報を取得する。回答取得部117は、取得した第2の位置の情報を認証部119に提供する。
認証部119は、第1の位置と第2の位置との符合によってユーザUを認証する。認証部119は、第1の位置の情報を仮想音源位置設定部107から取得し、第2の位置の情報を回答取得部117から取得する。認証部119は、第1の位置と第2の位置とが符合している場合に、聴取者が仮想音源の位置を正しく知覚していると判定し、聴取者がユーザUであると認証する。後述するように、認証部119は、この判定を複数回繰り返すことによってユーザUを認証してもよい。認証部119は、認証の結果を認証結果出力部121に出力する。
認証結果出力部121は、認証結果を出力する。認証結果出力部121は、例えばユーザ認証装置100の外部の装置に接続されるインターフェースであり、外部の装置に認証結果を提供してもよい。本実施形態において、外部の装置は、例えば部屋の入口をロックする施錠装置などである。外部の装置では、ユーザ認証装置100による認証結果と、他の認証装置、例えばパスワードや磁気カードまたは生体認証などでユーザUを認証する認証装置による認証結果とを併用してユーザUを認証してもよい。また、認証結果出力部121は、認証結果を認証装置100の内部の他の部分に出力するためのインターフェースであってもよい。
なお、頭部伝達関数取得部103と、仮想音源位置設定部107と、認証部119と、は、例えばCPU、RAM(Random Access Memory)、ROM(Read Only Memory)などによって実現される。
図9は、本開示の第1の実施形態におけるユーザIDおよび回答の入力装置の例について説明するための図である。
本実施形態において、ID入力装置150および回答入力装置170は、聴取者の前方の壁などに設置される。ID入力装置150は、例えばテンキーおよび決定キーによってユーザIDを入力する装置である。回答入力装置170は、上述したように9つのボタンを有し、いずれかのボタンの押下によって回答を取得する。
ここで、回答入力装置170では、回答入力装置170に対面する聴取者からみて中央に“5”のボタンが配置され、その周りの聴取者からみて上、下、左、右、左上、右上、左下、右下に、それぞれ“1”〜“4”、“6”〜“9”のボタンが配置されている。これらの9つのボタンがそれぞれ示す位置は、立体音響空間Vにおいて予め定められた位置群といえる。上述のように、第1の位置および第2の位置は、この位置群から選択される。
このように、第1の位置および第2の位置をそれぞれ所定の位置群から選択することによって、ユーザUの頭部伝達関数を、少なくとも所定の位置群に含まれる位置について測定しておけばよくなり、頭部伝達関数の測定が簡単になる。また、仮想的な音源の位置を推定するユーザUの回答を、選択肢からの選択によって取得することが可能になり、回答の入力、および正答の判定が簡単になる。なお、位置群に含まれる位置の数は9つには限られず、任意の数でありうる。
図10は、本開示の第1の実施形態における回答ボタンの水平方向の配置について説明するための図である。
図では、聴取者の周りの仮想的な立体音響空間Vの、聴取者の頭の高さでの水平断面図が概略的に示されている。本実施形態では、聴取者の前方、距離rの位置に、回答入力装置170が設置される。従って、回答入力装置170の“5”のボタンは、立体音響空間Vで位置(r,0,0)にある音源Sに対応する。また、回答入力装置170の“4”のボタンは、立体音響空間Vで位置(r,−θ,0)にある音源Sに対応し、“6”のボタンは、位置(r,θ,0)にある音源Sに対応する。
図示された例において、音源Sと音源S、および音源Sと音源Sとの間の距離は、いずれもr×tanθになる。この場合、回答入力装置170の“4”および“6”のボタンまでの距離は、rよりも若干大きくなるが、例えばrが1m程度、θが10°程度であれば、誤差として無視しうる範囲である。回答入力装置170の“4”および“6”のボタンまでの距離を正確にrにする場合、聴取者から回答入力装置170までの距離、つまり“5”のボタンまでの距離をr×cosθとし、音源Sと音源S、および音源Sと音源Sとの間の距離をr×sinθとしてもよい。
図11は、本開示の第1の実施形態における回答ボタンの上下方向の配置について説明するための図である。
図では、聴取者の周りの仮想的な立体音響空間Vの、聴取者の前後方向での垂直断面図が概略的に示されている。上述のように、本実施形態では、聴取者の前方、距離rの位置に、回答入力装置170が設置され、“5”のボタンが立体音響空間Vの立体音響空間Vで位置(r,0,0)にある音源Sに対応する。また、回答入力装置170の“2”のボタンは、立体音響空間Vで位置(r,0,φ)にある音源Sに対応し、“8”のボタンは、位置(r,0,−φ)にある音源Sに対応する。
図示された例において、音源Sと音源S、および音源Sと音源Sとの間の距離は、いずれもr×tanφになる。この場合、回答入力装置170の“2”および“8”のボタンまでの距離は、rよりも若干大きくなるが、例えばrが1m程度、φが10°程度であれば、誤差として無視しうる範囲である。回答入力装置170の“2”および“8”のボタンまでの距離を正確にrにする場合、聴取者から回答入力装置170までの距離、つまり“5”のボタンまでの距離をr×cosφとし、音源Sと音源S、および音源Sと音源Sとの間の距離をr×sinφとしてもよい。
図示しない音源S,S,S,Sの立体音響空間Vでの位置、および回答入力装置170の対応するボタンは、上述した音源S,S〜S,Sと同様に設定される。すなわち、音源Sは、位置(r,−θ,φ)にあり、ボタン“1”に対応する。音源Sは、位置(r,θ,φ)にあり、ボタン“3”に対応する。音源Sは、位置(r,−θ,−φ)にあり、ボタン“7”に対応する。音源Sは、位置(r,θ,−φ)にあり、ボタン“9”に対応する。
なお、本実施形態において、予め測定されるユーザUの頭部伝達関数は、壁での反射の影響を除くために、無響空間で測定されることが望ましい。しかし、例えば、ユーザUが認証される場所、すなわちヘッドホン160および回答入力装置170が設置される場所が狭い部屋の中であるような場合には、その部屋の壁での反射や吸収を考慮した環境で頭部伝達関数を測定してもよい。
図12は、本開示の第1の実施形態におけるユーザ認証処理のステップを示すフローチャートである。
まず、ユーザ認証装置100のID取得部101が、聴取者がID入力装置150を用いて入力したユーザIDを取得する(ステップS101)。次に、仮想音源位置設定部107が、仮想音源の位置をランダムに設定する(ステップS103)。ここで仮想音源位置設定部107は、仮想音源の位置を、上述の音源S〜Sの位置からランダムに選択する。
次に、頭部伝達関数取得部103が、ステップS101で取得されたユーザIDを用いて、ステップS103で設定された仮想音源の位置におけるユーザUのHRIR関数を取得する(ステップS105)。上述のように、ここで取得されるHRIR関数は、予め測定されて頭部伝達関数データ105として格納されている。
次に、生成部109が、ステップS105で取得されたHRIR関数を原音データに畳み込み積分することによって、仮想音源の音データを生成する(ステップS107)。次に、再生部115が、ヘッドホン160を用いて聴取者に向けて再生する(ステップS109)。
次に、回答取得部117が、回答入力装置170を用いて、聴取者が仮想音源の位置を推定した回答を取得する(ステップS111)。ここで、ステップS109とステップS111との間には、聴取者の思考および動作にかかる時間を考慮した所定の待機時間が設定されうる。
次に、認証部119が、ステップS111で取得された回答によって示される第2の位置が、ステップS103で設定された仮想音源の位置である第1の位置に一致するか否かを判定する(ステップS113)。ここで、第2の位置が第1の位置に一致すると判定されなかった場合、認証部119は、“ユーザ認証失敗”の結果を、認証結果出力部121を介して出力する(ステップS115)。
一方、ステップS113において、第2の位置が第1の位置に一致すると判定された場合、認証部119は、さらに、ステップS103〜ステップS109による仮想音源の再生が所定の回数繰り返されたか否かを判定する(ステップS117)。ここで、仮想音源の再生が所定の回数繰り返されたと判定された場合、認証部119は、“ユーザ認証成功”の結果を、認証結果出力部121を介して出力する(ステップS119)。
一方、ステップS117において、仮想音源の再生が所定の回数繰り返されたと判定されなかった場合、ステップS103からの仮想音源の再生の処理を再度実行する。このとき、ステップS103では、仮想音源の位置が再度ランダムに設定されうる。
つまり、本実施形態では、仮想音源の位置を変えて(ランダムに選択された結果、前回と同じ位置になる場合もある)、仮想音源の再生と聴取者からの回答の取得とが所定の回数繰り返される。これによって、他人が偶発的にユーザUとして認証されてしまう可能性を低くすることができる。
図13は、図12に示した処理の変形例のステップを示すフローチャートである。
図示された例では、ステップS111の次に、認証部119が、取得された回答が正答であるか誤答であるかを判定し、正答または誤答のカウントを更新する(ステップS121)。カウントは、RAMなどに数値として格納されうる。次に、認証部119は、ステップS117を実行する。
ステップS117において、仮想音源の再生が所定の回数繰り返されたと判定された場合、認証部119は、所定の回数、および正答または誤答のカウントから聴取者の正答の回数を算出し、正答の回数または正答率が閾値以上であるかを判定する(ステップS123)。ここで、正答の回数または正答率が閾値以上であると判定された場合、認証部119は、“ユーザ認証成功”の結果を、認証結果出力部121を介して出力する(ステップS119)。一方、正答の回数または正答率が閾値以上であると判定されなかった場合、認証部119は、“ユーザ認証失敗”の結果を、認証結果出力部121を介して出力する(ステップS115)。
上記の変形例では、仮想音源の再生の繰り返しの中で、例えば1回誤答があっても、そこで即座に認証が失敗することがなく、その後正答が続けば、認証が成功する可能性がある。これによって、HRIR関数やヘッドホン160が完全でないためにユーザU本人でも誤答の可能性がある場合に、ユーザU本人が認証されなくなることを防ぐことができる。
ここで、認証部119は、ステップS121で誤答が検出された場合に、仮想音源の再生を繰り返す回数を増加させてもよい。認証部119は、例えば、“最初から、または誤答の後に3回連続して正答する”、または“仮想音源の再生を3回以上繰り返し、途中で正答率が75%以上になったら認証成功、50%を下回ったら認証失敗とする”などの条件によって、仮想音源の再生を繰り返す回数を動的に設定してもよい。
(2−2.第2の実施形態)
次に、図14を参照して、本開示の第2の実施形態について説明する。本実施形態は、ユーザUの頭部伝達関数を用いて再生された仮想的な音源が、ヘッドホン160を用いてバイノーラル再生される代わりに、トランスオーラルシステムを構成するスピーカ260によってトランスオーラル再生される点が上記の第1の実施形態とは異なる。それ以外の点については、上記の第1の実施形態と同様であるため、詳細な説明を省略する。
図14は、本開示の第2の実施形態においてユーザ認証に用いられる装置の構成を示す図である。
スピーカ260は、トランスオーラルシステムを構成する左右1対のスピーカである。なお、スピーカ260に適用されるトランスオーラルシステムの構成としては、公知のさまざまな構成が適用されうる。スピーカ260によって、聴取者は、ヘッドホン160によるバイノーラル再生の場合と同様に、左耳用および右耳用に再生された音声をそれぞれの耳で聴取することが可能である。
本実施形態では、仮想音源をトランスオーラル再生することによって、認証を受けようとするユーザUがヘッドホン160を装着することが不要になる。これによって、認証のだめのユーザの動作がさらに簡単になり、生体認証に対するユーザの抵抗感をさらに低下させることができる。
(2−3.第3の実施形態)
次に、図15および図16を参照して、本開示の第3の実施形態について説明する。本実施形態は、ユーザID、および聴取者が音源の位置を推定した回答を、ID入力装置150および回答入力装置170に代えて、聴取者が所持する端末装置300を用いて取得する点が上記の第1の実施形態とは異なる。それ以外の点については、上記の第1の実施形態と同様であるため、詳細な説明を省略する。
図15は、本開示の第3の実施形態においてユーザ認証に用いられる装置の構成を示す図である。
端末装置300は、例えば携帯電話、タブレット型PC(Personal Computer)などの端末装置である。端末装置300は、聴取者の操作を取得する操作部と、ユーザ認証装置100と通信する通信部とを少なくとも有する。聴取者は、端末装置300の入力部を用いてユーザIDおよび回答を入力する。端末装置300は、取得したユーザIDおよび回答の情報をユーザ認証装置100に向けて送信する。本実施形態では、ユーザ認証装置100のID取得部101および回答取得部117は、端末装置300からユーザIDおよび回答の情報を受信する受信装置によって実現される。
図16は、本開示の第3の実施形態におけるユーザIDおよび回答の入力画面の例を示す図である。
本実施形態において、端末装置300は、入力部としてタッチスクリーン310を有する。タッチスクリーン310には、ID入力表示350と、回答入力表示370とを含むグラフィカルインターフェースが表示される。
例えば、聴取者は、例えばオンスクリーンキーボードなどを用いてID入力表示350にユーザIDを入力し、“OK”ボタンを押下する。端末装置300は、ユーザ認証装置100にユーザIDの情報を送信し、ユーザ認証装置100は、ユーザIDによって特定されるユーザの頭部伝達関数を用いて生成した仮想音源を、ヘッドホン160を介して聴取者に提示する。聴取者は、仮想音源の位置として推定した位置を、回答入力表示370に入力候補として表示された“1”〜“9”のボタンの押下によって入力する。端末装置300は、ユーザ認証装置100に回答の情報を送信し、ユーザ認証装置100は、設定された仮想音源の位置と回答の位置との符合によって聴取者をユーザUとして認証する。図示された例では、仮想音源の再生が3回繰り返され、聴取者が3回正答するとユーザUとして認証される。
なお、例えば端末装置300がユーザによって専用されるものである場合、ユーザ認証装置100がユーザUを識別する情報として端末装置300の機器IDを保持し、端末装置300が機器IDをユーザ認証装置100に送信することによって、ユーザIDの入力が省略されてもよい。また、ユーザ認証装置100は、仮想音源の音データを端末装置300に送信し、端末装置300に接続されたヘッドホンを介して仮想音源が聴取者に提示されてもよい。
この場合、例えば図10および図11で説明したように、回答のためのボタンの位置と仮想音源の位置とを空間的に対応させることが難しいため、例えば端末装置300を正面に把持して回答をするように聴取者に指示してもよい。なお、端末装置300の入力部はタッチスクリーンには限られず、ディスプレイと操作ボタンの組み合わせなどであってもよい。この場合、回答入力のために、携帯電話などが有するテンキーが用いられてもよい。
本実施形態では、ユーザIDの入力および回答の入力を、専用の入力装置に代えて端末装置300を用いて取得する。これによって、ユーザ認証のための装置の構成を簡単にすることができる。
また、本実施形態の変形例として、上記の第2の実施形態と同様に、仮想的な音源をトランスオーラル再生してスピーカ260によってユーザに提示してもよい。これによって、認証のためのユーザの動作が簡単になるとともに、ユーザ自身の所有物である端末装置300への接触だけで認証が可能になるため、生体認証に対するユーザの抵抗感をさらに低下させることができる。
(2−4.第4の実施形態)
次に、図17を参照して、本開示の第4の実施形態について説明する。本実施形態は、端末装置400が、ユーザ認証装置100、ID入力装置150、および回答入力装置170として機能する点が、上記の第1の実施形態とは異なる。それ以外の点については、上記の第1の実施形態と同様であるため、詳細な説明を省略する。
図17は、本開示の第4の実施形態においてユーザ認証に用いられる装置の構成を示す図である。
端末装置400は、例えばPC、携帯電話などの端末装置である。上記の第3の実施形態における端末装置300が、所定の場所に設置されたユーザ認証装置100と通信してユーザUを認証するのに対し、本実施形態における端末装置400は、自らの処理でユーザUの認証を完結させる。例えば、端末装置400は、自らのロック状態を解除するためにユーザを認証する。従って、端末装置400は、携帯性がある端末装置には限られず、例えばデスクトップ型のPCなど、据置型の端末装置であってもよい。
端末装置400は、上記の第1の実施形態におけるユーザ認証装置100と同様の機能構成を有する。ID取得部101および回答取得部117は、例えばキーボード、マウスなどの入力装置によって実現されうる。また、端末装置400は、上記の第3の実施形態における端末装置300と同様のタッチスクリーン310を有し、ID入力表示350および回答入力表示370を表示することによって、ID取得部101および回答取得部117の機能を実現してもよい。
ユーザUは、例えば、ロックされていた端末装置400の操作を再開するときに、ユーザIDを入力した後、ヘッドホン160によって提示される音声を聴取し、仮想的な音源の位置を回答する。回答が正しければユーザUが認証され、端末装置400のロック状態が解除されて操作が可能になる。
なお、例えば端末装置400がユーザUによって専用されるものである場合、端末装置400が保持するユーザIDの入力が省略されうる。この場合、端末装置400が保持する頭部伝達関数の情報はユーザUのものに限られるため、端末装置400はID取得部101の機能を有さなくてもよい。
本実施形態では、端末装置400が、頭部伝達関数を用いてユーザUを認証し、認証の結果を自ら利用する。これによって、例えばさまざまな装置のロック解除やログインなどのためのユーザ認証を、頭部伝達関数を用いて簡便かつ効率的にすることができる。
また、本実施形態の変形例として、上記の第2の実施形態と同様に、仮想的な音源をトランスオーラル再生して、端末装置400が有するスピーカによってユーザに提示してもよい。これによって、認証のためのユーザの動作がより簡単になる。
(3.補足)
(ハードウェア構成)
図18を参照して、上記で説明された本開示の実施形態におけるユーザ認証装置100、端末装置300,400を実現しうる情報処理装置900のハードウェア構成について説明する。
図18は、情報処理装置のハードウェア構成を説明するためのブロック図である。
情報処理装置900は、CPU901、ROM903、およびRAM905を含む。さらに、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、および通信装置925を含んでもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(他の実施形態)
上記で説明した実施形態の他にも、本開示はさまざまな実施形態によって実施されうる。
例えば、上記の実施形態では、ユーザ認証装置がユーザの頭部伝達関数をユーザIDに関連付けて保持し、これを用いて音データを生成してユーザに向けて再生するが、本開示の実施形態はこれに限られない。ユーザ認証装置は、仮想音源の位置として設定されうる位置のそれぞれについてユーザの頭部伝達関数を用いて予め生成された音データを、音ファイルとしてユーザIDおよび位置情報に関連付けて保持してもよい。この場合、再生部は、ユーザIDと仮想音源位置に応じて、予め作成されて保持されている音ファイルから選択された音ファイルを用いて音データを再生する。従って、ユーザ認証装置は、音声データ生成部を含まずに構成されうる。
(効果のまとめ)
本開示の実施形態によって得られうる効果について、以下にまとめる。なお、これらの効果は、必ずしもそのすべてが同時に得られるものではなく、実施形態の構成に応じて得られる可能性があるものである。
ユーザ認証のためのキーとして用いられる頭部伝達関数は、身体の一部分の情報ではなく、頭部や耳の形状、皮膚の音響インピーダンスなど、ユーザの身体の複数の特徴によって定まる関数であるため、複製することが極めて困難である。従って、上記の実施形態によるユーザ認証では、より高い安全性を提供することが可能である。
頭部伝達関数を用いて再生された仮想的な音源の位置を正しく推定することは、ユーザの感覚中枢が経験則として習得するものである。そのため、第三者が流出や複製などによってユーザの頭部伝達関数を入手したとしても、再生される音源の位置を正しく推定することは非常に困難である。従って、上記の実施形態によるユーザ認証では、テンプレートの流出や複製によって安全性が低下するのを防ぐことができる。
頭部伝達関数は、各ユーザの身体的特徴から間接的に取得される。そのため、上記の実施形態によるユーザ認証では、ユーザの身体的特徴を直接的に採取する他の生体認証方法に比べて、ユーザの心理的な抵抗感が少ない。また、他のユーザと共用される装置へのユーザの接触を必要としない構成とすることも可能であるため、例えば潔癖症のユーザの心理的な抵抗感を低減させるようなことも可能である。
仮想的な音源の再生には、一般的な音声の再生装置を用いることが可能である。また、ユーザからの回答の入力にも、既にある端末装置などを用いる構成とすることが可能である。従って、上記の実施形態によるユーザ認証では、認証のための装置のコストを抑えることができる。
(結び)
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生すること、
前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得すること、および
前記第1の位置と前記第2の位置との符合によって前記ユーザを認証すること
を含むユーザ認証方法。
(2)前記第1の位置は、前記ユーザの周りの空間において予め定められた位置群のうちのいずれかの位置である、前記(1)に記載のユーザ認証方法。
(3)前記位置群は、高さが異なる複数の位置を含む、前記(2)に記載のユーザ認証方法。
(4)前記位置群は、前記ユーザの前方の位置を含む、前記(2)または(3)に記載のユーザ認証方法。
(5)前記第2の位置は、前記ユーザが前記位置群から選択した位置である、前記(2)〜(4)のいずれか1項に記載のユーザ認証方法。
(6)前記第2の位置は、前記位置群を入力候補として表示するグラフィカルユーザインターフェースを用いて前記ユーザが前記位置群から選択した位置である、前記(5)に記載のユーザ認証方法。
(7)前記再生すること、および前記取得することを繰り返し、
前記第1の位置と前記第2の位置とが符合した回数が閾値以上である場合に前記ユーザを認証する、前記(1)〜(6)のいずれか1項に記載のユーザ認証方法。
(8)前記音データは、バイノーラル再生される、前記(1)〜(7)のいずれか1項に記載のユーザ認証方法。
(9)前記音データは、トランスオーラル再生される、前記(1)〜(7)のいずれか1項に記載のユーザ認証方法。
(10)前記第2の位置は、前記音データの再生のための装置と同じ場所に設けられた入力装置によって取得される、前記(1)〜(9)のいずれか1項に記載のユーザ認証方法。
(11)前記第2の位置は、前記ユーザが所持する端末装置への入力によって取得される、前記(1)〜(9)のいずれか1項に記載のユーザ認証方法。
(12)前記音データを生成することをさらに含む、前記(1)〜(11)のいずれか1項に記載のユーザ認証方法。
(13)ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生する再生部、
前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得する回答取得部、および
前記第1の位置と前記第2の位置との符合によって前記ユーザを認証する認証部
を備えるユーザ認証装置。
(14)ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生する機能、
前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得する機能、および
前記第1の位置と前記第2の位置との符合によって前記ユーザを認証する機能
をコンピュータに実現させるためのプログラム。
100 ユーザ認証装置
101 ID取得部
103 頭部伝達関数取得部
107 仮想音源位置設定部
109 生成部
115 再生部
117 回答取得部
119 認証部
150 ID入力装置
160 ヘッドホン
170 回答入力装置
260 スピーカ
300,400 端末装置
310 タッチスクリーン
350 ID入力表示
370 回答入力表示

Claims (14)

  1. ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生すること、
    前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得すること、および
    前記第1の位置と前記第2の位置との符合によって前記ユーザを認証すること
    を含むユーザ認証方法。
  2. 前記第1の位置は、前記ユーザの周りの空間において予め定められた位置群のうちのいずれかの位置である、請求項1に記載のユーザ認証方法。
  3. 前記位置群は、高さが異なる複数の位置を含む、請求項2に記載のユーザ認証方法。
  4. 前記位置群は、前記ユーザの前方の位置を含む、請求項2または3に記載のユーザ認証方法。
  5. 前記第2の位置は、前記ユーザが前記位置群から選択した位置である、請求項2〜4のいずれか1項に記載のユーザ認証方法。
  6. 前記第2の位置は、前記位置群を入力候補として表示するグラフィカルユーザインターフェースを用いて前記ユーザが前記位置群から選択した位置である、請求項5に記載のユーザ認証方法。
  7. 前記再生すること、および前記取得することを繰り返し、
    前記第1の位置と前記第2の位置とが符合した回数が閾値以上である場合に前記ユーザを認証する、請求項1〜6のいずれか1項に記載のユーザ認証方法。
  8. 前記音データは、バイノーラル再生される、請求項1〜7のいずれか1項に記載のユーザ認証方法。
  9. 前記音データは、トランスオーラル再生される、請求項1〜7のいずれか1項に記載のユーザ認証方法。
  10. 前記第2の位置は、前記音データの再生のための装置と同じ場所に設けられた入力装置によって取得される、請求項1〜9のいずれか1項に記載のユーザ認証方法。
  11. 前記第2の位置は、前記ユーザが所持する端末装置への入力によって取得される、請求項1〜9のいずれか1項に記載のユーザ認証方法。
  12. 前記音データを生成することをさらに含む、請求項1〜11のいずれか1項に記載のユーザ認証方法。
  13. ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生する再生部、
    前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得する回答取得部、および
    前記第1の位置と前記第2の位置との符合によって前記ユーザを認証する認証部
    を備えるユーザ認証装置。
  14. ユーザの頭部伝達関数を用いて前記ユーザの周りの空間の第1の位置にある音源を仮想的に定位させた音データを前記ユーザに向けて再生する機能、
    前記再生された音データを聴取した前記ユーザが前記音源の位置として推定した、前記ユーザの周りの空間の第2の位置を取得する機能、および
    前記第1の位置と前記第2の位置との符合によって前記ユーザを認証する機能
    をコンピュータに実現させるためのプログラム。
JP2011168897A 2011-08-02 2011-08-02 ユーザ認証方法、ユーザ認証装置、およびプログラム Active JP5704013B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011168897A JP5704013B2 (ja) 2011-08-02 2011-08-02 ユーザ認証方法、ユーザ認証装置、およびプログラム
US13/557,742 US9147053B2 (en) 2011-08-02 2012-07-25 User authentication method, user authentication device, and program
CN2012102733277A CN102915734A (zh) 2011-08-02 2012-08-02 用户验证方法、用户验证装置和程序
US14/821,060 US10445480B2 (en) 2011-08-02 2015-08-07 User authentication method, and user authentication device
US16/564,903 US11100207B2 (en) 2011-08-02 2019-09-09 User authentication method and user authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011168897A JP5704013B2 (ja) 2011-08-02 2011-08-02 ユーザ認証方法、ユーザ認証装置、およびプログラム

Publications (3)

Publication Number Publication Date
JP2013033368A JP2013033368A (ja) 2013-02-14
JP2013033368A5 JP2013033368A5 (ja) 2014-07-31
JP5704013B2 true JP5704013B2 (ja) 2015-04-22

Family

ID=47614072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011168897A Active JP5704013B2 (ja) 2011-08-02 2011-08-02 ユーザ認証方法、ユーザ認証装置、およびプログラム

Country Status (3)

Country Link
US (3) US9147053B2 (ja)
JP (1) JP5704013B2 (ja)
CN (1) CN102915734A (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142755B2 (en) * 2016-02-18 2018-11-27 Google Llc Signal processing methods and systems for rendering audio on virtual loudspeaker arrays
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
JP7077948B2 (ja) * 2016-09-16 2022-05-31 日本電気株式会社 個人認証装置、個人認証方法および個人認証プログラム
CN108932953B (zh) * 2017-05-26 2020-04-21 华为技术有限公司 一种音频均衡函数确定方法、音频均衡方法及设备
CN107566936B (zh) * 2017-07-12 2020-07-10 捷开通讯(深圳)有限公司 自动调整音频数据的耳机及其方法、存储介质
US10145689B1 (en) * 2018-03-02 2018-12-04 Mapsted Corp. Method and system of pedestrian localization
CN109727342A (zh) * 2018-07-06 2019-05-07 平安科技(深圳)有限公司 门禁系统的识别方法、装置、门禁系统及存储介质
EP3832642A4 (en) * 2018-07-31 2021-09-29 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND AUDIO SYSTEM
US10856097B2 (en) 2018-09-27 2020-12-01 Sony Corporation Generating personalized end user head-related transfer function (HRTV) using panoramic images of ear
US11113092B2 (en) 2019-02-08 2021-09-07 Sony Corporation Global HRTF repository
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
US11347832B2 (en) * 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
US11526589B2 (en) * 2019-07-30 2022-12-13 Meta Platforms Technologies, Llc Wearer identification based on personalized acoustic transfer functions
CN110705436A (zh) * 2019-09-27 2020-01-17 哈尔滨理工大学 一种连续指纹频率场获取方法
US11146908B2 (en) 2019-10-24 2021-10-12 Sony Corporation Generating personalized end user head-related transfer function (HRTF) from generic HRTF
US11070930B2 (en) 2019-11-12 2021-07-20 Sony Corporation Generating personalized end user room-related transfer function (RRTF)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2870562B2 (ja) * 1992-11-30 1999-03-17 日本ビクター株式会社 音像定位制御の方法
US5912976A (en) * 1996-11-07 1999-06-15 Srs Labs, Inc. Multi-channel audio enhancement system for use in recording and playback and methods for providing same
JP2001034754A (ja) 1999-07-19 2001-02-09 Sony Corp 虹彩認証装置
JP2002143130A (ja) * 2000-11-08 2002-05-21 Matsushita Electric Ind Co Ltd 個人認証方法、および個人認証装置、およびこの装置を搭載した情報通信装置、および個人認証システム
WO2002065814A1 (fr) * 2001-02-14 2002-08-22 Sony Corporation Processeur de signaux de localisation d'images sonores
JP2003061196A (ja) * 2001-08-21 2003-02-28 Sony Corp ヘッドホン再生装置
US20030044002A1 (en) * 2001-08-28 2003-03-06 Yeager David M. Three dimensional audio telephony
CN1732713B (zh) * 2002-12-30 2012-05-30 皇家飞利浦电子股份有限公司 音频再现装置、反馈系统和方法
JP2005032056A (ja) * 2003-07-08 2005-02-03 Matsushita Electric Ind Co Ltd 個人識別機能付きコンピュータシステム、及びコンピュータシステムのユーザ管理方法
KR100677119B1 (ko) * 2004-06-04 2007-02-02 삼성전자주식회사 와이드 스테레오 재생 방법 및 그 장치
JP4921470B2 (ja) * 2005-09-13 2012-04-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 頭部伝達関数を表すパラメータを生成及び処理する方法及び装置
WO2007034371A2 (en) * 2005-09-22 2007-03-29 Koninklijke Philips Electronics N.V. Method and apparatus for acoustical outer ear characterization
WO2007137232A2 (en) * 2006-05-20 2007-11-29 Personics Holdings Inc. Method of modifying audio content
JP4935637B2 (ja) 2006-12-04 2012-05-23 ソニー株式会社 生体撮像装置および生体撮像方法
US8180119B2 (en) 2006-12-04 2012-05-15 Sony Corporation Imaging apparatus and imaging method
US9118488B2 (en) * 2010-06-17 2015-08-25 Aliphcom System and method for controlling access to network services using biometric authentication
US8767968B2 (en) * 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US8793760B2 (en) * 2011-03-31 2014-07-29 Ebay Inc. Authenticating online users with distorted challenges based on transaction histories
KR101909128B1 (ko) * 2012-01-13 2018-10-17 삼성전자주식회사 사용자의 청력 특성에 따라 조정된 소리를 출력하는 멀티미디어 재생 장치 및 이를 수행하는 방법

Also Published As

Publication number Publication date
CN102915734A (zh) 2013-02-06
US11100207B2 (en) 2021-08-24
US9147053B2 (en) 2015-09-29
US20130036452A1 (en) 2013-02-07
US10445480B2 (en) 2019-10-15
US20200004944A1 (en) 2020-01-02
JP2013033368A (ja) 2013-02-14
US20150347735A1 (en) 2015-12-03

Similar Documents

Publication Publication Date Title
JP5704013B2 (ja) ユーザ認証方法、ユーザ認証装置、およびプログラム
JP5954147B2 (ja) 機能制御装置およびプログラム
US11350234B2 (en) Systems and methods for calibrating speakers
US8787584B2 (en) Audio metrics for head-related transfer function (HRTF) selection or adaptation
CN110544532B (zh) 一种基于app的声源空间定位能力检测系统
CN110612727A (zh) 头外定位滤波器决定系统、头外定位滤波器决定装置、头外定位决定方法以及程序
CN107707742B (zh) 一种音频文件播放方法及移动终端
EP2822301B1 (en) Determination of individual HRTFs
WO2020146130A1 (en) Enabling a user to obtain a suitable head-related transfer function profile
Kurabayashi et al. Development of dynamic transaural reproduction system using non-contact head tracking
US11743671B2 (en) Signal processing device and signal processing method
JP4226142B2 (ja) 音響再生装置
Gupta et al. Study on differences between individualized and non-individualized hear-through equalization for natural augmented listening
WO2006107074A1 (ja) 携帯端末装置
JP2018152834A (ja) 仮想聴覚環境において音声信号出力を制御する方法及び装置
Alonso-Martınez Improving Binaural Audio Techniques for Augmented Reality
JP2015211235A (ja) 立体音再生装置およびプログラム
Hiipakka et al. Localization in binaural reproduction with insert headphones
WO2022185725A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11218832B2 (en) System for modelling acoustic transfer functions and reproducing three-dimensional sound
Tan Binaural recording methods with analysis on inter-aural time, level, and phase differences
JP2024015980A (ja) 頭部伝達関数生成装置、プログラム及び頭部伝達関数生成方法、及び頭部伝達関数調整装置
Hammershøi Human localization and performance measures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150209

R151 Written notification of patent or utility model registration

Ref document number: 5704013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250