JP7015408B1 - 端末装置、情報処理方法、及びプログラム - Google Patents

端末装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7015408B1
JP7015408B1 JP2021165354A JP2021165354A JP7015408B1 JP 7015408 B1 JP7015408 B1 JP 7015408B1 JP 2021165354 A JP2021165354 A JP 2021165354A JP 2021165354 A JP2021165354 A JP 2021165354A JP 7015408 B1 JP7015408 B1 JP 7015408B1
Authority
JP
Japan
Prior art keywords
authentication
voice
value
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021165354A
Other languages
English (en)
Other versions
JP2023056179A (ja
Inventor
真旭 徳山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021165354A priority Critical patent/JP7015408B1/ja
Application granted granted Critical
Publication of JP7015408B1 publication Critical patent/JP7015408B1/ja
Priority to PCT/JP2022/034511 priority patent/WO2023058424A1/ja
Publication of JP2023056179A publication Critical patent/JP2023056179A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Abstract

【課題】ユーザの負担を軽減し簡易に使用者を認証することがきる端末装置、情報処理方法、及びプログラムを提供する。【解決手段】端末装置は、複数の認証情報を取得する認証用情報取得部181と、複数の認証情報のうち音声のデータに基づいてユーザを認証するための音声の認証値を作成するための処理を実行する音声認証処理部300と、音声認証処理部300が作成した音声の認証値に基づいて、認証が成功したか否かを判定する認証判定部182とを備える。認証判定部は、音声認証処理部で作成された音声の認証値が、予め定められた認証閾値未満の場合に認証が成功したと判定し、音声の認証値が認証閾値以上、且つ、認証許容値以上の場合に、音声の認証値による認証が失敗したものとして認証用情報取得部181で取得した他の認証情報である一の認証情報に基づいて認証が成功したか否かを判定する。【選択図】図4

Description

本発明は、端末装置、情報処理方法、及びプログラムに関する。
通常、端末装置は、不正使用を防止するための認証機能を備え、認証が成功した場合に各機能を使用可能としている。認証処理には、一般的なパスワードに加え、各種の生体情報等も活用されている。例えば特許文献1には、表示装置に表示された文字列を読み上げるユーザの音声を用いて、ユーザを本人と認証する技術が開示されている。
特開2021-33315号公報
特許文献1に開示された技術では、ユーザは、認証の度に表示装置に表示された文字列を、読み仮名、文字数等を指定されたとおりに読み上げる必要がある。このため、文字列を読み上げるユーザに負担が大きいという課題がある。また、ユーザは、一々他の作業を止めて意図的に認証を行う必要があるため、作業効率が悪くなるという課題もある。
本発明は上述の課題を解決するものであり、ユーザの負担を軽減し簡易に使用者を認証することがきる端末装置、情報処理方法、及びプログラムを提供することを目的とする。
上記の目的を達するため、本発明に係る端末装置は、
複数の認証情報を取得する認証用情報取得部と、
前記認証用情報取得部で取得した前記複数の認証情報のうち音声のデータに基づいてユーザを認証するための音声の認証値を作成するための処理を実行する音声認証処理部と、
前記音声認証処理部が作成した前記音声の認証値に基づいて、認証が成功したか否かを判定する認証判定部と、
を備え、
前記音声認証処理部は、前記音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて、前記音声の認証値を作成する処理を実行し、
前記認証判定部は、前記音声認証処理部で作成された前記音声の認証値が、予め定められた認証閾値未満の場合に、認証が成功したと判定し、前記音声の認証値が前記認証閾値以上、且つ、前記認証閾値に前記ユーザがグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値による認証が失敗したものとして前記認証用情報取得部で取得した他の認証情報である一の認証情報に基づいて認証が成功したか否かを判定する。
本発明に係る端末装置によれば、通常の発話に含まれるフィラーに基づいてユーザを認証することができるため、ユーザの負担を軽減し簡易に使用者を認証することがきる。
本発明の実施の形態1に係る端末装置の正面図である。 図1に示す端末装置のブロック図である。 図1に示す端末装置のハードウエア構成の一例を示す図である。 図1に示す端末装置の情報処理ブロックの図である。 図4に示す情報処理ブロックの音声認証処理部のブロック図である。 本実施の形態1に係るユーザの発話に含まれるフィラーの単語の概要を示す図である。 本実施の形態1に係るユーザの発話に含まれるフィラーの単語を記憶する単語データベースのテーブルを示す図である。 図6Bに示したフィラーの単語の時系列モデルデータベースのテーブルを示す図である。 図6Bに示したフィラーの単語の声道特性モデルデータベースのテーブルを示す図である。 図4に示す端末装置の認証用生体情報データベースのテーブルを示す図である。 図4に示す端末装置の認証用振舞情報データベースのテーブルを示す図である。 図4に示す端末装置の傾き情報テーブルを示す図である。 実施の形態1に係る認証処理のフローチャートである。 図8Aに示す認証処理のフローチャートの続きのフローチャートである。 実施の形態1に係る顔認証値取得処理のフローチャートである。 実施の形態1に係る補助認証処理のフローチャートである。 実施の形態1に係る音声取得処理のフローチャートである。 図11Aに示す音声取得処理のフローチャートの続きのフローチャートである。 実施の形態1に係る音声認証処理のフローチャートである。 実施の形態1に係る音声の認証値取得処理のフローチャートである。 図13Aに示す音声の認証値取得処理のフローチャートの続きのフローチャートである。 実施の形態2に係る認証処理のフローチャートである。 図14Aに示す認証処理のフローチャートの続きのフローチャートである。 実施の形態2に係る声認証値取得処理のフローチャートである。 実施の形態2に係る顔認証処理のフローチャートである。
(実施の形態1)
以下に、本発明を実施するための形態に係る端末装置、情報処理方法、及びプログラムについて、図面を参照して詳細に説明する。なお、図中同一または相当する部分には同一符号を付す。
本実施の形態1に係る端末装置1は、ユーザ本人の顔の画像、指紋、音声等の生体情報と、ユーザが端末装置1を操作する際の特有の挙動、操作状態等による振舞情報とに基づいて、ユーザ本人を認証し、端末装置1における各種機能を実行することができるようにした装置である。特に、端末装置1で用いられる音声認証は、通常の発話に含まれるフィラーに基づいてユーザを認証することができるため、ユーザの負担を軽減し簡易に使用者を認証することがきる。
また、端末装置1において行われるユーザの認証処理は、端末装置1の稼働中、バックグラウンドで実行されるとともに、ユーザの生体情報と振舞情報とを更新していくことにより、認証の精度を向上させることができる処理である。
端末装置1の正面図を、図1に示す。端末装置1は、いわゆるスマートフォンであり端末装置1は、正面にユーザの顔を撮影するインカメラ11Aと、スピーカ12Aと、通話用のマイクであるマイクロフォン12Bと、端末装置1の傾きを検出する傾き検出部13と、操作入力部14及び表示部19を兼ねるタッチパネルと、ユーザの指紋を検出する左指紋センサ15A及び右指紋センサ15Bと、端末装置1の現在位置を検出する位置検出部16とを備える。また、端末装置1は、背面に、ユーザから見た人間、風景、物体等を撮影することができるメインカメラ11Bを備える。
ここで、以下では、インカメラ11Aとメインカメラ11Bとを総称して、撮影部11と称する。以下では、スピーカ12Aと、通話用のマイクであるマイクロフォン12Bとを総称して、音声入出力部12と称する。また、以下では、左指紋センサ15A及び右指紋センサ15Bを総称して、指紋検出部15と称する。
図2は、端末装置1の構成を示すブロック図である。端末装置1は、通信部10と、撮影部11と、音声入出力部12と、傾き検出部13と、操作入力部14と、指紋検出部15と、位置検出部16と、端末記憶部17と、端末制御部18と、表示部19とを備える。
通信部10は、図示せぬ通信網を介して外部のサーバ、クラウド等と通信し、各種データの送受信をするデータ通信部と、図示せぬ基地局との間で、電話通信用の無線信号を送受信する音声通信部とを含む。データ通信部は、無線LAN(Local Area Network)、Wi-fi(登録商標)、Bluetooth(登録商標)等を用いて構成することができる。また、音声通信部は、基地局との間で、電話通信用の無線信号を送受信する通信機器を用いて構成することができる。
撮影部11は、図1に示したインカメラ11Aとメインカメラ11Bとを含む。撮影部11には、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を用いたカメラ、ビデオカメラ等、静止画または動画を撮影し、撮影した静止画または動画を取得することが可能な各種カメラを用いることができる。
音声入出力部12は、図1に示したスピーカ12Aと、マイクロフォン12Bとを含む。スピーカ12Aは、音声通話で受信した音声、通信網を介して外部から取得した音楽データ等を出力する。マイクロフォン12Bは、ユーザの音声をピックアップする装置である。
傾き検出部13は、端末装置1の傾き、揺れ等を検出することができる装置である。傾き検出部13は、加速度センサ、角度センサ、地磁気を検出する磁気センサ等の端末装置1の傾きを検出できる各種センサを用いて構成することができる。なお、傾き検出部13を構成するセンサの個数及び種類は、単数又は複数のどちらでもよい。
操作入力部14は、図1に示したユーザからの操作を入力することができる装置である。指紋検出部15は、ユーザの指紋を検出するセンサである。指紋検出部15は、図1に示した左指紋センサ15A及び右指紋センサ15Bを含む。なお、指紋検出部15には、指紋センサに限らず、ユーザの指紋を検出することができるセンサ、機器等であれば、いずれのものを用いてもよい。
位置検出部16は、端末装置1の現在位置を検出することができる装置である。位置検出部16は、GPS(Global Positioning System)等の、端末装置1の現在位置を検出することができる機器を用いて構成することができる。
端末記憶部17は、ユーザの認証処理を行うための認証処理プログラム170と、ユーザの音声による認証処理を行うための音声認証処理プログラム171と、端末装置1で取得したユーザの生体情報をまとめた認証用生体情報データベース172と、端末装置1で取得したユーザの振舞情報をまとめた認証用振舞情報データベース173と、端末装置1の傾き状態を記憶するための傾き情報テーブル174と、音声認識に用いるフィラーの単語を記憶する単語データベース175と、フィラーの単語の時系列特性を記憶する時系列モデルデータベース176と、フィラーの単語の声道特性を保存する声道特性モデルデータベース177と、を備える。また、端末記憶部17には、端末装置1で実行される各種アプリケーションのプログラムが記憶されている。
認証処理プログラム170は、端末装置1で取得したユーザの生体情報及び振舞情報に基づいてユーザを認証する処理を行うプログラムである。認証用生体情報データベース172は、ユーザの生体情報に関する情報と認証に用いる認証値とを保存するためのデータベースである。
認証用振舞情報データベース173は、端末装置1を操作する際のユーザ特有の振舞に関する情報、認証の合格条件等を保存するためのデータベースである。ここで、ユーザ特有の振舞とは、ユーザが端末装置1を操作する際の挙動、表示部19の画面とユーザの顔の距離、キーストローク、持ち方、端末装置1が使用される位置、特定の通信網への接続回数、特定のアプリケーションの起動、操作等、ユーザ固有のものをいう。
傾き情報テーブル174は、傾き検出部13により検出された端末装置1の傾き角度と、取得日時、取得のための待機時間を記憶するためのテーブルである。単語データベース175は、音声認識に用いるフィラーの単語を記憶するデータベースである。フィラーは、発話に含まれる「あー」、「えぇっと」等の固有の意味を持たない、場つなぎの挿入語のことをいう。
時系列モデルデータベース176は、フィラーの単語の時系列特性を記憶するデータベースである。フィラーの単語の時系列特性は、音の高低を示すピッチ特徴量である。声道特性モデルデータベース177は、フィラーの単語の声道特性を保存するデータベースである。なお、認証処理プログラム170と、認証用生体情報データベース172と、認証用振舞情報データベース173と、傾き情報テーブル174と、単語データベース175と、時系列モデルデータベース176と、声道特性モデルデータベース177とについては、その詳細を後述する。
端末制御部18は、端末記憶部17に記憶された各種プログラムを実行する。また、端末制御部18は、通信部10と、撮影部11と、音声入出力部12と、傾き検出部13と、操作入力部14と、指紋検出部15と、位置検出部16とから各種データを取得して処理し、端末記憶部17の各種データベース、テーブルに記憶する。また、端末制御部18は、撮影部11に撮影する指示を送信することで、任意のタイミングで撮影部11に撮影をさせることができる。
表示部19は、端末制御部18で実行される各種プログラムの処理内容を表示する。また、表示部19は、撮影部11で撮影された静止画、動画等の画像、操作入力部14から入力されたデータ等を表示することもできる。表示部19は、操作入力部14上に積層されており、図1に示したタッチパネルを構成する。
次に、端末装置1のハードウエア構成の一例を、図3を参照しつつ説明する。端末装置1は、各種プログラムを実行するプロセッサ21と、各種プログラムを展開するためのメモリ22と、各種表示用データを出力する表示コントローラ23と、各種表示用データを表示する表示機器24と、撮影部11、音声入出力部12等を接続するためのI/Oポート25と、各種プログラム及び各種データを記憶する記憶機器26と、外部との通信し各種データを送受信する通信機器27とを備える。このプロセッサ21と、メモリ22と、表示コントローラ23と、表示機器24と、I/Oポート25と、記憶機器26と、通信機器27とは、データバス28を介して相互に接続されている。
プロセッサ21は、記憶機器26に記憶された各種プログラムを読み出してメモリ22に展開し、実行する。プロセッサ21は、CPU(Central Processing Unit)、MPU(Micro-processing Unit)等の処理装置を用いて構成することができる。また、メモリ22は、RAM(Random Access Memory)、フラッシュメモリ等の揮発性または不揮発性の半導体メモリといった記憶素子および記憶媒体を用いて構成することができる。
表示コントローラ23は、表示機器24に各種表示用データを出力するコントローラである。表示コントローラ23は、ビデオカード、GPU(Graphics Processing Unit)、グラフィックボード等の映像信号出力装置を用いて構成することができる。また、表示機器24は、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)モニタ等の表示装置を用いて構成することができる。
I/Oポート25は、撮影部11と、音声入出力部12と、傾き検出部13と、操作入力部14と、指紋検出部15と、位置検出部16とを接続することができる接続用ポートである。I/Oポート25には、USB(Universal Serial Bus)ポート、IEEE1394ポート等、機器を接続可能な各種ポートを用いて構成することができる。
記憶機器26は、プロセッサ21で実行する各種プログラム、各種プログラムで使用するための各種データを記憶する機器である。記憶機器26は、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置を用いて構成することができる。
通信機器27は、図示せぬ通信網を介して外部のサーバ、クラウド等と通信し、各種データの送受信をするデータ通信部と、図示せぬ基地局との間で、電話通信用の無線信号を送受信する音声通信部とを含む。データ通信部は、無線LAN、Wi-fi(登録商標)、Bluetooth(登録商標)等を用いて構成することができる。また、音声通信部は、基地局との間で、電話通信用の無線信号を送受信する通信機器を用いて構成することができる。
上述のプロセッサ21により、図2に示した端末装置1の端末記憶部17に記憶された認証処理プログラム170、音声認証処理プログラム171を実行することにより、端末制御部18に図4に示す情報処理ブロックが実現される。これにより、端末装置1は、ユーザ本人の顔の画像、指紋、音声等の生体情報と、ユーザが端末装置1を操作する際の特有の挙動、操作状態等による振舞情報とに基づいて、ユーザ本人を認証し、端末装置1における各種機能を実行することができる。
情報処理ブロックは、通信部10、撮影部11等から認証用の生体情報及び振舞情報を取得する認証用情報取得部181と、ユーザを本人か否か認証する認証判定部182と、表示部19に認証結果を表示させる認証結果表示部183と、認証判定部182からの指示により端末記憶部17に記憶されは各種データベース及びテーブルの情報を更新する認証用情報更新部184とを備える。
認証用情報取得部181は、通信部10、撮影部11等から認証用の生体情報及び振舞情報を取得する。認証判定部182は、認証用情報取得部181はから取得した認証用の生体情報及び振舞情報と、端末記憶部17の各種データベースに記憶された認証値、合格条件等に基づいて、ユーザの認証を行う。また、認証判定部182は、音声による認証を行う音声認証処理部300を含む。この音声認証処理部300の詳細については後述する。
認証結果表示部183は、認証判定部182からユーザの認証結果を受信し、表示部19に認証結果に応じてメッセージ、画像等を表示させる。認証用情報更新部184は、認証判定部182からの指示に基づいて、端末記憶部17に記憶された各種データベース、テーブルに記憶されたデータを更新する。なお、認証用情報取得部181で取得される生体情報及び振舞情報は、特許請求の範囲における認証情報の一例である。また、認証用情報取得部181で取得される各生体情報は、特許請求の範囲における一の情報及び二の情報の一例である。認証用情報取得部181で取得される各振舞情報は、特許請求の範囲における三の情報の一例である。
図5に示すのは、図4に示した認証判定部182に含まれる音声認証処理部300の構成を示すブロック図である。音声認証処理部300は、単語データベース175からフィラーの単語を取得する単語取得部310と、フィラーに対応する音声波形を切り出す音声波形切出部311と、音声波形から時系列変化を抽出する時系列抽出部312と、抽出された時系列変化と時系列モデルデータベース176に記憶されたデータと照合する時系列変化照合部313と、音声波形から声道特性を抽出する声道特性抽出部314と、抽出された声道特性と声道特性モデルデータベース177に記憶されたデータと照合する声道特性照合部315と、音声認証の認証値を求める音声認証値作成部316と、を備える。
単語取得部310は、端末記憶部17に記憶された単語データベース175に記憶されているフィラーの単語を取得する。音声波形切出部311は、図4に示した音声入出力部12から取得した音声データから、単語取得部310で取得したフィラーの単語に対応する音声波形を切り出す。
時系列抽出部312は、音声波形切出部311で切り出した音声波形から時系列変化を抽出する。時系列抽出部312が抽出する時系列変化は、音の高低を示すピッチ特徴量であり、音声波形の高低を基に求められる。時系列変化照合部313は、時系列抽出部312で抽出された時系列変化であるピッチ特徴量と、端末記憶部17に記憶された時系列モデルデータベース176に記憶された対応するフィラーの単語のピッチ特徴量とを照合する。
声道特性抽出部314は、音声波形切出部311で切り出した音声波形から声道特性のデータを抽出する。声道特性のデータは、低次および高次のケプストラムであり、それぞれが異なるケフレンシー(Quefrency)の値で表すことができる。声道特性照合部315は、声道特性抽出部314で抽出された声道特性のデータと、端末記憶部17に記憶された声道特性モデルデータベース177に記憶された対応するフィラーの単語の声道特性のデータとを照合する。音声認証値作成部316は、時系列変化照合部313と、声道特性照合部315との照合結果をもとに、音声認識の認証値を求める。
続いて、図5に示した端末記憶部17に記憶された単語データベース175と、時系列モデルデータベース176と、声道特性モデルデータベース177との各テーブルの構成について、図6Aから図6Dを参照しつつ以下に説明する。まず、図6Aに示すのは、ユーザの発話に含まれるフィラーの単語の概要である。フィラーは、発話に含まれる「あー」、「えぇっと」等の固有の意味を持たない、場つなぎの挿入語である。
例えば、図6Aに示すように、ユーザのn回目の発話が「あのー では 早速始めたいと思います」である場合、発話に含まれる「あのー」、「では」がフィラーとなる。また、ユーザのn+1回目の発話が「ところで 最近の調子はどうです・・・」である場合、発話に含まれる「ところで」がフィラーとなる。ユーザのn+2回目の発話が「・・・と思います えぇっと 次の議題ですが・・・」である場合、発話に含まれる「えぇっと」がフィラーとなる。ユーザのn+3回目の発話が「じゃあ こうしよう」である場合、発話に含まれる「じゃあ」がフィラーとなる。
本実施の形態では、一般的な話ことばに含まれるフィラー、端末装置1を使用するユーザが定めた任意の語彙等を、フィラーの単語として図6Bに示す単語データベース175のテーブルに予め設定するものとする。そして、単語データベース175のテーブルに設定されたフィラーの単語を、ユーザの発話から検索し、検索結果であるフィラーの単語について時系列変化および声道特性を抽出するものとする。
まず、図6Bに示す単語データベース175のテーブルには、フィラーの単語と、フィラーの単語の音声の特徴量と、ユーザの発話内における出現回数とを対応つけて記憶している。フィラーの単語と、フィラーの単語の音声の特徴量とは、端末装置1を使用するユーザが予め設定するものとする。ユーザの発話内における出現回数は、ユーザの発話内にフィラーの単語が出現した回数を計上したものである。例えば、図6Bに示すとおり、単語データベース175には、フィラーの単語「あのー」には、その音声の特徴量と、出現回数「154」とが対応つけられている。また、単語データベース175は、フィラーの単語、その単語の音声の特徴量、および出現回数を、出現回数の多い順に昇順に並べるものとする。
図6Cに示すのは、時系列モデルデータベース176のテーブルである。時系列モデルデータベース176のテーブルは、フィラーの単語とその単語の時系列特性であるピッチ特徴量とを対応つけて記憶している。ここで、時系列モデルデータベース176テーブルに記憶されているフィラーの単語は、図6Bに示した単語データベース175のテーブルに記憶されたフィラーの単語うち、出現回数の多い順に任意の件数分の単語とする。この任意の件数は、例えば、50件、100件など、端末装置1を使用するユーザが予め定めた件数とする。なお、以下では出現回数の多い順の順位を出現順位と称する。また、以下では、この任意の件数に合致する順位を、規定順位と称する。
時系列モデルデータベース176には、例えば、図6Cに示すとおり、図6Bに示した単語データベース175のテーブルに記憶されたフィラーの単語に対応する「あのー」、「じゃあ」等が、その出現順位に合わせて上から順番に並べられ、その単語の時系列特性であるピッチ特徴量と対応つけられて記憶されている。
図6Dに示すのは、声道特性モデルデータベース177のテーブルである。声道特性モデルデータベース177のテーブルには、フィラーの単語とその単語の声道特性である低次および高次のケプストラムであるケフレンシーの値とを対応つけて記憶している。ここで声道特性モデルデータベース177のテーブルに記憶されているフィラーの単語は、図6Cに示した時系列モデルデータベース176のテーブルに記憶されているフィラーの単語と同じ単語である。声道特性モデルデータベース177には、例えば、図6Dに示すとおり、図6Bに示した単語データベース175のテーブルに記憶されたフィラーの単語に対応する「あのー」、「じゃあ」等がその出現順位に合わせて上から順番に並べられ、その単語の声道特性が対応つけられ、記憶されている。
次に、端末記憶部17に記憶される認証用生体情報データベース172と、認証用振舞情報データベース173と、傾き情報テーブル174との各テーブルの構成について、図7Aから図7Cを参照しつつ以下に説明する。まず、認証用生体情報データベース172のテーブルには、図7Aに示すように、顔、虹彩等の生体情報の種類と、ユーザ本人の生体情報である登録情報と、登録情報と図4に示した認証用情報取得部181で取得した生体情報とを比較して求める認証値が記憶されている。
なお、本実施の形態1では、音声の生体情報について、図6Cに示した時系列モデルデータベース176、および、図6Dに示した声道特性モデルデータベース177に記憶するため、認証用生体情報データベース172には記憶されない。このため、音声については、認証用生体情報データベース172に、認証値の平均値、認証許容値、認証閾値を記憶するものとする。
認証用生体情報データベース172のテーブルに記憶されている登録情報は、ユーザ本人の生体情報である。登録情報には、端末装置1で認証処理を行う前に予め登録された情報であり、ユーザ本人を認証できた場合に更新される。登録情報には、例えば、生体情報の種類が顔であれば顔画像から求めた特徴量が、生体情報の種類が音声であれば音声データと音声データを解析して求めた声紋、口癖、イントネーションの各特徴量が、生体情報の種類が虹彩であれば虹彩データが、生体情報の種類が指紋であれば指紋の画像から求めた特徴量が、それぞれ記憶されている。なお、生体情報の種類のうち「顔」は、特許請求の範囲における第1生体情報の一例である。また、生体情報の種類のうち「音声」は、特許請求の範囲における第2生体情報の一例である。
本実施の形態1において、生体情報の類似の判定は、認証値により行われる。認証値は、登録情報と、図4に示した認証用情報取得部181で取得した生体情報とを比較した結果を基に求められる値である。認証値は、登録情報と認証用情報取得部181で取得した生体情報とが類似する場合に0に近づき、類似しない場合に1に近づく。認証用生体情報データベース172には、認証値の平均値と、認証値を判定するための閾値である認証閾値と、認証閾値にユーザがグレーな場合を示す認証許容範囲値を含めた認証許容値とが含まれる。
まず、認証値の平均値は、登録情報と、認証用情報取得部181で取得した生体情報とを比較し求められた認証値の平均の値である。なお、認証値の平均値は、特許請求の範囲における第1認証値の一例である。
認証閾値は、登録情報と、認証用情報取得部181で取得した生体情報とを比較し、比較した結果を基に求められた認証値が、この値以下の場合、ユーザをユーザ本人と判定するための基準となる値である。認証閾値は、ユーザの認証の状況に合わせて変動する値であり、予め上限値が定めされている。上限値は、その値以上となった場合、ユーザをユーザ本人と生体情報のみで認証すべきではないとされる値である。例えば、認証閾値のデフォルト値が登録情報と認証用情報取得部181で取得した生体情報とが類似する場合に近づく0と類似しない場合に近づく1との間の0.4であれば、認証閾値の上限値を0.45とする。
また、認証許容値は、登録情報と認証用情報取得部181で取得した生体情報とを比較し、比較した結果を基に求められた認証値が、この値以上の場合、ユーザをユーザ本人ではないと判定するための基準となる値である。認証許容値は、上述のとおり認証閾値にユーザがグレーな場合を示す認証許容範囲値を含めた値であるため、認証閾値と認証許容範囲値との変動に応じて、変動する値である。認証許容値には、予め上限値が定められており、これを最大認証許容値と呼ぶ。最大認証許容値は、この値以上の場合、ユーザを他人と判断すべきとされる値である。例えば、登録情報と認証用情報取得部181で取得した生体情報とが類似する場合に近づく0と類似しない場合に近づく1との中間の0.5である。
認証閾値と認証許容値との間の値を認証許容範囲値といい、ユーザがユーザ本人か否かグレーな場合を示す値である。認証値が認証許容範囲値内である場合、ユーザがユーザ本人か否かを生体情報だけで判断せず、ユーザ特有の振舞情報が合格条件に合致している場合に、ユーザ本人と認証し、合致してない場合、ユーザ本人と認証しないものとする。振舞情報によるユーザの認証を、以下では、補助認証と称する。認証許容範囲値は、この範囲に収まる認証値であればユーザ本人として概ね考え良いと思われる値を、予め定めたものである。
例えば、類似する場合に近づく0と、類似しない場合に近づく1との一割以下の0.08である。なお、認証閾値が上限値になった場合、最大認証許容値から認証閾値が上限値を引いた値になる。例えば、認証閾値の上限値が0.45、最大認証値が0.5であれば、認証許容範囲値は0.05といった具合である。したがって、認証閾値が上限値になっている場合、認証閾値が上限値になっていない場合よりも認証許容範囲値の値は小さな値をとる。
次に、認証用振舞情報データベース173のテーブルについて、図7Bを参照しつつ、以下に説明する。認証用振舞情報データベース173のテーブルには、通信接続、イベント実行等のユーザの振舞の種類と、図4に示した認証用情報取得部181で取得した取得情報と、各振舞における最新状況と、各振舞の合格条件とが記憶されている。
取得情報には、例えば、振舞の種類が通信接続であれば接続先のアドレス、SSID(Service Set Identifier)、BSSID(Basic Service Set Identifier)等が、振舞の種類がイベント実行であれば予めスケジュール帳に保存されたイベントの行われる場所の名称、住所等の場所情報が、振舞の種類が顔と端末装置との距離であれば距離が、振舞の種類がデバイス接続であれば接続先のデバイスを示す名称、ID(Identifier)等が、振舞の種類が位置情報であれば端末装置1の現在地を示す緯度経度、住所等が、それぞれ記憶されている。
各振舞における最新状況には、例えば、振舞の種類が通信接続であれば、取得情報に示された通信接続先にこれまで接続等された合計回数である。通信接続先への接続等の合計回数は、初期値が0であり、通信接続先への接続等により回数が加算されていく。また、振舞の種類がイベント実行であれば、取得情報に記憶されている場所とユーザの現在地との間の距離が記憶される。
振舞の種類が顔と端末装置1との距離であれば、最新状況には、それまでユーザがユーザ本人と認証された際に算出された顔と端末装置1との距離の平均距離が記憶される。顔と端末装置1との平均距離は、ユーザがユーザ本人と認証される度に更新される。なお、顔と端末装置1との平均距離の初期値は、図7Aに示した生体情報を、端末装置1でユーザ本人の認証を行う前に予め登録する際に求められた距離とする。
また、振舞の種類がデバイス接続であれば、最新状況には、取得情報に記憶された名称、ID等が示すデバイスに接続されているか否かが記憶されている。デバイス接続は、例えば、Bluetooth(登録商標)によりペア設定されたデバイスと端末装置1との接続である。振舞の種類が位置情報であれば、最新状況には、それまでユーザがユーザ本人と認証された際に居た所在地を示す緯度経度、住所等が記憶されている。また、各振舞の合格条件は、各振舞の信頼性を担保できる条件を予め定めた条件である。
次に、傾き情報テーブル174のテーブルを、図7Cに示す。傾き情報テーブル174は、図4に示した傾き検出部13から取得された端末装置1の傾きを示す角度と、その角度を取得した取得日時、傾きを検出するめのインターバルとなる待機時間とを記憶している。端末装置1の傾きを示す角度は、待機時間が経過する毎に図4に示した認証用情報取得部181により傾き検出部13から取得され、更新される。また、その角度を更新する際、角度を取得した取得日時も更新される。
本実施の形態1に係る端末装置1は、電源投入後処理のイニシャライズ処理の実行が完了すると、もしくは、スリープ状態から復帰すると、認証が成功するまで各機能の操作を許さないロック状態に入る。このロック状態に入る、若しくは、各機能の操作を行う際に認証が要求されると、図2に示した端末制御部18は、端末記憶部17に記憶された認証処理プログラム170および音声認証処理プログラム171を実行し、ユーザがユーザ本人か否かを判別する。端末制御部18により実行される認証処理プログラム170および音声認証処理プログラム171の処理について、図8Aから図13Bに示す各処理のフローチャートを参照しつつ、以下に説明する。
まず、図8Aに示す認証処理のフローチャートを参照する。図4に示した端末制御部18の認証判定部182は、顔認証値取得処理を実行する(ステップS101)。顔認証値取得処理については、図9に示す顔認証値取得処理のフローチャートを参照しつつ、以下に説明する。
端末制御部18の認証判定部182は、リトライ回数に0回を設定する(ステップS201)。図4に示した認証用情報取得部181は、撮影部11に端末装置1を操作しているユーザの顔写真を撮影させる。具体的には、認証用情報取得部181は、端末装置1の正面に向き合っているユーザの顔写真を、インカメラ11Aに撮影させる。認証用情報取得部181は、撮影部11から撮影したユーザの顔写真を取得する(ステップS202)。認証用情報取得部181は、取得したユーザの顔写真がブレているか否か判定する(ステップS203)。
ユーザの顔写真がブレていない場合(ステップS203;NO)、認証用情報取得部181は、撮影部11に撮影させたユーザの顔写真からユーザの顔が検出できるか否か判定する(ステップS204)。ユーザの顔写真からユーザの顔が検出できた場合(ステップS204;YES)、認証用情報取得部181は、検出したユーザの顔の画像の特徴量を求める。認証用情報取得部181は、求めたユーザの顔の画像の特徴量を図4に示した認証判定部182に送信する。
認証判定部182は、図2に示した端末記憶部17に記憶されている認証用生体情報データベース172を取得する。認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルから、生体情報の種類のうち「顔」に対応付けられた登録情報に記憶された顔画像の特徴量と、認証値の認証許容値及び認証閾値を取得する。認証判定部182は、認証用生体情報データベース172から取得した登録情報の顔画像の特徴量と、認証用情報取得部181から受信した顔画像の特徴量とを比較し、比較の結果を基に顔の認証値を求める。
また、ステップS203で取得したユーザの顔写真がブレている場合(ステップS203;YES)、または、ステップS204でユーザの顔写真からユーザの顔が検出できなかった場合(ステップS204;NO)、認証用情報取得部181は、リトライ回数が、規定回数未満か否か判定する(ステップS206)。この規定回数は、予め定められたリトライできる回数であり、図2に示した端末記憶部17に記憶されているものとする。
リトライ回数が規定回数未満である場合(ステップS206;YES)、認証用情報取得部181は、リトライ回数に1を足す(ステップS207)。認証用情報取得部181は、撮影部11にユーザの顔写真の撮影をリトライさせる(ステップS208)。
また、リトライ回数が規定回数未満でない場合(ステップS206;NO)、認証用情報取得部181は、認証判定部182に端末記憶部17に記憶されている顔の認証値を取得させる(ステップS209)。具体的には、認証用情報取得部181は、認証判定部182に、図2に示した端末記憶部17に記憶されている認証用生体情報データベース172を取得させる。認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルから、生体情報の種類のうち「顔」に対応付けられた認証値の平均値を取得する。なお、ユーザの顔写真からユーザの顔が検出できない場合、今操作しているユーザにこれ以上操作をさせないようにロックをかける、他の認証方法を利用する旨のメッセージを表示する等をしてもよい。
認証判定部182は、顔認証取得処理を終了する。ここで、図8Aに戻る。認証判定部182は、ステップS101の顔認証値取得処理で求めた顔の認証値が、認証用生体情報データベース172から取得した認証閾値以上か否か判定する(ステップS102)。顔認証値取得処理で求めた顔の認証値が認証閾値以上の場合(ステップS102;YES)、認証判定部182は、求めた顔の認証値が認証用生体情報データベース172から取得した認証許容値以下か否か判定する(ステップS103)。
求めた顔の認証値が認証許容値以下の場合(ステップS103;YES)、端末装置1を使用しているユーザは、ユーザ本人か否かグレーである。このため、認証判定部182は、振舞情報による認証の処理である補助認証処理を実行する(ステップS104)。補助認証処理については、図10に示すフローチャートを参照しつつ、以下に説明する。
まず、認証判定部182は、図4に示した認証用情報取得部181に通信部10から現在接続している通信接続先を取得させる。認証判定部182は、認証用情報取得部181から、取得させた通信部10の現在の通信接続先を受信する。
続いて、認証判定部182は、図2に示した端末記憶部17から認証用振舞情報データベース173を取得する。認証判定部182は、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類のうち「通信接続」に対応つけられた取得情報、回数、合格条件を取得する。
例えば、図7Bに示すように、「通信接続」の取得情報にはSSIDであるABC_WLANと123WLANとが記憶されている。このABC_WLANでは、接続した回数に31回、合格条件として接続回数が100回以上と記憶されている。また、123WLANでは、接続した回数に157回、合格条件として接続回数が100回以上と記憶されている。なお、以下では合格条件を満たす場合を信頼するものと呼び、合格条件を満たさない場合を信頼しないものと呼ぶ。
認証判定部182は、認証用情報取得部181から受信した通信部10の現在の通信接続先と、認証用振舞情報データベース173から取得した取得情報とを比較し、現在の通信接続先が信頼する通信接続先か否か判定する(ステップS301)。
ここで、例えば、通信部10の現在の通信接続先としてSSIDの123WLANが取得されているものとする。認証用振舞情報データベース173に記憶された振舞の種類「通信接続」の取得情報における123WLANは、接続した回数が156回であり、合格条件の接続回数が100回以上である。このため、現在の通信接続先は信頼する通信接続先であるため(ステップS301;YES)、認証判定部182は、端末装置1を使用しているユーザをユーザ本人と認証する。
続いて、認証判定部182は、認証間隔を現在の認証間隔よりも長くする(ステップS302)。これは、現在の通信接続先が信頼する通信接続先であれば、ユーザ本人は自宅、職場等の信頼する環境に居るものと考えられるためである。この場合、認証間隔を現在の認証間隔よりも長くし、認証の頻度を下げ必要最低限の回数認証を行うようにすれば良い。また、認証判定部182は、補助認証ができた旨を戻り値として設定する(ステップS303)。
また、ステップS301において、例えば、通信部10の現在の通信接続先としてSSIDのABC_WLANが取得されているものとする。認証用振舞情報データベース173に記憶された振舞の種類「通信接続」の取得情報におけるABC_WLANは、接続した回数が31回であり、合格条件の接続回数が100回以上である。このため、認証判定部182は、現在の通信接続先は信頼する通信接続先ではないものと判定する(ステップS301;NO)。この場合、認証判定部182は、直前もしくは現在、信頼するイベントを実行しているか否かを判定する(ステップS304)。
ここで、例えば、端末装置1に備えられたカレンダーに、現在の日時に行われるイベントの場所として「△●映画館」が記憶されているものとする。認証判定部182は、認証用情報取得部181に位置検出部16から取得させた現在の位置情報と、現在の日時に行われるイベントの場所である「△●映画館」の位置情報とを比較する。例えば、現在の位置情報と、イベントの場所である「△●映画館」の位置情報との間の距離が72mとする。この場合、認証判定部182は、信頼するイベントの実行であるもと判定する(ステップS304;YES)。その後、認証判定部182は、ステップS302、ステップS303を実行する。
また、認証判定部182は、認証用情報取得部181に操作入力部14から直前もしくは現在に実行しているイベントの内容を取得させる。認証判定部182は、端末装置1に備えられたカレンダーから、直前もしくは現在の日時に予定があるか否かと、その予定が行われる場所の情報とを取得する。認証判定部182は、直前もしくは現在の日時に予定が無かった場合、信頼するイベントの実行ではないもの判定する(ステップS304;NO)。この場合、認証判定部182は、顔と端末装置1との距離を算出する(ステップS305)。
また、ステップS304において、直前もしくは現在に予定があった場合、認証判定部182は、認証用情報取得部181に位置検出部16から、現在の位置情報を取得させる。続いて、認証判定部182は、図2に示した端末記憶部17から認証用振舞情報データベース173を取得する。
認証判定部182は、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類のうち、「イベント実行」に対応つけられた取得情報と合格条件とを取得する。例えば、図7Bに示すように、「イベント実行」の取得情報にはイベントが行われる場所として「○×公園」及び「△●映画館」が記憶され、その両方の合格条件として「距離が100m以内」と記憶されているものとする。
ここで、例えば、端末装置1に備えられたカレンダーに、現在の日時に行われるイベントの場所として「○×公園」が記憶されているものとする。認証判定部182は、認証用情報取得部181に位置検出部16から取得させた現在の位置情報と、現在の日時に行われるイベントの場所である「○×公園」の位置情報とを比較する。例えば、現在の位置情報と、イベントの場所である「○×公園」の位置情報との間の距離が113mとする。この場合、信頼するイベントの実行ではないものとし(ステップS304;NO)、顔と端末装置1との距離を算出する(ステップS305)。
ユーザの顔と端末装置1との距離は、図1に示したインカメラ11Aで撮影した端末装置1の正面に向き合うユーザの顔写真における、ユーザの顔の占める割合を基づいて算出する。
続いて、認証判定部182は、図2に示した端末記憶部17から認証用振舞情報データベース173を取得する。認証判定部182は、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類のうち「顔と端末装置との距離」に対応つけられた平均距離、合格条件を取得する。例えば、図7Bに示すように、「顔と端末装置との距離」の平均距離には262mm、合格条件に平均距離のプラスマイナス20mmと記憶されている。
認証判定部182は、ステップS109で算出したユーザの顔と端末装置1との距離が、認証用振舞情報データベース173から取得した合格条件に設定された設定範囲内か否か判定する(ステップS306)。具体的には、認証用振舞情報データベース173から取得した平均距離は262mm、合格条件は、平均距離のプラスマイナス20mmであるので、242mmから282mmの範囲か否かを判定する。
ステップS305で算出したユーザの顔と端末装置1との距離が、設定範囲内である場合、具体的には、242mmから282mmの範囲内である場合(ステップS306;YES)、認証判定部182は、ステップS302、ステップS303を実行する。
また、ステップS305で算出したユーザの顔と端末装置1との距離が、設定範囲内ではない場合、具体的には、242mmから282mmの範囲内ではない場合(ステップS306;NO)、認証判定部182は、端末装置1の現在地を求める(ステップS307)。具体的には、認証判定部182は、図4に示した認証用情報取得部181に、位置検出部16から端末装置1の現在地を示す緯度経度を取得させる。
続いて、認証判定部182は、位置検出部16から取得した端末装置1の現在地を示す緯度経度が、認証用振舞情報データベース173の合格条件に設定された設定範囲内か否か判定する(ステップS308)。具体的には、認証判定部182は、図2に示した端末記憶部17から認証用振舞情報データベース173を取得する。認証判定部182は、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類のうち「位置情報」に対応つけられた最新状況に記憶された緯度経度と、合格条件とを取得する。認証判定部182は、認証用情報取得部181に取得させた端末装置1の現在地を示す緯度経度と、認証用振舞情報データベース173から取得した緯度経度との差分に基づいて距離を求める。認証判定部182は、求めた距離が認証用振舞情報データベース173の合格条件に設定された設定範囲内か否か判定する。
端末装置1の現在地を示す緯度経度が、認証用振舞情報データベース173の合格条件に設定された設定範囲内である場合(ステップS308;YES)、認証判定部182は、ステップS302、ステップS303を実行する。また、端末装置1の現在地を示す緯度経度が、認証用振舞情報データベース173の合格条件に設定された設定範囲内でない場合(ステップS308;NO)、認証判定部182は、補助認証ができなかった旨を戻り値として設定する(ステップS309)。認証判定部182は、補助認証処理を終了する。
ここで、図8Aに戻る。認証判定部182は、補助認証ができたか否か判定する(ステップS105)。補助認証ができなかった場合(ステップS105;NO)、認証判定部182は、図4に示した認証結果表示部183に、キーワードの音声入力を要求する旨を表示部19に表示させる(ステップS106)。このキーワードは、図4に示す端末記憶部17に予め記憶された任意のキーワードとする。
認証判定部182は、音声入力されたキーワードが正しいか否か判定する(ステップS107)。音声入力されたキーワードが正しくない場合(ステップS107;NO)、認証判定部182は、認証結果表示部183に、パスワードの入力を要求する旨を表示部19に表示させる(ステップS108)。このパスワードは、図4に示す端末記憶部17に予め記憶された任意のパスワードとする。
認証判定部182は、入力されたパスワードが正しいか否か判定する(ステップS109)。入力されたパスワードが正しくない場合(ステップS109;NO)、認証判定部182は、続いて、認証判定部182は、図4に示した認証結果表示部183にログイン画面を表示部19に表示させる(ステップS110)。このログイン画面は、パスワードの入力、指紋認証等の端末装置1に含まれるOSによる本人認証である。
また、ステップS102において、顔認証値取得処理で求めた顔の認証値が認証閾値以上ではない場合(ステップS102;NO)、ステップS105で補助認証ができた場合(ステップS105;YES)、ステップS107で音声入力されたキーワードが正しい場合(ステップS107;YES)、または、ステップS109で入力されたパスワードが正しい場合(ステップS109;YES)、認証判定部182は音声取得処理を実行する(ステップS111)。
なお、ステップS102において、顔認証値取得処理で求めた顔の認証値が認証閾値以上ではない場合(ステップS102;NO)、ステップS105で補助認証ができた場合(ステップS105;YES)は、言い換えれば、ユーザの顔による認証が成功した場合である。この場合、端末装置1は、ユーザに把持された状態、ユーザに各種機能を操作されている状態等、ユーザの顔画像を取得できる状態にある。
また、ステップS107で音声入力されたキーワードが正しい場合(ステップS107;YES)、または、ステップS109で入力されたパスワードが正しい場合(ステップS109;YES)は、表示部19に表示させたキーワードまたはパスワードの入力の要求を、ユーザが見られる状態である。この場合、ステップS102、S105における状態と同様に、端末装置1は、ユーザに把持された状態、ユーザに各種機能を操作されている状態等、ユーザの顔画像を取得できる状態にある。
なお、ユーザに把持された状態、ユーザに各種機能を操作されている状態等、ユーザの顔画像を取得できる状態は、特許請求の範囲における第1使用状態の一例である。
続いて、音声取得処理について、図11A、図11Bに示すフローチャートを参照しつつ、以下に説明する。まず、図11Aにおいて、認証判定部182は、ユーザの発声があるか否か判定する(ステップS401)。具体的には、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できる場合、ユーザの発声があるものと判定する。また、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できない場合、ユーザの発声がないものと判定する。なお、この音声入出力部12は、図1に示したマイクロフォン12Bとする。
ユーザの発声がない場合(ステップS401;NO)、図11Bに示すとおり、認証判定部182は音声取得処理を終了する。また、ユーザの発声がある場合(ステップS401;YES)、認証判定部182は、録音時間に0秒を設定する(ステップS402)。認証判定部182は、認証用情報取得部181に、図4に示した音声入出力部12からユーザの音声を取得させる(ステップS403)。
認証判定部182は、録音時間が規定時間を超えたか否か判定する(ステップS404)。この規定時間は、予め定められた音声のデータを取得するのに必要な時間である。例えば、10秒、30秒等、任意の時間が設定される。設定された規定時間は、端末記憶部17に記憶されている。
録音時間が規定時間を超えていない場合(ステップS404;NO)、認証判定部182は、ステップS403に戻り、認証用情報取得部181に音声入出力部12からユーザの音声を取得させる。また、録音時間が規定時間を超えた場合(ステップS404;YES)、認証判定部182は、図5に示した音声認証処理部300の単語取得部310に、端末記憶部17から単語データベース175を取得させる(ステップS405)。
続いて、単語取得部310は、認証用情報取得部181で取得したユーザの音声のデータにフィラーがあるか否かを判定する(ステップS406)。具体的には、単語取得部310は、取得したユーザの音声のデータを最初から最後まで順次検索し、図6Bに示した単語データベース175のテーブルに記憶されているフィラーの単語の特徴量と、同じ特徴量が音声のデータに含まれているか否か判定する。
ユーザの音声のデータにフィラーがない場合(ステップS406;NO)、図11Bに示すとおり、認証判定部182は音声取得処理を終了する。また、ユーザの音声のデータにフィラーがある場合(ステップS406;YES)、図5に示した音声認証処理部300の音声波形切出部311は、認証用情報取得部181で取得したユーザの音声のデータから、フィラーを切り出す(ステップS407)。具体的には、音声波形切出部311は、認証用情報取得部181で取得したユーザの音声のデータから、ステップS406で見つけたフィラーの単語に対応する部分の音声波形を切り出す。
認証判定部182は、フィラーの単語の出現回数と出現順位とを更新する(ステップS408)。具体的には、認証判定部182は、図6Bに示した単語データベース175のテーブルに記憶されているフィラーの単語の出現回数の値に1を加算する。続いて、認証判定部182は、単語データベース175は、フィラーの単語、その単語の音声の特徴量、および出現回数を、出現回数の多い順に昇順に並べなおす。
認証判定部182は、ステップS407で切り出したフィラーの単語の出現順位は、規定順位以内か否かを判定する(ステップS409)。フィラーの単語の出現順位が規定順位以内ではない場合(ステップS409;NO)、認証判定部182はステップS406に戻る。そして、認証判定部182は、ステップS406以降の各ステップを実行する。
また、フィラーの単語の出現順位が規定順位以内である場合(ステップS409;YES)、認証判定部182は、図5に示した音声認証処理部300の音声波形切出部311に、音声認証処理部300の時系列変化抽出部312へ切り出した音声波形を送信させる。ここで、図11Bに移る。時系列変化抽出部312は、受信した音声波形の高低をもとに、ピッチ特徴量を求める(ステップS410)。時系列変化抽出部312は、求めたピッチ特徴量を、図5に示す端末記憶部17の時系列モデルデータベース176に、フィラーの単語と対応つけて記憶させる(ステップS411)。
続いて、音声波形切出部311は、図5に示した音声認証処理部300の声道特性抽出部314に切り出した音声波形を送信する。声道特性抽出部314は、受信した音声波形から声道特性のデータを求める(ステップS412)。声道特性抽出部314は、求めた声道特性のデータを、図5に示す端末記憶部17の声道特性モデルデータベース177に、フィラーの単語と対応つけて記憶させる(ステップS413)。
認証判定部182は、ステップS406でフィラーがあるか否かを判定したユーザの音声のデータに残りがあるか否か判定する(ステップS414)。例えば、フィラーの単語の特徴量と、同じ特徴量が音声のデータの半ばに含まれていたものとする。この場合、音声のデータに残りがあるため(ステップS414;YES)、図11Aに示すステップS406に戻る。そして、認証判定部182は、ステップS406以降の各ステップを実行する。また、例えば、フィラーの単語の特徴量と、同じ特徴量が音声のデータの終わりに含まれていたものとする。この場合、音声のデータに残りが無いため(ステップS414;NO)、認証判定部182は、音声取得処理を終了する。
ここで、図8Aに戻る。認証判定部182は、図4に示した認証用情報更新部184に、図2に示した認証用生体情報データベース172及び認証用振舞情報データベース173に記憶された各種データを更新させる(ステップS112)。具体的には、認証用情報更新部184は、図7Aに示した認証用生体情報データベース172のテーブルの生体情報の種類「顔」に対応つけられた登録情報に、登録情報に記憶されていた顔画像の特徴量に認証判定部182が認証用情報取得部181から受信した顔画像の特徴量を加え、登録情報を更新する。
続いて、認証用情報更新部184は、図7Bに示した認証用振舞情報データベース173のテーブルの振舞の種類「通信接続」に対応つけられた最新状況に記憶されている回数に1を加え、更新する。また、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類「顔と端末装置との距離」に対応つけられた最新状況を、記憶されている平均距離と図10に示したステップS305で算出された「顔と端末装置との距離」から求められた平均距離で更新する。
このように、認証用生体情報データベース172に記憶された生体情報、及び、認証用振舞情報データベース173に記憶された振舞情報を更新することにより、ユーザの生体情報及び振舞情報の精度が向上する。このため、ユーザの認証の精度を向上させることができる。
ここで、図8Bに移動する。認証判定部182は、生体認証及び補助認証が予め定めされた設定回数成功したか否かを判定する(ステップS113)。この設定回数は、例えば、連続で10回、端末装置1が起動してから合計で20回等、任意の回数である。生体認証及び補助認証が予め定めされた設定回数成功した場合(ステップS113;YES)、認証判定部182は、設定回数分の認証で求められた顔の認証値の平均値を求める(ステップS114)。
具体的には、認証判定部182は、図2に示した認証用生体情報データベース172を、端末記憶部17から取得する。認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルから、生体情報の種類のうち「顔」に対応付けられた認証値の平均値を取得する。認証判定部182は、ステップS101で求めた顔の認証値と、認証用生体情報データベース172から取得した認証値の平均値とを足して2で割り、顔の認証値の平均値を算出する。また、生体認証及び補助認証が予め定めされた設定回数成功しなかった場合(ステップS113;NO)、ステップS114からステップS116の処理をスキップし、ステップS117へ進む。
認証判定部182は、ステップS114で求めた顔の認証値の平均値を、認証用情報更新部184に送信する。認証用情報更新部184は、受信した顔の認証値の平均値と、予め設定された認証閾値の上限値とを比較する。顔の認証値の平均値が予め設定された認証閾値の上限値以上である場合、認証用情報更新部184は、図7Aに示した認証用生体情報データベース172のテーブルの、生体情報の種類のうち「顔」に対応付けられた認証閾値に、認証閾値の上限値を書き込み、更新する。
また、顔の認証値の平均値が予め設定された認証閾値の上限値以下である場合、認証用情報更新部184は、認証閾値を更新する(ステップS115)。具体的には、認証用情報更新部184は、図7Aに示した認証用生体情報データベース172のテーブルの、生体情報の種類のうち「顔」に対応付けられた認証閾値の欄にステップS114で求めた顔の認証値の平均値を書き込み、認証閾値を更新する。
続いて、認証用情報更新部184は、認証許容値を更新する(ステップS116)。具体的には、ステップS114で求めた顔の認証値の平均値が、予め設定された認証閾値の上限値以上である場合、認証用情報更新部184は、予め設定された最大認証許容値を認証許容値とする。また、ステップS114で求めた顔の認証値の平均値が、予め設定された認証閾値の上限値以下である場合、ステップS114で求めた顔の認証値の平均値とデフォルトの認証許容範囲値とを足した値が最大認証許容値以下であれば、その足した値を認証許容値とする。ステップS114で求めた顔の認証値の平均値とデフォルトの認証許容範囲値とを足した値が最大認証許容値以上であれば、最大認証許容値を認証許容値とする。
認証用情報更新部184は、図2に示した認証用生体情報データベース172を、端末記憶部17から取得する。認証用情報更新部184は、図7Aに示した認証用生体情報データベース172のテーブルの、生体情報の種類のうち「顔」に対応付けられた認証許容値の欄に、求めた認証許容値を書き込み、更新する。
図4に示した認証用情報取得部181は、傾き検出部13から端末装置1の傾きの角度を取得する。続いて、認証用情報取得部181は、図示しないタイマから現在の日時情報を取得する(ステップS117)。認証用情報取得部181は、取得した端末装置1の傾きの角度と現在の日時情報とを認証判定部182に送信する。
認証判定部182は、受信した端末装置1の傾きの角度と現在の日時情報とを、認証用情報更新部184に送信する。認証用情報更新部184は、図2に示した端末記憶部17に記憶された傾き情報テーブル174に、受信した端末装置1の傾きの角度と現在の日時情報とを書き込み、保存する(ステップS118)。
認証判定部182は、図7Cに示した傾き情報テーブル174のテーブルに記憶されている待機時間を取得する。認証判定部182は、認証用情報取得部181に取得した待機時間を送信する。認証用情報取得部181は、受信した待機時間の間、通信部10、撮影部11等からのデータの取得を待機する(ステップS119)。
待機時間が終了すると、認証用情報取得部181は、傾き検出部13から端末装置1の傾きの角度を取得する。続いて、認証用情報取得部181は、図示しないタイマから現在の日時情報を取得する(ステップS120)。認証用情報取得部181は、取得した端末装置1の傾きの角度と現在の日時情報とを認証判定部182に送信する。
認証判定部182は、図7Cに示した傾き情報テーブル174のテーブルに記憶されている端末装置1の角度を取得する。認証判定部182は、認証用情報取得部181から受信した端末装置1の傾きの角度と、傾き情報テーブル174から取得した端末装置1の角度とを比較し、角度が変化してないか否かを判定する(ステップS121)。
端末装置1の角度の変化が、予め定められた設定値の角度、例えば、30度以上の場合(ステップS121;NO)、認証判定部182は、ユーザにより端末装置1が動かされ何某かの操作が行われたものと判断し、図8Aに示したステップS101に戻る。その後、認証判定部182は、ステップS101以降の処理を実行する。
また、端末装置1の角度の変化が、予め定められた設定値の角度以下の場合(ステップS121;YES)、認証判定部182は、ユーザにより端末装置1が動かされていないものと判断する。続いて、認証判定部182は、ユーザを認証するタイミングになったか否かを判定する(ステップS122)。ユーザを認証するタイミングは、予め設定された認証間隔の時間が経過したタイミングである。
ユーザを認証するタイミングになっている場合(ステップS122;YES)、認証判定部182は、図8Aに示したステップS101に戻る。その後、認証判定部182は、ステップS101以降の処理を実行する。ユーザを認証するタイミングになっていない場合(ステップS122;NO)、認証判定部182はステップS118に戻る。その後、認証判定部182は、ステップS118からステップS122を実行する。
ここで、図8Aに戻る。ステップS103において、認証判定部182の求めた顔の認証値が、認証用生体情報データベース172から取得した認証許容値以下ではない場合(ステップS103;NO)、認証判定部182は、音声認証処理を実行する(ステップS123)。
この顔の認証値が、認証用生体情報データベース172から取得した認証許容値以下ではない場合は、言い換えれば、ユーザの顔による認証が失敗した場合である。例えば、端末装置1を鞄、ポケット等に仕舞ったままで使用する場合には、ユーザの顔画像が取得ないためユーザの顔による認証が失敗する。また、例えば、端末装置1を離れた位置からハンズフリーで使用する場合、ユーザの顔画像を取得できても顔の像が不鮮明、画像内のユーザの顔の像が小さすぎて顔の認証値を求められない等の理由から、ユーザの顔による認証が失敗する。この場合、ユーザの音声による認証に切り替えることにより、安定してユーザを本人と認証することができる。なお、ユーザの音声による認証に切り替えられた状態は、特許請求の範囲における第2使用状態の一例である。
音声認証処理については、図12に示すフローチャートを参照しつつ、以下に説明する。認証判定部182は、ユーザの発声があるか否か判定する(ステップS501)。具体的には、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できる場合、ユーザの発声があるものと判定する。また、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できない場合、ユーザの発声がないものと判定する。なお、この音声入出力部12は、図1に示したマイクロフォン12Bとする。
ユーザの発声がない場合(ステップS501;NO)、認証判定部182は、戻り値に音声認証ができなかった旨を設定する(ステップS509)。また、ユーザの発声がある場合(ステップS501;YES)、認証判定部182は、図4に示した認証用情報取得部181に、音声入出力部12からユーザの音声を取得させる(ステップS502)。認証判定部182は、図4に示した音声認証処理部300に音声の認証値取得処理を実行させる(ステップS503)。音声の認証値取得処理については、図13A、図13Bに示すフローチャートを参照しつつ、以下に説明する。
まず、図13Aに示すフローチャートを参照する。図5に示した音声認証処理部300の単語取得部310は、図5に示した端末記憶部17から単語データベース175を取得する(ステップS601)。単語取得部310は、図12のステップS502で認証用情報取得部181が取得したユーザの音声のデータにフィラーがあるか否かを判定する(ステップS602)。具体的には、単語取得部310は、取得したユーザの音声のデータを最初から最後まで順次検索し、図6Bに示した単語データベース175のテーブルに記憶されているフィラーの単語の特徴量と、同じ特徴量が音声のデータに含まれているか否かを判定する。
ユーザの音声のデータにフィラーがない場合(ステップS602;NO)、図13BのステップS613に移動する。認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルに記憶された生体情報の種類「音声」に対応つけられた認証許容値よりも大きい値を、認証値として設定する(ステップS613)。これにより、音声による本人認証をできないようにする。
認証許容値よりも大きい値は、例えば、図7Aに示した認証用生体情報データベース172のテーブルに記憶された生体情報の種類「音声」に対応つけられた認証許容値に0.1を加算した値とする。なお、加算される値は任意の値とする。音声認証値作成部316は、音声の認証値取得処理を終了する。
ここで、図13AのステップS602に戻る。ユーザの音声のデータにフィラーがある場合(ステップS602;YES)、図5に示した音声認証処理部300の音声波形切出部311は、認証用情報取得部181で取得したユーザの音声のデータから、フィラーを切り出す(ステップS603)。具体的には、音声波形切出部311は、認証用情報取得部181で取得したユーザの音声のデータから、ステップS406で見つけたフィラーの単語に対応する部分の音声波形を切り出す。
認証判定部182は、フィラーの単語の出現回数と出現順位とを更新する(ステップS604)。具体的には、認証判定部182は、図6Bに示した単語データベース175のテーブルに記憶されているフィラーの単語の出現回数の値に1を加算する。続いて、認証判定部182は、単語データベース175は、フィラーの単語、その単語の音声の特徴量、および出現回数を、出現回数の多い順に昇順に並べなおす。
認証判定部182は、ステップS603で切り出したフィラーの単語の出現順位は、規定順位以内か否かを判定する(ステップS605)。フィラーの単語の出現順位が規定順位以内ではない場合(ステップS605;NO)、認証判定部182はステップS602に戻る。そして、認証判定部182は、ステップS602以降の各ステップを実行する。
また、フィラーの単語の出現順位が規定順位以内である場合(ステップS605;YES)、認証判定部182は、図5に示した音声認証処理部300の音声波形切出部311に、音声認証処理部300の時系列変化抽出部312へ切り出した音声波形を送信させる。ここで、図13Bに移る。時系列変化抽出部312は、受信した音声波形の高低をもとに、ピッチ特徴量を求める(ステップS606)。
図5に示した音声認証処理部300の時系列変化抽出部312は、ピッチ特徴量を音声認証処理部300の時系列変化照合部313に送信する。時系列変化照合部313は、図5に示した端末記憶部17から時系列モデルデータベース176を取得する。時系列変化照合部313は、図6Cに示した時系列モデルデータベース176のテーブルから、ステップS603で切り出した音声波形に対応するフィラーの単語の、ピッチ特徴量のデータを取得する(ステップS607)。
時系列変化照合部313は、時系列変化抽出部312から取得したピッチ特徴量のデータと、ステップS605で時系列モデルデータベース176から取得したピッチ特徴量のデータとを照合する(ステップS608)。続いて、音声波形切出部311は、図5に示した音声認証処理部300の声道特性抽出部314に、ステップS603で切り出した音声波形を送信する。声道特性抽出部314は、受信した音声波形から声道特性のデータを求める(ステップS609)。
声道特性抽出部314は、図5に示す端末記憶部17から声道特性モデルデータベース177を取得する。声道特性抽出部314は、図6Dに示した声道特性モデルデータベース177のテーブルに記憶された、ステップS603で切り出した音声波形に対応するフィラーの単語の声道特性のデータを取得する(ステップS610)。
声道特性照合部315は、声道特性抽出部314から取得した声道特性のデータと、ステップS610で声道特性モデルデータベース177から取得した声道特性のデータとを照合する(ステップS611)。図5に示した音声認証処理部300の音声認証値作成部316は、ステップS608で求めた時系列変化照合部313の照合結果と、声道特性照合部315の照合結果とを基に、音声の認証値を求める(ステップS612)。音声認証値作成部316は、音声の認証値取得処理を終了する。
ここで、図12に戻る。認証判定部182は、ステップS503で求めた音声の認証値が認証閾値以上か否か判定する(ステップS504)。音声の認証値が認証閾値以上である場合(ステップS504;YES)、認証判定部182は、音声の認証値は認証許容値以下か否か判定する(ステップS505)。また、音声の認証値が認証閾値以上でない場合(ステップS504;NO)認証判定部182は、戻り値に音声認証ができた旨を設定する(ステップS508)。
音声の認証値が認証許容値以下である場合(ステップS505;YES)、認証判定部182は、補助認証処理を実行する(ステップS506)。補助認証処理については、図10に示したフローチャートの処理を実行する。また、音声の認証値が認証許容値以下でない場合(ステップS505;NO)、認証判定部182は、戻り値に音声認証ができなかった旨を設定する(ステップS509)。
認証判定部182は、補助認証ができたか否か判定する(ステップS507)。補助認証ができた場合(ステップS507;YES)、認証判定部182は、戻り値に音声認証ができた旨を設定する(ステップS508)。また、補助認証ができなかった場合(ステップS507;NO)、認証判定部182は、戻り値に音声認証ができなかった旨を設定する(ステップS509)。認証判定部182は、音声認証処理を終了する。
ここで、図8Aに戻る。認証判定部182は、音声認証ができたか否か判定する(ステップS124)。音声認証ができた場合(ステップS124;YES)、認証判定部182は、音声の認証値を更新する(ステップS125)。具体的には、認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルに記憶された生体情報の種類「音声」に対応つけられた認証値の平均値に、図13に示したステップS610で求めた音声の認証値を足して2で割り、平均値を求める。認証判定部182は、求めた音声の認証値の平均値を図7Aに示した認証用生体情報データベース172のテーブルに記憶する。
認証判定部182は、図5に示した端末記憶部17に記憶した時系列モデルデータベース176と声道特性モデルデータベース177を更新する(ステップS126)。具体的には、認証判定部182は、図5に示した音声認証処理部300の時系列抽出部312に、図13に示したステップS604で求めたピッチ特徴量のデータを、時系列モデルデータベース176にフィラーの単語と対応つけて記憶させる。
認証判定部182は、図5に示した音声認証処理部300の声道特性抽出部314に、図13に示したステップS607で求めた声道特性のデータを、声道特性モデルデータベース177にフィラーの単語と対応つけて記憶させる。認証判定部182は、ステップS101に戻り、ステップS101以降の処理を実行する。
また、ステップS124において、音声認証ができなかった合(ステップS124;NO)、認証判定部182は、端末装置1を使用しているユーザをユーザ本人ではないと判断する。認証判定部182は、図4に示した認証結果表示部183に、表示部19へ認証できなかった旨を表示させる。続いて、認証判定部182は、端末装置1に備えられている既存の生体認証手段を呼び出す。ここでは、既存の生体認証手段として指紋認証を呼び出すものとする。認証判定部182は、指紋認証を実行する(ステップS127)。なお、端末装置1に備えられている既存の生体認証手段で用いられる各種生体情報は、特許請求の範囲における四の認証情報の一例である。
指紋認証ができた場合(ステップS128;YES)、認証判定部182からの指示により、認証用情報取得部181は、撮影部11に端末装置1を操作しているユーザの顔写真を撮影させる。認証用情報取得部181は、撮影部11から撮影したユーザの顔写真の画像を取得し、ユーザの顔の画像の特徴量を求める。認証用情報取得部181は、認証判定部182に求めたユーザの顔の画像の特徴量を送信する。認証判定部182は、受信したユーザの顔の画像の特徴量を図4に示した認証用情報更新部184に送信する。認証用情報更新部184は、受信したユーザの顔の画像の特徴量を、図7Aに示した認証用生体情報データベース172のテーブルの生体情報の種類「顔」に対応つけられた登録情報に記憶されていた顔画像の特徴量に加え、更新する(ステップS129)。認証判定部182は、ステップS101へ戻り、ステップS101以降のステップを実行する。
また、指紋認証ができなかった場合(ステップS128;NO)、認証判定部182は、図4に示した認証結果表示部183にログイン画面を表示部19に表示させる(ステップS110)。このログイン画面は、パスワードの入力、指紋認証等の端末装置1に含まれるOSによる本人認証である。
なお、上記の実施の形態1において、生体情報から求められた認証値と認証閾値とが同じ値となった場合には、生体情報から求められた認証値が認証閾値以下、または、生体情報から求められた認証値が認証閾値以上の、どちらの場合として、認証が成功したか否かを判定してもよい。また、生体情報から求められた認証値と認証許容値とが同じ値となった場合には、生体情報から求められた認証値が認証許容値以下、または、生体情報から求められた認証値が認証許容値以上の、どちらの場合として、認証が成功したか否かを判定してもよい。
以上の通り、上記実施の形態1に係る端末装置1は、ユーザ本人の顔の画像、指紋、音声等の生体情報と、ユーザが端末装置1を操作する際の特有の挙動、操作状態等による振舞情報とに基づいて、ユーザ本人を認証し、端末装置1における各種機能を実行することができる。特に、端末装置1で用いられる音声認証は、通常の発話に含まれるフィラーに基づいてユーザを認証することができるため、ユーザの負担を軽減し簡易に使用者を認証することがきる。
また、端末装置1を鞄、ポケット等にいれたまま使用する場合といった、端末装置1の使用状況によってユーザ本人の顔の画像によってユーザ本人を認証できなかった場合に、ユーザ本人の音声によりユーザ本人を認証できるものとする。これにより、端末装置1の使用状態に関わらず、安定して使用者を認証することがきる。
さらに、端末装置1において行われるユーザの認証処理は、端末装置1の稼働中、バックグラウンドで実行されるとともに、ユーザの生体情報と振舞情報とを更新していくことにより、認証の精度を向上させることができる。これにより、使用者に操作の負担をかけることなく、セキュリティを確保することができる。
(実施の形態2)
実施の形態1では、ユーザ本人の顔の画像によってユーザ本人を認証できなかった場合に、ユーザ本人の音声によりユーザ本人を認証できるものとした。これに限らず、ユーザ本人の音声によりユーザ本人を認証できなかった場合に、ユーザ本人の顔の画像によりユーザ本人を認証できるものとしてもよい。これにより、ユーザを認証するための生体情報の種類と順番とを変更しても認証をすることができるため、ユーザの利便性を向上させることができる。この認証処理について、実施の形態2の認証処理として以下に示す。
本実施の形態2に係る端末装置1は、電源投入後処理のイニシャライズ処理の実行が完了すると、もしくは、スリープ状態から復帰すると、認証が成功するまで各機能の操作を許さないロック状態に入る。このロック状態に入る、若しくは、各機能の操作を行う際に認証が要求されると、図2に示した端末制御部18は、端末記憶部17に記憶された認証処理プログラム170および音声認証処理プログラム171を実行し、ユーザがユーザ本人か否かを判別する。端末制御部18により実行される認証処理プログラム170および音声認証処理プログラム171の処理について、図14Aから図16に示す各処理のフローチャートを参照しつつ、以下に説明する。
まず、図14Aに示す認証処理のフローチャートを参照する。図4に示した端末制御部18は、声認証値取得処理を実行する(ステップS701)。声認証値取得処理については、図15に示す声認証値取得処理のフローチャートを参照しつつ、以下に説明する。
認証判定部182は、ユーザの発声があるか否か判定する(ステップS801)。具体的には、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できる場合、ユーザの発声があるものと判定する。また、認証判定部182は、認証用情報取得部181により、図4に示した音声入出力部12からユーザの音声を取得できない場合、ユーザの発声がないものと判定する。なお、この音声入出力部12は、図1に示したマイクロフォン12Bとする。
ユーザの発声がない場合(ステップS801;NO)、認証用情報取得部181は、認証判定部182に、図7Aに示した認証用生体情報データベース172のテーブルに記憶された生体情報の種類「音声」に対応つけられた認証許容値よりも大きい値を、認証値として設定する(ステップS804)。認証許容値よりも大きい値は、例えば、認証用生体情報データベース172のテーブルに記憶された生体情報の種類「音声」に対応つけられた認証許容値に0.1を加算した値とする。なお、加算される値は任意の値とする。
その後、認証判定部182は、声認証値所得処理を終了する。なお、ユーザの発声を検出できない場合、今操作しているユーザにこれ以上操作をさせないようにロックをかける、他の認証方法を利用する旨のメッセージを表示する等をしてもよい。
また、ユーザの発声がある場合(ステップS801;YES)、認証判定部182は、図4に示した認証用情報取得部181に、音声入出力部12からユーザの音声を取得させる(ステップS802)。認証判定部182は、図4に示した音声認証処理部300に音声の認証値取得処理を実行させる(ステップS803)。音声の認証値取得処理については、図13A、図13Bに示したフローチャートのステップS601からステップS613を実行するものとする。認証判定部182は、声認証値所得処理を終了する。
ここで、図14Aに戻る。認証判定部182は、声認証値取得処理で求めた音声の認証値が認証用生体情報データベース172から取得した認証閾値以上か否か判定する(ステップS702)。声認証値取得処理で求めた音声の認証値が認証閾値以上の場合(ステップS702;YES)、認証判定部182は、求めた音声の認証値が認証用生体情報データベース172から取得した認証許容値以下か否か判定する(ステップS703)。
求めた音声の認証値が認証許容値以下の場合(ステップS703;YES)、端末装置1を使用しているユーザは、ユーザ本人か否かグレーである。このため、認証判定部182は、振舞情報による認証の処理である補助認証処理を実行する(ステップS704)。補助認証処理については、図10に示したフローチャートのステップS301からステップS309を実行するものとする。
認証判定部182は、ステップS705からステップS710を実行する。ステップS705からステップS710は、図8Aに示したステップS105からステップS110と同様である。
ステップS702において、声認証値取得処理で求めた音声の認証値が認証閾値以上ではない場合(ステップS702;NO)、ステップS705で補助認証ができた場合(ステップS705;YES)、ステップS707で音声入力されたキーワードが正しい場合(ステップS707;YES)、または、ステップS709で入力されたパスワードが正しい場合(ステップS709;YES)、認証判定部182は、図5に示した端末記憶部17に記憶した時系列モデルデータベース176と声道特性モデルデータベース177を更新する(ステップS711)。具体的には、認証判定部182は、図5に示した音声認証処理部300の時系列抽出部312に、図13Bに示したステップS606で求めたピッチ特徴量のデータを、時系列モデルデータベース176にフィラーの単語と対応つけて記憶させる。
認証判定部182は、図4に示した認証用情報更新部184に、図2に示した認証用生体情報データベース172及び認証用振舞情報データベース173に記憶された各種データを更新させる(ステップS712)。具体的には、認証用情報更新部184は、図7Aに示した認証用生体情報データベース172のテーブルの生体情報の種類「顔」に対応つけられた登録情報に、登録情報に記憶されていた顔画像の特徴量に認証判定部182が認証用情報取得部181から受信した顔画像の特徴量を加え、登録情報を更新する。
続いて、認証用情報更新部184は、図7Bに示した認証用振舞情報データベース173のテーブルの振舞の種類「通信接続」に対応つけられた最新状況に記憶されている回数に1を加え、更新する。また、図7Bに示した認証用振舞情報データベース173のテーブルに記憶されている振舞の種類「顔と端末装置との距離」に対応つけられた最新状況を、記憶されている平均距離と図10に示したステップS305で算出された「顔と端末装置との距離」から求められた平均距離で更新する。
このように、認証用生体情報データベース172に記憶された生体情報、及び、認証用振舞情報データベース173に記憶された振舞情報を更新することにより、ユーザの生体情報及び振舞情報の精度が向上する。このため、ユーザの認証の精度を向上させることができる。
続いて、認証判定部182は、図14Bに示すフローチャートのステップS713からステップS722を実行する。ステップS713からステップS722の処理は、図8Bに示したフローチャートのステップS113からステップS122の処理と同様である。
ここで、図14Aに戻る。ステップS703において、認証判定部182の求めた音声の認証値が、認証用生体情報データベース172から取得した認証許容値以下ではない場合(ステップS103;NO)、認証判定部182は、顔認証処理を実行する(ステップS723)。顔認証処理については、図16に示すフローチャートを参照しつつ、以下に説明する。
認証判定部182は、顔認証値取得処理を実行する(ステップS901)。顔認証値取得処理ついては、図9に示したフローチャートのステップS201からステップS209を実行するものとする。
認証判定部182は、ステップS901の顔認証値取得処理で求めた顔の認証値が、認証用生体情報データベース172から取得した認証閾値以上か否か判定する(ステップS902)。顔の認証値が認証閾値以上ではない場合(ステップS902;NO)、認証判定部182は、ステップS906に進み、顔認証処理ができた旨を戻り値として設定する(ステップS906)。また、顔の認証値が認証閾値以上の場合(ステップS902;YES)、認証判定部182は、求めた顔の認証値が認証用生体情報データベース172から取得した認証許容値以下か否か判定する(ステップS903)。
認証判定部182の求めた顔の認証値が、認証用生体情報データベース172から取得した認証許容値以下ではない場合(ステップS903;NO)、認証判定部182は、ステップS907に進み、顔認証処理ができなかった旨を戻り値として設定する(ステップS907)。
また、認証判定部182の求めた顔の認証値が、認証用生体情報データベース172から取得した認証許容値以下であった場合(ステップS903;YES)、認証判定部182は、補助認証処理を実行する(ステップS904)。補助認証処理については、図10に示したフローチャートのステップS301からステップS309を実行するものとする。
認証判定部182は、補助認証ができたか否か判定する(ステップS905)。補助認証ができた場合(ステップS905;YES)、認証判定部182は、顔認証処理ができた旨を戻り値として設定する(ステップS906)。また、補助認証ができなかった場合(ステップS905;NO)、認証判定部182は、顔認証処理ができなかった旨を戻り値として設定する(ステップS907)。認証判定部182は、顔認証処理を終了する。
ここで、図14Aに戻る。認証判定部182は、顔認証ができたか否か判定する(ステップS724)。顔認証ができた場合(ステップS724;YES)、認証判定部182は、顔の認証値を更新する(ステップS725)。具体的には、まず、認証判定部182は、図7Aに示した認証用生体情報データベース172のテーブルから、生体情報の種類のうち「顔」に対応付けられた認証値の平均値を取得する。続いて、認証判定部182は、取得した顔の認証値の平均値とステップS723の顔認証処理で取得した顔の認証値とを足して2で割り、顔の認証値の平均値を算出する。認証判定部182は、算出した顔の認証値の平均値を、図7A示した認証用生体情報データベース172のテーブルの、生体情報の種類のうち「顔」に対応付けられた認証値の平均値の欄に書き込み、更新する。
認証判定部182は、音声取得処理を実行する(ステップS725)。音声取得処理については、図12に示したフローチャートのステップS501からステップS509を実行するものとする。
また、ステップS724において、顔認証ができなかった場合(ステップS724;NO)、認証判定部182は、端末装置1を使用しているユーザをユーザ本人ではないと判断する。認証判定部182は、図4に示した認証結果表示部183に、表示部19へ認証できなかった旨を表示させる。続いて、認証判定部182は、端末装置1に備えられている既存の生体認証手段を呼び出す。ここでは、既存の生体認証手段として指紋認証を呼び出すものとする。認証判定部182は、指紋認証を実行する(ステップS727)。
続いて、認証判定部182は、ステップS728、ステップS729を実行する。ステップS728、ステップS729の処理は、図8Aに示したステップS128、ステップS129の処理と同様である。認証判定部182は、ステップS701へ戻り、ステップS701以降のステップを実行する。
なお、実施の形態2においては、上記の実施の形態1と同様に、生体情報から求められた認証値と認証閾値とが同じ値となった場合には、生体情報から求められた認証値が認証閾値以下、または、生体情報から求められた認証値が認証閾値以上の、どちらの場合として、認証が成功したか否かを判定してもよい。また、生体情報から求められた認証値と認証許容値とが同じ値となった場合には、生体情報から求められた認証値が認証許容値以下、または、生体情報から求められた認証値が認証許容値以上の、どちらの場合として、認証が成功したか否かを判定してもよい。
以上の通り、上記実施の形態2に係る端末装置1は、実施の形態1の効果に加えて、ユーザ本人の顔の画像によってユーザ本人を認証できなかった場合に、ユーザ本人の音声によりユーザ本人を認証できるものとすることができる。これにより、ユーザを認証するための生体情報の種類と順番とを変更しても認証をすることができるため、ユーザの利便性を向上させることができる。
(変形例1)
上記の実施の形態1および2において、ユーザの生体情報による認証として、ユーザの顔画像による認証と、音声認証と、指紋認証とを使用した。これに限らず、ユーザの生体情報による認証は、指静脈認証、虹彩認証等、いずれの方法であってもよい。また、上記の実施の形態においては、補助認証を使用する判定の条件としてユーザの顔画像による認証と音声認証とを使用したが、他の生体情報による判定結果に応じて補助認証を使用するようにしてもよい。
(変形例2)
上記の実施の形態1および2では、ユーザの認証処理を図2に示した認証処理プログラム170を実行することにより実現するものとした。この認証処理プログラム170で行われる各ステップの全部または一部を、ASIC(Application Specific Integrated Circuit)、システムLSI(Large-scale Integration)等の半導体チップ、各種回路素子により構成される回路等により実現するようにしてもよい。
(変形例3)
上記の実施の形態1および2において、補助認証の判定条件として信頼する接続先への接続、信頼するイベントの実行、ユーザの顔と端末装置1との顔の距離を用いた。これに限らず、他の方法を用いる又は含めても良い。例えば、ユーザ本人が所有するデバイスと端末装置1とをBluetooth(登録商標)で接続しているか否かを判定し、接続している場合にユーザ本人と認証する。Bluetooth(登録商標)により接続される機器を使用するためには、機器同士を「ペアリング」する必要がある。このため、Bluetooth(登録商標)による機器の接続は、個人の特定性が強く、補助認証として利用することでユーザ本人を認証することが可能である。また、さらに、図2に示した位置検出部16により取得したユーザの行動ルートのパターン、規則性等により、ユーザ本人か否かを判定し、行動ルートのパターン、規則性等が一致する場合にユーザ本人と認証としてもよい。
(変形例4)
上記の実施の形態1および2においては、補助認証のうち、一つの認証が成功した場合に、ユーザ本人と認証した。これに限らず、複数の補助認証がすべて成功した場合にのみユーザ本人と認証するようにしてもよい。これにより、さらに認証の精度を高めることができる。
(変形例5)
上記の実施の形態1および2において、生体認証及び補助認証が成功した場合、図10に示したフローチャートのステップS302において認証判定部182は、認証間隔を現在の認証間隔よりも長くし、認証の頻度を下げている。しかしながら、これに限らず、生体認証及び補助認証が成功した場合、認証間隔を現在の認証間隔よりも長くせずにおき、認証の頻度を下げなくてもよい。具体的には、図10に示したフローチャートのステップS302を行わなくてもよい。
(変形例6)
上記の実施の形態1および2において、ユーザの認証が成功し、ユーザが継続的に端末装置1を操作し続ける状態、且つ端末装置1の傾きの変更がない場合、ユーザ本人が端末装置1を操作し続けているものと判断することができる。この場合、生体認証の認証閾値及び認証許容値を緩めに設定する、認証間隔を長くする等してもよい。こうすることにより、ユーザ本人に対する必要最低限の認証をバックグラウンドで行いつつ、端末装置1のリソースの利用を節約する事ができる。
(変形例7)
上記の実施の形態1および2において、予め定められた認証間隔によりバックグラウンドでの認証を行うようにした。これに限らず、認証のタイミング及び間隔を定めず、ランダムにバックグラウンドで認証を行うようにしてもよい。例えば、端末装置1に搭載されている各種センサの何れかにより、端末装置1の位置の変更、傾きの変更などの空間的な変化があった場合に、随時認証を行うようにしてもよい。また、ユーザが端末装置1に対し特別な処理を行うための操作、イレギュラーな操作等を行った場合に、認証を行うようにしてもよい。
(変形例8)
上記の実施の形態1の図8Aに示した認証処理のステップS112および上記の実施の形態2の図14Aに示したステップS712では、認証判定部182は、図4に示した認証用情報更新部184に、図2に示した認証用生体情報データベース172及び認証用振舞情報データベース173に記憶された各種データの登録情報を更新させるものとした。これに限らず、認証判定部182は、例えば、予め定められた回数だけユーザ本人を認証できた場合、予め定められた時間を経過した場合等に、認証用情報更新部184に、認証用生体情報データベース172及び認証用振舞情報データベース173に記憶された各種データの登録情報を更新させるものとしてもよい。
また、上記の実施の形態1の図8Aに示した認証処理のステップS112および上記の実施の形態2の図14Aに示したステップS712では、認証判定部182は、認証用情報更新部184に、認証用生体情報データベース172及び認証用振舞情報データベース173に記憶された各種データの登録情報のうち、一部を更新させるようにしてもよい。
(変形例9)
上記の実施の形態1において、図8Aに示した認証処理では、ユーザの顔画像によるユーザ本人の認証ができなかった場合に、音声によるユーザ本人の認証をするものとした。これに限らず、例えば、バックグラウンドにおいて、常時ユーザの音声を取得し、音声によるユーザ本人の認証をしてもよい。また、この場合、ユーザ本人の認証が必要になった際に、直前にバックグラウンドで音声による認証が成功していた場合には、認証は成功したものとしてもよい。
また、直前にバックグラウンドでの音声の認証がされていない、音声による認証が失敗していた等の場合に、例えば、ユーザの顔画像によるユーザ本人の認証、指紋認証等の他の生体認証をしてもよい。さらに、ユーザの顔画像によるユーザ本人の認証、指紋認証等の他の生体認証が失敗した場合には、再度、明示的にユーザに発声させ、音声による認証をするようしてもよい。
(変形例10)
上記の実施の形態1および2において、図6Bに示した単語データベース175に記憶されたフィラーの単語は、各々一語とした。これに限らず、複数のフィラーの単語を、例えば、話中によく出る組み合わせで単語データベース175に記憶するようにしてもよい。また、フィラーの単語だけではなく、接続詞、副詞、感動詞等、多種の単語を組み合わせてもよい。
(変形例11)
上記の実施の形態1および2では、図6Bに示した単語データベース175に記憶されたフィラーの単語がユーザの発話に含まれている場合に、そのフィラーの単語のピッチ特徴量および声道特性を抽出し、図6Cに示した時系列モデルデータベース176および図6Dに示した声道特性モデルデータベース177に記憶された各種データを追加または更新するものとした。これに限らず、予め、ユーザがよく言うフィラーの単語を図6Bに示した単語データベース175に記憶しておき、さらにその単語のピッチ特徴量および声道特性を、図6Cに示した時系列モデルデータベース176および図6Dに示した声道特性モデルデータベース177に記憶しておくようにしても良い。これにより、ユーザは、端末装置1を使い始めた時からフィラーによるユーザの認証を利用することができる。
さらに、予め単語データベース175等に記憶されたフィラーの単語に関連する各種データは、そのフィラーの単語がユーザの発話に含まれる場合に、ユーザの発話の音声のデータを基に更新するようにしてもよい。さらに、ユーザの発話に予め単語データベース175等に記憶されていない新たなフィラーの単語が含まれる場合には、新たなフィラーの単語に関連する各データを単語データベース175等に追加するようにしてもよい。これにより、予め登録されたフィラーの単語に関連する各種データを更新し、さらに、ユーザの発話に含まれる新たなフィラーの単語もユーザの認証に用いることができるため、フィラーの単語によるユーザの認証の精度を向上することができる。
また、本発明の実施の形態1および2では、端末装置1は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、端末装置1における各機能を実現するためのプログラムを、コンピュータが読み取り可能なCD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)などの記録媒体に格納して配布し、このプログラムをコンピュータにインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。そして、各機能をOS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協同により実現する場合には、アプリケーションのみを記録媒体に格納してもよい。
なお、本発明の技術的範囲は、上記実施の形態と変形例によっては限定されない。本発明は特許請求の範囲に記載された技術的思想の限りにおいて、自由に応用、変形あるいは改良して、実施することができる。
1 端末装置、10 通信部、11 撮影部、11A インカメラ、11B メインカメラ、12 音声入出力部、12A スピーカ、12B マイクロフォン、13 傾き検出部、14 操作入力部、15 指紋検出部、15A 左指紋センサ、15B 右指紋センサ、16 位置検出部、17 端末記憶部、18 端末制御部、19 表示部、21 プロセッサ、22 メモリ、23 表示コントローラ、24 表示機器、25 I/Oポート、26 記憶機器、27 通信機器、28 データバス、170 認証処理プログラム、171 音声認証処理プログラム、172 認証用生体情報データベース、173 認証用振舞情報データベース、174 傾き情報テーブル、175 単語データベース、176 時系列モデルデータベース、177 声道特性モデルデータベース、181 認証用情報取得部、182 認証判定部、183 認証結果表示部、184 認証用情報更新部、300 音声認証処理部、310 単語取得部、311 音声波形切出部、312 時系列抽出部、313 時系列変化照合部、314 声道特性抽出部、315 声道特性照合部、316 音声認証値作成部。

Claims (10)

  1. 複数の認証情報を取得する認証用情報取得部と、
    前記認証用情報取得部で取得した前記複数の認証情報のうち音声のデータに基づいてユーザを認証するための音声の認証値を作成するための処理を実行する音声認証処理部と、
    前記音声認証処理部が作成した前記音声の認証値に基づいて、認証が成功したか否かを判定する認証判定部と、
    を備え、
    前記音声認証処理部は、前記音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて、前記音声の認証値を作成する処理を実行し、
    前記認証判定部は、前記音声認証処理部で作成された前記音声の認証値が、予め定められた認証閾値未満の場合に、認証が成功したと判定し、前記音声の認証値が前記認証閾値以上、且つ、前記認証閾値に前記ユーザがグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値による認証が失敗したものとして前記認証用情報取得部で取得した他の認証情報である一の認証情報に基づいて認証が成功したか否かを判定する、
    端末装置。
  2. 複数のデータを記憶する端末記憶部と、
    前記音声認証処理部は、前記音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量のデータを求める時系列変化抽出部と、前記フィラーの音声波形から前記声道特性のデータを求める声道特性抽出部と、前記端末記憶部に記憶された前記フィラーに対応するピッチ特徴量のデータおよび声道特性のデータと、前記時系列変化抽出部で求めた前記ピッチ特徴量および声道特性抽出部で求めた声道特性のデータを照合した照合結果に基づいて前記音声の認証値を作成する音声認証値作成部とを含む、
    請求項1に記載の端末装置。
  3. 前記一の認証情報は、前記音声のデータとは異なる生体情報のデータであり、
    前記認証判定部は、さらに、前記一の認証情報が前記認証閾値以上、且つ、前記認証許容値未満の場合、前記認証用情報取得部で取得した前記一の認証情報とは異なる二の認証情報に基づいて認証が成功したか否かを判定する、
    請求項1また2に記載の端末装置。
  4. 前記認証判定部は、さらに、前記二の認証情報に基づく認証を失敗と判定した場合に、前記認証用情報取得部で取得した三の認証情報に基づいて認証が成功したか否かを判定する、
    請求項3に記載の端末装置。
  5. 前記二の認証情報は、前記認証用情報取得部で取得された前記一の認証情報の生体情報とは異なるユーザの第2生体情報であり、
    前記三の認証情報は、ユーザの特有の挙動を含む振舞情報である、
    請求項4に記載の端末装置。
  6. 複数の認証情報を取得する認証用情報取得部と、
    前記認証用情報取得部で取得した前記複数の認証情報のうち少なくとも一つの認証情報または複数の認証情報に基づいて、認証が成功したか否かを判定する認証判定部と、
    前記認証用情報取得部で取得した前記複数の認証情報のうち音声のデータに基づいてユーザを認証するための音声の認証値を作成するための処理を実行する音声認証処理部と、
    を備え、
    前記音声認証処理部は、前記音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて、前記音声の認証値を作成する処理を実行し、
    前記認証判定部は、前記認証用情報取得部で取得した前記複数の認証情報のうち前記音声のデータとは異なる一の認証情報と自身に登録された一の登録情報とを比較して求めた第1認証値が予め定められた認証閾値未満の場合に認証が成功したと判定し、前記第1認証値が前記認証閾値にユーザが本人か否かグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声認証処理部で作成された前記音声の認証値に基づいて認証が成功したか否かを判定する、
    端末装置。
  7. 端末装置が実行する情報処理方法であって、
    複数の認証情報を取得し、
    取得した前記複数の認証情報のうち、音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて音声の認証値を作成し、
    作成された前記音声の認証値が、予め定められた認証閾値未満の場合に、認証が成功したと判定し、前記音声の認証値が前記認証閾値以上、且つ、前記認証閾値にユーザがグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値による認証が失敗したものとして他の認証情報に基づいて認証が成功したか否かを判定する、
    情報処理方法。
  8. 端末装置が実行する情報処理方法であって
    複数の認証情報を取得し、
    取得した前記複数の認証情報のうち音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて、ユーザを認証するための音声の認証値を作成し、
    取得した前記複数の認証情報のうち前記音声のデータとは異なる一の認証情報と自身に登録された一の登録情報とを比較して求めた第1認証値が予め定められた認証閾値未満の場合に認証が成功したと判定し、前記第1認証値が前記認証閾値にユーザが本人か否かグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値に基づいて認証が成功したか否かを判定する、
    情報処理方法。
  9. コンピュータに、
    複数の認証情報を取得する処理、
    取得した前記複数の認証情報のうち、音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて音声の認証値を作成する処理、
    作成された前記音声の認証値が、予め定められた認証閾値未満の場合に、認証が成功したと判定し、前記音声の認証値が前記認証閾値以上、且つ、前記認証閾値にユーザがグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値による認証が失敗したものとして他の認証情報に基づいて認証が成功したか否かを判定する処理、
    を実行させるためのプログラム。
  10. コンピュータに、
    複数の認証情報を取得する処理、
    取得した前記複数の認証情報のうち音声のデータに含まれるフィラーの音の高低を示すピッチ特徴量および前記フィラーの音声波形から求めた声道特性のデータに基づいて、ユーザを認証するための音声の認証値を作成する処理、
    取得した前記複数の認証情報のうち前記音声のデータとは異なる一の認証情報と自身に登録された一の登録情報とを比較して求めた第1認証値が予め定められた認証閾値未満の場合に認証が成功したと判定し、前記第1認証値が前記認証閾値にユーザが本人か否かグレーな場合を示す認証許容範囲値を含めた値である認証許容値以上の場合に、前記音声の認証値に基づいて認証が成功したか否かを判定する処理、
    を実行させるためのプログラム。
JP2021165354A 2021-10-07 2021-10-07 端末装置、情報処理方法、及びプログラム Active JP7015408B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021165354A JP7015408B1 (ja) 2021-10-07 2021-10-07 端末装置、情報処理方法、及びプログラム
PCT/JP2022/034511 WO2023058424A1 (ja) 2021-10-07 2022-09-15 端末装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021165354A JP7015408B1 (ja) 2021-10-07 2021-10-07 端末装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP7015408B1 true JP7015408B1 (ja) 2022-02-02
JP2023056179A JP2023056179A (ja) 2023-04-19

Family

ID=80781083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021165354A Active JP7015408B1 (ja) 2021-10-07 2021-10-07 端末装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7015408B1 (ja)
WO (1) WO2023058424A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185117A (ja) 2018-04-02 2019-10-24 積水ハウス株式会社 雰囲気推測装置
WO2021075012A1 (ja) 2019-10-17 2021-04-22 日本電気株式会社 話者認証システム、方法およびプログラム
JP6926351B1 (ja) 2021-02-01 2021-08-25 真旭 徳山 端末装置、情報処理方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2965537B2 (ja) * 1997-12-10 1999-10-18 株式会社エイ・ティ・アール音声翻訳通信研究所 話者クラスタリング処理装置及び音声認識装置
JP6719127B2 (ja) * 2016-07-07 2020-07-08 学校法人立命館 音声認識装置、音声認識方法及びコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185117A (ja) 2018-04-02 2019-10-24 積水ハウス株式会社 雰囲気推測装置
WO2021075012A1 (ja) 2019-10-17 2021-04-22 日本電気株式会社 話者認証システム、方法およびプログラム
JP6926351B1 (ja) 2021-02-01 2021-08-25 真旭 徳山 端末装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2023056179A (ja) 2023-04-19
WO2023058424A1 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
CN110414191B (zh) 信息处理装置和系统
US9807611B2 (en) Electronic device and voiceprint authentication method
CN104937603B (zh) 终端、解锁方法和程序
CN110178179B (zh) 用于向电子设备用户认证的语音签名
US8316436B2 (en) User-defined multiple input mode authentication
US9119068B1 (en) Authentication using geographic location and physical gestures
EP3624120A1 (en) Method and device for determining karaoke score
CN108141445B (zh) 用于人员重新识别的系统和方法
WO2020218084A1 (ja) リモコン装置、情報処理方法及びプログラム
JP7203955B2 (ja) 顔認識方法および装置
US11494472B2 (en) Voice activated authentication
JP6926351B1 (ja) 端末装置、情報処理方法、及びプログラム
JP7015408B1 (ja) 端末装置、情報処理方法、及びプログラム
JP6979135B2 (ja) 端末装置、情報処理方法、及びプログラム
JP6946592B1 (ja) 認証システム、認証装置、認証方法、及びプログラム
US20140270399A1 (en) Use of unknown user data for identifying known users
JP2015095207A (ja) 携帯端末装置
JP2008084111A (ja) 認証装置、方法及びプログラム
JP6964174B1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7012190B1 (ja) 認証装置、認証方法、認証システム、及びプログラム
JP7433018B2 (ja) 情報処理システム、情報処理方法、及びプログラム
US11910196B1 (en) Dynamic keyboard for electronic computing device
TWI468983B (zh) 服務啟動方法及系統
JP2021140520A (ja) 個人認証システム、および個人認証方法
KR20230068901A (ko) 차량의 hmi 모드 제공방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220121

R150 Certificate of patent or registration of utility model

Ref document number: 7015408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150