JP2017151735A - Portable device and program - Google Patents
Portable device and program Download PDFInfo
- Publication number
- JP2017151735A JP2017151735A JP2016033716A JP2016033716A JP2017151735A JP 2017151735 A JP2017151735 A JP 2017151735A JP 2016033716 A JP2016033716 A JP 2016033716A JP 2016033716 A JP2016033716 A JP 2016033716A JP 2017151735 A JP2017151735 A JP 2017151735A
- Authority
- JP
- Japan
- Prior art keywords
- vibration
- portable device
- authentication
- data
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Details Of Audible-Bandwidth Transducers (AREA)
Abstract
Description
本発明は、本人認証に使用する携帯型デバイス及びプログラムに関する。 The present invention relates to a portable device and a program used for personal authentication.
従来、音声を使用して本人認証をする端末が開示されている(例えば、特許文献1)。特許文献1で開示されている端末は、音声を受け付け、声紋認証を行って本人であるか否かを判定し、また、音声認識の結果を用いてアプリケーションを実行する。
Conventionally, a terminal that performs personal authentication using voice has been disclosed (for example, Patent Document 1). The terminal disclosed in
上述の端末では、その端末の使用者の音声を予め録音しておき、使用者以外の者が録音した音声を用いた場合であっても、認証してしまう。そのため、使用者以外の者が、使用者になりすましてアプリケーションを実行できてしまうものであった。
そこで、本発明は、よりセキュリティを向上させた携帯型デバイス及びプログラムを提供することを目的とする。
In the terminal described above, the voice of the user of the terminal is recorded in advance, and authentication is performed even when voice recorded by a person other than the user is used. Therefore, a person other than the user can execute the application by impersonating the user.
Accordingly, an object of the present invention is to provide a portable device and a program with further improved security.
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、人体に装着してその人が発する音に関する振動を検知する振動検知部と、前記振動検知部が検知した振動のパターンに基づき、認証を許可する振動に関するデータを記憶した振動パターン記憶部を参照して認証を行う振動認証手段と、前記振動認証手段により認証された場合に、特定の処理を行う特定処理手段と、を備える携帯型デバイスである。
第2の発明は、第1の発明の携帯型デバイスにおいて、前記振動検知部が検知した振動のパターンを分析し、個人ごとに固有の特徴量を抽出する特徴量抽出手段を備え、前記振動パターン記憶部は、認証を許可する前記特徴量を記憶し、前記振動認証手段は、前記特徴量抽出手段によって抽出された特徴量と、予め前記振動パターン記憶部に記憶された特徴量とを照合して認証を行うこと、を特徴とする携帯型デバイスである。
第3の発明は、第1の発明又は第2の発明の携帯型デバイスにおいて、前記振動検知部が検知した振動を音声に変換して音声認識する音声認識手段を備え、前記特定処理手段は、前記振動認証手段により認証された場合に、前記音声認識手段により音声認識された前記音声の内容に基づく処理を行うこと、を特徴とする携帯型デバイスである。
第4の発明は、第3の発明の携帯型デバイスにおいて、前記振動認証手段による処理と、前記音声認識手段による処理とを並行して行うこと、を特徴とする携帯型デバイスである。
第5の発明は、第1の発明から第4の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部は、骨伝導マイクであること、を特徴とする携帯型デバイスである。
第6の発明は、第1の発明から第4の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部は、咽喉マイクであること、を特徴とする携帯型デバイスである。
第7の発明は、第1の発明から第6の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部が検知した振動を音声に変換し、個人ごとに固有の声紋データを抽出する声紋抽出手段と、認証を許可する前記声紋データを記憶する声紋記憶部と、前記声紋抽出手段によって抽出された声紋データと、予め前記振動パターン記憶部に記憶された声紋データとを照合して認証を行う声紋認証手段と、を備え、前記特定処理手段は、前記振動認証手段により認証され、かつ、前記声紋認証手段により認証された場合に、特定の処理を行うこと、を特徴とする携帯型デバイスである。
第8の発明は、第1の発明から第7の発明までのいずれかの携帯型デバイスとしてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following means.
According to a first aspect of the present invention, there is provided a vibration detection unit that detects vibration related to a sound emitted by a person attached to a human body, and a vibration that stores data related to vibration that permits authentication based on a vibration pattern detected by the vibration detection unit. A portable device comprising: a vibration authentication unit that performs authentication with reference to a pattern storage unit; and a specific processing unit that performs a specific process when authenticated by the vibration authentication unit.
According to a second aspect of the present invention, the portable device according to the first aspect includes a feature amount extraction unit that analyzes a vibration pattern detected by the vibration detection unit and extracts a unique feature amount for each individual. The storage unit stores the feature amount permitted to be authenticated, and the vibration authentication unit collates the feature amount extracted by the feature amount extraction unit with the feature amount previously stored in the vibration pattern storage unit. The portable device is characterized by performing authentication.
According to a third aspect of the present invention, in the portable device according to the first or second aspect of the present invention, the portable device includes a voice recognition unit that recognizes a voice by converting the vibration detected by the vibration detection unit into a voice. When authenticated by the vibration authentication unit, the portable device performs processing based on the content of the voice recognized by the voice recognition unit.
A fourth invention is the portable device according to the third invention, characterized in that the processing by the vibration authentication means and the processing by the voice recognition means are performed in parallel.
A fifth invention is the portable device according to any one of the first to fourth inventions, wherein the vibration detecting unit is a bone conduction microphone.
A sixth invention is the portable device according to any one of the first to fourth inventions, wherein the vibration detecting unit is a throat microphone.
According to a seventh aspect of the present invention, in the portable device according to any one of the first to sixth aspects of the invention, the vibration detected by the vibration detection unit is converted into a voice, and voiceprint data that is unique to each individual is extracted. Authentication is performed by collating the extraction means, the voiceprint storage section for storing the voiceprint data permitting authentication, the voiceprint data extracted by the voiceprint extraction means, and the voiceprint data previously stored in the vibration pattern storage section. A portable device comprising: a voice print authenticating unit that performs a specific process when authenticated by the vibration authenticating unit and authenticated by the voice print authenticating unit. It is.
The eighth invention is a program for causing a computer to function as any one of the portable devices from the first invention to the seventh invention.
本発明によれば、よりセキュリティを向上させた携帯型デバイス及びプログラムを提供することができる。 According to the present invention, it is possible to provide a portable device and a program with improved security.
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<携帯型装置1>
図1は、本実施形態に係る携帯型装置1の例を示す図である。
図2は、本実施形態に係る携帯型装置1の機能ブロックを示す図である。
図3は、本実施形態に係る携帯型装置1の処理内容データ記憶部の例を示す図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(Embodiment)
<
FIG. 1 is a diagram illustrating an example of a
FIG. 2 is a diagram illustrating functional blocks of the
FIG. 3 is a diagram illustrating an example of the processing content data storage unit of the
図1に示す携帯型装置1(携帯型デバイス)は、骨伝導マイク4(振動検知部)をユーザPの耳(人体)に装着して使用する携帯型の装置である。
携帯型装置1は、ユーザPが発音した際に、骨伝導マイク4が骨から伝わってくる振動を取得することで、振動を利用してユーザP本人であるか否かを判定する本人認証処理を行い、各種処理に利用する装置である。各種処理とは、例えば、携帯型装置1に記憶されたデータを用いた処理であり、物品購入時の決済処理や、名刺交換の処理等をいう。
また、携帯型装置1は、取得した振動を音声に変換することで、音声を認識する機能を有する。
A portable device 1 (portable device) shown in FIG. 1 is a portable device that is used by attaching a bone conduction microphone 4 (vibration detection unit) to the ear (human body) of a user P.
When the user P generates a sound, the
In addition, the
携帯型装置1は、例えば、スマートフォンに代表されるような携帯情報端末である。なお、携帯型装置1は、スマートフォンのような兼用装置であってもよいし、専用装置であってもよい。
図2に示すように、携帯型装置1は、骨伝導マイク4と、通信部8と、制御部10と、記憶部30とを備える。
骨伝導マイク4は、ユーザPが発音することで、骨から伝わってくる振動を検知する装置である。骨伝導マイク4は、図1に示すように、ユーザPが携帯型装置1を携行した状態で、ユーザPの耳の部分に取り付けられる。
The
As shown in FIG. 2, the
The
通信部8は、外部の装置(端末等)との間で通信を行うためのインタフェースである。通信部8は、例えば、Bluetooth(登録商標)や、NFC(Near Field Communication)に代表される短距離無線通信を行うものであってもよいし、その他の通信方式(wi−fi、人体通信)を行うものであってもよい。また、通信部8は、複数の通信方式を組み合わせてもよい。
The
制御部10は、携帯型装置1の全体を制御するCPU(中央処理装置)である。制御部10は、記憶部30に記憶されているアプリケーションプログラム等を適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、振動受付部11と、特徴量抽出部12(特徴量抽出手段)と、振動認証部13(振動認証手段)と、音声変換部14と、音声認識部15(音声認識手段)と、処理部16(特定処理手段)とを備える。
The control unit 10 is a CPU (central processing unit) that controls the entire
The control unit 10 includes a
振動受付部11は、骨伝導マイク4から振動データを受け付ける制御部である。ここで、振動データは、ユーザPが発音した際に骨を伝わってくる振動に関するデータであるので、周囲の雑音等が入らない、純粋にユーザPの発音に関する振動データである。
特徴量抽出部12は、振動受付部11が受け付けた振動データを分析して、個人ごとに固有の特徴量を抽出する制御部である。
振動認証部13は、振動受付部11が受け付けた振動データの特徴量に基づき、振動パターン記憶部32を参照して、認証を許可するユーザPから発せられた音声に関する振動であるか否かを判断することで認証を行う制御部である。
音声変換部14は、振動受付部11が受け付けた振動データを、音声データに変換する制御部である。
音声認識部15は、音声変換部14により変換された音声データを音声認識して、音声の内容をテキストデータとして取得する制御部である。
処理部16は、振動認証部13によって認証された場合に、音声認識部15によって取得したテキストデータに基づく処理を行う制御部である。
なお、これらの各機能の詳細については、後述する。
The
The feature
The
The
The
The
Details of these functions will be described later.
記憶部30は、制御部10を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、振動パターン記憶部32と、処理内容データ記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。
プログラム記憶部31は、処理プログラム31a(プログラム)を記憶している。処理プログラム31aは、制御部10の各機能を実行するためのプログラムである。
The storage unit 30 is a storage area such as a semiconductor memory element for storing programs, data, and the like necessary for executing the control unit 10.
The storage unit 30 includes a
The
The
振動パターン記憶部32は、認証に使用する振動データ(振動に関するデータ)を記憶する記憶領域である。振動パターン記憶部32は、例えば、この携帯型装置1を使用するユーザPが発声した際に骨から伝わってきた振動データとして、この振動データを分析して得られるユーザP固有の特徴量を記憶する。携帯型装置1では、まず、事前処理として、ユーザPが発声した際に骨から伝わってきた振動データを、骨伝導マイク4を介して取得する。そして、携帯型装置1は、振動データを分析して得られるユーザP固有の特徴量を、振動パターン記憶部32に記憶させる。
処理内容データ記憶部33は、処理内容のデータを記憶する記憶領域である。処理内容データ記憶部33は、図3に示すように、処理項目と、その処理で使用する処理データとを対応付けて記憶する。処理項目は、この携帯型装置1を用いて行う処理の名称であり、例えば、決済、保険証、名刺交換等である。また、処理データは、処理で使用するデータである。処理データは、個人情報等の秘匿情報であり、暗号化されたデータである。処理項目が「決済」であれば、処理データは、例えば、クレジットカードのカード番号であり、処理項目が「保険証」であれば、処理データは、例えば、ユーザIDである。また、処理項目が「名刺交換」であれば、処理データは、例えば、ユーザPの氏名、電子メールアドレス、電話番号、住所等の個人データである。
The vibration
The processing content
なお、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、携帯型装置1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。
The computer refers to an information processing device including a control unit, a storage device, and the like. The
<メイン処理の説明>
次に、携帯型装置1での処理について説明する。
図4は、本実施形態に係る携帯型装置1のメイン処理を示すフローチャートである。
図4に示すメイン処理は、事前処理後に実行される処理である。ここで、事前処理として、携帯型装置1は、骨伝導マイク4が、ユーザPが発音した際の骨から伝わってくる振動を検知するので、制御部10は、骨伝導マイク4を介して取得した振動データを、振動パターン記憶部32に記憶させる処理を行う。
<Description of main processing>
Next, processing in the
FIG. 4 is a flowchart showing main processing of the
The main process shown in FIG. 4 is a process executed after the preliminary process. Here, as pre-processing, the
耳に骨伝導マイク4を装着したユーザPが、携帯型装置1を携行した状態で発音することで、ステップS(以下、「S」という。)10において、制御部10(振動受付部11)は、骨伝導マイク4を介して振動データを受け付ける。
S11において、制御部10(特徴量抽出部12、振動認証部13)は、振動パターン記憶部32を参照して、受け付けた振動データに基づいて認証する。具体的には、制御部10は、受け付けた振動データを分析して、特徴量を抽出する。ここで、制御部10は、振動データからスペクトログラムを生成した上で声の特徴を数値化したものを、特徴量として抽出する。そして、そして、制御部10は、抽出した特徴量と、振動パターン記憶部32に記憶されている認証を許可する特徴量とを照合して、認証を行う。
S12において、制御部10(振動認証部13)は、S11による処理の結果、振動データによって認証できたか否かを判断する。認証できた場合(S12:YES)には、制御部10は、処理をS13に移す。他方、認証できなかった場合(S12:NO)には、制御部10は、本処理を終了する。
In step S (hereinafter referred to as “S”) 10, the control unit 10 (vibration reception unit 11) is generated by the user P wearing the
In S <b> 11, the control unit 10 (the feature
In S <b> 12, the control unit 10 (vibration authentication unit 13) determines whether or not authentication can be performed using vibration data as a result of the processing in S <b> 11. If the authentication is successful (S12: YES), the control unit 10 moves the process to S13. On the other hand, when it cannot authenticate (S12: NO), the control part 10 complete | finishes this process.
つまり、携帯型装置1は、携帯型装置1を使用するユーザPの振動データから得られる特徴量を振動パターン記憶部32に登録しておけば、ユーザP以外の者が携帯型装置1を使用した場合には、振動パターン記憶部32に記憶された特徴量とは一致しない。そのため、携帯型装置1は、不正に使用されることがない。
That is, if the
S13において、制御部10(音声変換部14)は、振動受付部11が受け付けた振動データを、音声データに変換する。
S14において、制御部10(音声認識部15)は、音声認識処理を行う。具体的には、制御部10は、S13で振動データから変換した音声データを音声認識して、テキストデータを取得する。
S15において、制御部10は、S14によって取得したテキストデータに基づき、処理内容データ記憶部33を参照して、該当する処理項目を抽出する。例えば、テキストデータが「けっさい」である場合には、制御部10は、処理内容データ記憶部33の処理項目「決済」を抽出する。
In S13, the control unit 10 (voice conversion unit 14) converts the vibration data received by the
In S14, the control unit 10 (voice recognition unit 15) performs a voice recognition process. Specifically, the control unit 10 recognizes the voice data converted from the vibration data in S13, and acquires text data.
In S15, the control unit 10 refers to the processing content
S16において、制御部10は、S15の処理によって処理項目を抽出できたか否かを判断する。処理項目を抽出できた場合(S15:YES)には、制御部10は、処理をS17に移す。他方、処理項目を抽出できなかった場合(S15:NO)には、制御部10は、本処理を終了する。
S17において、制御部10(処理部16)は、抽出した処理項目に対応する処理データを用いた処理を実行する。その後、制御部10は、本処理を終了する。
In S16, the control unit 10 determines whether or not the process item has been extracted by the process of S15. If the process item can be extracted (S15: YES), the control unit 10 moves the process to S17. On the other hand, when the process item cannot be extracted (S15: NO), the control unit 10 ends this process.
In S17, the control unit 10 (processing unit 16) executes processing using the processing data corresponding to the extracted processing item. Then, the control part 10 complete | finishes this process.
<具体例の説明>
次に、携帯型装置1で実行可能な処理の具体例を説明する。
(例1:名刺交換)
図5は、本実施形態に係る携帯型装置1を用いた名刺交換での使用例を示す図である。
図5に示す例は、本実施形態の携帯型装置1A(1)を有するユーザPAと、携帯型装置1B(1)を有するユーザPBとの間で、お互いの個人データをやりとりする場合である。
まず、図5(A)に示すように、ユーザPAは、携帯型装置1Aの骨伝導マイク4A(4)を装着した状態で「名刺交換」と発音する。同様に、ユーザPBは、携帯型装置1Bの骨伝導マイク4B(4)を装着した状態で「名刺交換」と発音する。
そして、図5(B)に示すように、ユーザPA及びユーザPBは、各々の携帯型装置1A及び1Bを近接させる。
<Description of specific examples>
Next, a specific example of processing that can be executed by the
(Example 1: Business card exchange)
FIG. 5 is a diagram illustrating an example of use in business card exchange using the
The example shown in FIG. 5 is a case in which personal data is exchanged between a user PA having the
First, as shown in FIG. 5A, the user PA pronounces “business card exchange” in a state where the
Then, as shown in FIG. 5B, the user PA and the user PB bring the
携帯型装置1A及び1Bでは、各骨伝導マイク4が「名刺交換」の発音に基づいて、骨から伝わってくる振動を検知することで、各携帯型装置1の制御部10(振動受付部11)は、各骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1A及び1Bは、各携帯型装置1の制御部10(特徴量抽出部12、振動認証部13)が各々振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1A及び1Bは、各々処理項目が「名刺交換」を抽出できたので(図4のS16がYES)、制御部10(処理部16)は、通信部8を用いた非接触通信を行う。携帯型装置1Aは、処理内容データ記憶部33(図3参照)から抽出したユーザPAの個人データを、携帯型装置1Bに送信すると共に、携帯型装置1BからユーザPBの個人データを受信する。同様に、携帯型装置1Bは、ユーザPBの個人データを、携帯型装置1Aに送信すると共に、ユーザPAの個人データを受信する。
このようにすることで、各携帯型装置1に記憶されている個人データを、安全に相手先の携帯型装置1に送信することができる。
In the
By doing in this way, the personal data memorize | stored in each
(例2:店舗での決済)
図6は、本実施形態に係る携帯型装置1を用いた決済での使用例を示す図である。
図6に示す例は、本実施形態の携帯型装置1を有するユーザPが、携帯型装置1を店舗での決済処理で使用する場合である。
ユーザPは、決済を行う際に、図6(A)に示すように、決済処理端末72の近辺において、携帯型装置1の骨伝導マイク4を装着した状態で、「決済」と発音する。
そして、図6(B)に示すように、ユーザPは、携帯型装置1を、決済処理端末72のリーダライタ71に近づける。
(Example 2: Settlement at the store)
FIG. 6 is a diagram showing an example of use in settlement using the
The example shown in FIG. 6 is a case where the user P having the
When making a payment, the user P pronounces “settlement” in the vicinity of the
Then, as shown in FIG. 6B, the user P brings the
携帯型装置1では、骨伝導マイク4が「決済」の発音に基づいて、骨から伝わってくる振動を検知することで、制御部10(振動受付部11)が骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1は、制御部10(特徴量抽出部12、振動認証部13)が振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1は、処理項目が「決済」を抽出できたので(図4のS16がYES)、決済で使用するクレジットカードのカード番号を、処理内容データ記憶部33(図3参照)から取得する。そして、携帯型装置1の制御部10(処理部16)は、通信部8を介してリーダライタ71に対して、クレジットカードのカード番号を送出する。
そのようにすることで、図6(C)に示すように、決済処理端末72では、リーダライタ71を介してクレジットカードのカード番号を受信して、決済処理を行うことができる。
In the
By doing so, as shown in FIG. 6C, the
(例3:病院での保険証提示)
図7は、本実施形態に係る携帯型装置1を用いた病院での使用例を示す図である。
図7に示す例は、本実施形態の携帯型装置1を有するユーザPが、携帯型装置1を病院での保険証提示で使用する場合である。
まず、ユーザPは、携帯型装置1の骨伝導マイク4を装着した状態で、「保険証」と発音する(#1)。
そして、ユーザPは、携帯型装置1を、病院に設置されている受付端末82のリーダライタ81に近づける。
(Example 3: Presenting insurance card at hospital)
FIG. 7 is a diagram illustrating a usage example in a hospital using the
The example shown in FIG. 7 is a case where the user P having the
First, the user P pronounces “insurance card” while wearing the
Then, the user P brings the
携帯型装置1では、骨伝導マイク4が「保険証」の発音に基づいて、骨から伝わってくる振動を検知することで、制御部10(振動受付部11)が骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1は、制御部10(特徴量抽出部12、振動認証部13)が振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1は、処理項目が「決済」を抽出できたので(図4のS16がYES)、保険証番号を得るためのユーザIDを、処理内容データ記憶部33(図3参照)から取得する。そして、携帯型装置1の制御部10(処理部16)は、通信部8を介してリーダライタ81に対して、保険証番号の提示要求として、ユーザIDを送出する(#2)。
In the
受付端末82は、リーダライタ81を介して受信したユーザIDを、保険証番号を管理しているセンタサーバ85に対して送信することで、問合せをする(#3)。
センタサーバ85では、受信したユーザIDに対応する保険証番号を、センタサーバ85が有するデータベースから取得して(#4)、取得した保険証番号を受付端末82に送信する(#5)。
このようにすることで、受付端末82は、リーダライタ81を介して携帯型装置1との通信をすることで、携帯型装置1のユーザPの保険証番号を得ることができる。
The
The
In this way, the
なお、この例では、保険証番号を取得するものとして説明したが、同じ処理によって、センタサーバ85で管理している各種のデータを、ユーザIDを用いることで取得することができる。その場合には、例えば、ユーザIDの他に、処理ごとに異なる暗号鍵を記憶部30に記憶しておき、暗号鍵も含めてセンタサーバ85に送信してもよい。そして、暗号鍵によってデータが復元できた場合には、そのデータを使用できるので、よりセキュリティ性の高い仕組みにすることができる。
In this example, the insurance card number is described as being acquired, but various data managed by the
このように、本実施形態によれば、携帯型装置1は、以下のような効果がある。
(1)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけで、骨伝導マイク4を介して受け付けた振動データによって本人認証処理を行うことができる。振動データは、音声データのように録音等を行うことが難しいため、複製が困難なものであり、ユーザP本人以外の者の不正使用を防ぐことができる。
(2)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけで、振動データを音声データに変換して、発音内容に基づく処理を行うことができる。よって、処理が、ユーザPの発音に即したものになる。また、振動データから変換した音声データを用いるので、周囲が騒がしい状況下においても音声データを正確に取得できる。よって、周囲のノイズに強いものにできる。
Thus, according to this embodiment, the
(1) The user P can perform the personal authentication process based on the vibration data received through the
(2) The user P can convert the vibration data into voice data and perform a process based on the pronunciation content simply by wearing the
(3)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけでよく、ユーザPが手等を用いて操作を行う必要がない。よって、両手が塞がっている状態等であっても処理を行うことができる。
(4)携帯型装置1が送信する処理データは、暗号化されたデータにすることで、データを途中で盗み見られても解読できず、セキュリティ性が向上する。
(3) The user P only has to wear the
(4) Since the processing data transmitted by the
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.
(変形形態)
(1)本実施形態では、骨伝導マイクを用いるものを説明したが、これに限定されない。ユーザに装着してそのユーザが発する音に関する振動を検知可能なものであれば、他の装置を用いるものであってもよい。
図8は、変形形態に係る携帯型装置201の例を示す図である。
携帯型装置201は、ユーザPの喉の位置に装着する咽喉マイク204を備える。そして、咽喉マイク204は、喉の振動を検知して、振動データを携帯型装置201の制御部に送信する。よって、携帯型装置201は、咽喉マイク204を用いたものであっても、骨伝導マイクを用いたものと同様の処理を行うことができる。
(Deformation)
(1) In this embodiment, although what uses a bone-conduction microphone was demonstrated, it is not limited to this. Other devices may be used as long as they can be attached to the user and can detect vibration related to the sound emitted by the user.
FIG. 8 is a diagram illustrating an example of the
The
(2)本実施形態では、本人認証処理を行った後に音声認識処理を行うものとして説明したが、これに限定されない。本人認証処理と、音声認識処理とを同時に(並行して)行うものであってもよい。そのようにすることで、処理時間の短縮を図ることができる。
(3)本実施形態では、名刺交換処理や決済処理、保険証処理を行うものを例に説明したが、これに限定されない。処理内容データ記憶部に処理項目と処理で使用するデータとを記憶させておけば、他のサービスであっても実行できる。
(2) In the present embodiment, the voice recognition process is performed after the personal authentication process is performed, but the present invention is not limited to this. The personal authentication process and the voice recognition process may be performed simultaneously (in parallel). By doing so, the processing time can be shortened.
(3) In the present embodiment, the business card exchange process, the settlement process, and the insurance card process are described as examples. However, the present invention is not limited to this. If the processing item data is stored in the processing content data storage unit, it can be executed even for other services.
(4)本実施形態では、処理内容データ記憶部を用いて処理を行うものを説明したが、これに限定されない。携帯型装置が単一の処理を行う専用装置であれば、振動データに基づいて本人認証ができた場合には、特定の単一処理を行うようにすればよい。
(5)本実施形態では、振動データから得られた音声データを用いて音声認識処理を行うものを説明したが、これに限定されない。さらに、制御部(音声抽出手段)が音声データから声紋データを抽出し、制御部(声紋認証手段)が、声紋記憶部に記憶された予め認証を許可する声紋データと照合して認証を行う声紋認証をしてもよい。声紋認証は、声帯の大きさや声道の形が個人ごとに異なることを利用したものである。そのため、ある特定の言葉を発した際の声紋データは、個人特定に活用できる。そのようにすることで、複数の認証を利用することができるため、よりセキュリティ性が向上する。
(4) In this embodiment, although what processed using a process content data storage part was demonstrated, it is not limited to this. If the portable device is a dedicated device that performs a single process, a specific single process may be performed when the personal authentication is performed based on the vibration data.
(5) In this embodiment, although what performed the speech recognition process using the audio | voice data obtained from the vibration data was demonstrated, it is not limited to this. Further, the control unit (speech extraction unit) extracts voice print data from the voice data, and the control unit (voice print authentication unit) performs authentication by collating with voice print data stored in the voice print storage unit that permits authentication in advance. You may authenticate. Voiceprint authentication uses the fact that the size of the vocal cords and the shape of the vocal tract differ from person to person. Therefore, voiceprint data when a specific word is uttered can be used for individual identification. By doing so, since a plurality of authentications can be used, security is further improved.
(6)本実施形態では、認証処理や音声認識処理と、処理項目に対応する処理とを1つのプログラムによって行うものとして説明したが、これに限定されない。例えば、認証処理と、音声認識処理と、処理項目に対応する処理とは、各々別プログラムにしてもよい。
(7)本実施形態では、処理内容データ記憶部として、処理項目と処理データを1:1対応するものとして説明したが、これに限定されない。例えば、処理項目が「決済」である場合に、処理データとして、クレジットカードのカード番号の他に、ポイントカードや、電子マネーのカード番号等があってもよく、1:多の関係であってもよい。その場合には、どの処理データを使用するかをユーザに選択させたり、予め順序を決めて記憶しておくことで、複数の処理データに対しても適用できる。
(6) In the present embodiment, the authentication process, the voice recognition process, and the process corresponding to the process item are described as being performed by one program. However, the present invention is not limited to this. For example, the authentication process, the voice recognition process, and the process corresponding to the process item may be different programs.
(7) In the present embodiment, the processing content data storage unit has been described as having a 1: 1 correspondence between processing items and processing data. However, the present invention is not limited to this. For example, when the processing item is “settlement”, the processing data may include a credit card card number, a point card, an electronic money card number, and the like. Also good. In that case, the processing data can be applied to a plurality of processing data by allowing the user to select which processing data is to be used or by predetermining and storing the order.
1,1A,1B,201 携帯型装置
4,4A,4B 骨伝導マイク
8 通信部
10 制御部
11 振動受付部
12 特徴量抽出部
13 振動認証部
14 音声変換部
15 音声認識部
16 処理部
30 記憶部
31a 処理プログラム
32 振動パターン記憶部
33 処理内容データ記憶部
71,81 リーダライタ
72 レジ端末
82 受付端末
204 咽喉マイク
P,PA,PB ユーザ
1, 1A, 1B, 201
Claims (8)
前記振動検知部が検知した振動のパターンに基づき、認証を許可する振動に関するデータを記憶した振動パターン記憶部を参照して認証を行う振動認証手段と、
前記振動認証手段により認証された場合に、特定の処理を行う特定処理手段と、
を備える携帯型デバイス。 A vibration detector that is attached to a human body and detects vibration related to the sound emitted by the person;
Based on the vibration pattern detected by the vibration detection unit, vibration authentication means for performing authentication with reference to a vibration pattern storage unit that stores data relating to vibration that permits authentication;
Specific processing means for performing specific processing when authenticated by the vibration authentication means;
A portable device comprising:
前記振動検知部が検知した振動のパターンを分析し、個人ごとに固有の特徴量を抽出する特徴量抽出手段を備え、
前記振動パターン記憶部は、認証を許可する前記特徴量を記憶し、
前記振動認証手段は、前記特徴量抽出手段によって抽出された特徴量と、予め前記振動パターン記憶部に記憶された特徴量とを照合して認証を行うこと、
を特徴とする携帯型デバイス。 The portable device according to claim 1, wherein
Analyzing the vibration pattern detected by the vibration detection unit, comprising a feature amount extraction means for extracting a unique feature amount for each individual,
The vibration pattern storage unit stores the feature amount that permits authentication,
The vibration authentication means performs authentication by collating the feature quantity extracted by the feature quantity extraction means with the feature quantity stored in the vibration pattern storage unit in advance.
A portable device characterized by.
前記振動検知部が検知した振動を音声に変換して音声認識する音声認識手段を備え、
前記特定処理手段は、前記振動認証手段により認証された場合に、前記音声認識手段により音声認識された前記音声の内容に基づく処理を行うこと、
を特徴とする携帯型デバイス。 The portable device according to claim 1 or 2,
Comprising voice recognition means for recognizing voice by converting the vibration detected by the vibration detector into voice;
The specific processing means, when authenticated by the vibration authentication means, performs processing based on the content of the voice recognized by the voice recognition means;
A portable device characterized by.
前記振動認証手段による処理と、前記音声認識手段による処理とを並行して行うこと、
を特徴とする携帯型デバイス。 The portable device according to claim 3, wherein
Performing the processing by the vibration authentication means and the processing by the voice recognition means in parallel;
A portable device characterized by.
前記振動検知部は、骨伝導マイクであること、
を特徴とする携帯型デバイス。 The portable device according to any one of claims 1 to 4,
The vibration detection unit is a bone conduction microphone;
A portable device characterized by.
前記振動検知部は、咽喉マイクであること、
を特徴とする携帯型デバイス。 The portable device according to any one of claims 1 to 4,
The vibration detection unit is a throat microphone;
A portable device characterized by.
前記振動検知部が検知した振動を音声に変換し、個人ごとに固有の声紋データを抽出する声紋抽出手段と、
認証を許可する前記声紋データを記憶する声紋記憶部と、
前記声紋抽出手段によって抽出された声紋データと、予め前記振動パターン記憶部に記憶された声紋データとを照合して認証を行う声紋認証手段と、
を備え、
前記特定処理手段は、前記振動認証手段により認証され、かつ、前記声紋認証手段により認証された場合に、特定の処理を行うこと、
を特徴とする携帯型デバイス。 The portable device according to any one of claims 1 to 6,
Voiceprint extraction means for converting the vibration detected by the vibration detection unit into voice and extracting voiceprint data unique to each person;
A voiceprint storage unit that stores the voiceprint data that permits authentication;
Voiceprint authentication means for performing authentication by collating voiceprint data extracted by the voiceprint extraction means with voiceprint data previously stored in the vibration pattern storage unit;
With
The specific processing means performs specific processing when authenticated by the vibration authentication means and authenticated by the voiceprint authentication means,
A portable device characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033716A JP2017151735A (en) | 2016-02-25 | 2016-02-25 | Portable device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033716A JP2017151735A (en) | 2016-02-25 | 2016-02-25 | Portable device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017151735A true JP2017151735A (en) | 2017-08-31 |
Family
ID=59740755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016033716A Pending JP2017151735A (en) | 2016-02-25 | 2016-02-25 | Portable device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017151735A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290495A (en) * | 2000-04-05 | 2001-10-19 | Canon Inc | Device and method for speech recognition, and storage medium |
JP2006025079A (en) * | 2004-07-07 | 2006-01-26 | Nec Tokin Corp | Head set and wireless communication system |
WO2008015800A1 (en) * | 2006-08-02 | 2008-02-07 | National University Corporation NARA Institute of Science and Technology | Speech processing method, speech processing program, and speech processing device |
WO2014109344A1 (en) * | 2013-01-10 | 2014-07-17 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal, unlocking method, and program |
-
2016
- 2016-02-25 JP JP2016033716A patent/JP2017151735A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290495A (en) * | 2000-04-05 | 2001-10-19 | Canon Inc | Device and method for speech recognition, and storage medium |
JP2006025079A (en) * | 2004-07-07 | 2006-01-26 | Nec Tokin Corp | Head set and wireless communication system |
WO2008015800A1 (en) * | 2006-08-02 | 2008-02-07 | National University Corporation NARA Institute of Science and Technology | Speech processing method, speech processing program, and speech processing device |
WO2014109344A1 (en) * | 2013-01-10 | 2014-07-17 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal, unlocking method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10841301B2 (en) | System and method to authenticate electronics using electronic-metrics | |
US20200226612A1 (en) | Biometric, behavioral-metric, knowledge-metric, and electronic-metric directed authentication and transaction method and system | |
EP3272101B1 (en) | Audiovisual associative authentication method, related system and device | |
US20170011406A1 (en) | Sound-Directed or Behavior-Directed Method and System for Authenticating a User and Executing a Transaction | |
JP6096333B2 (en) | Method, apparatus and system for verifying payment | |
US9311546B2 (en) | Biometric identity verification for access control using a trained statistical classifier | |
KR102510706B1 (en) | User authentication based on radio frequency identifiable identification documents and gesture request-response protocols | |
US20140090039A1 (en) | Secure System Access Using Mobile Biometric Devices | |
US9262615B2 (en) | Methods and systems for improving the security of secret authentication data during authentication transactions | |
US10257191B2 (en) | Biometric identity verification | |
US11315571B2 (en) | Audible authentication | |
CN105512535A (en) | User authentication method and user authentication device | |
JP6759613B2 (en) | Portable devices and programs | |
CN108462725B (en) | Electronic signature device, identity verification method and system | |
JP2011134332A (en) | Authentication device using human body communication, portable device equipped with authentication function using human body communication, and authentication method using human body communication | |
JP2008033144A (en) | Portable type personal identification method and electronic commerce method | |
JP2021047557A (en) | User authentication device and program | |
US11494771B2 (en) | System, method, and computer program product for authenticating a transaction | |
JP2017151735A (en) | Portable device and program | |
JP2015153143A (en) | admission management system | |
JP2005275923A (en) | Individual authentication method at the time of card settlement, individual authentication system at the time of card settlement, shop information processing system, credit-card company information processing system, portable terminal, and program therefor | |
WO2017006559A1 (en) | Operator confirmation server, operator confirmation system, operator confirmation method, and operator confirmation program | |
Thullier | A practical application of a text-independent speaker authentication system on mobile devices | |
BISWAS et al. | ENHANCED SECURE ATM AUTHENTICATION USING NFC TECHNOLOGY AND IRIS VERIFICATION | |
FI126129B (en) | Audiovisual associative authentication method and equivalent system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |