JP2017151735A - Portable device and program - Google Patents

Portable device and program Download PDF

Info

Publication number
JP2017151735A
JP2017151735A JP2016033716A JP2016033716A JP2017151735A JP 2017151735 A JP2017151735 A JP 2017151735A JP 2016033716 A JP2016033716 A JP 2016033716A JP 2016033716 A JP2016033716 A JP 2016033716A JP 2017151735 A JP2017151735 A JP 2017151735A
Authority
JP
Japan
Prior art keywords
vibration
portable device
authentication
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016033716A
Other languages
Japanese (ja)
Inventor
篤浩 佐橋
Atsuhiro Sahashi
篤浩 佐橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016033716A priority Critical patent/JP2017151735A/en
Publication of JP2017151735A publication Critical patent/JP2017151735A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Audible-Bandwidth Transducers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a portable device and a program with enhanced security.SOLUTION: A portable device 1 includes: a bone conduction microphone 4 configured to be worn on a user's ear to detect a vibration related to a sound uttered by the user; a vibration authentication part 13 configured to perform authentication through referring to a vibration pattern storage part 32 storing vibration data for allowing the authentication according to a vibration pattern detected by the bone conduction microphone 4; and a processing part 16 configured to perform specific processing if authentication is performed by the vibration authentication part 13.SELECTED DRAWING: Figure 2

Description

本発明は、本人認証に使用する携帯型デバイス及びプログラムに関する。   The present invention relates to a portable device and a program used for personal authentication.

従来、音声を使用して本人認証をする端末が開示されている(例えば、特許文献1)。特許文献1で開示されている端末は、音声を受け付け、声紋認証を行って本人であるか否かを判定し、また、音声認識の結果を用いてアプリケーションを実行する。   Conventionally, a terminal that performs personal authentication using voice has been disclosed (for example, Patent Document 1). The terminal disclosed in Patent Document 1 accepts voice, performs voiceprint authentication to determine whether or not the user is the person, and executes an application using the result of voice recognition.

国際公開第2014/109344号International Publication No. 2014/109344

上述の端末では、その端末の使用者の音声を予め録音しておき、使用者以外の者が録音した音声を用いた場合であっても、認証してしまう。そのため、使用者以外の者が、使用者になりすましてアプリケーションを実行できてしまうものであった。
そこで、本発明は、よりセキュリティを向上させた携帯型デバイス及びプログラムを提供することを目的とする。
In the terminal described above, the voice of the user of the terminal is recorded in advance, and authentication is performed even when voice recorded by a person other than the user is used. Therefore, a person other than the user can execute the application by impersonating the user.
Accordingly, an object of the present invention is to provide a portable device and a program with further improved security.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、人体に装着してその人が発する音に関する振動を検知する振動検知部と、前記振動検知部が検知した振動のパターンに基づき、認証を許可する振動に関するデータを記憶した振動パターン記憶部を参照して認証を行う振動認証手段と、前記振動認証手段により認証された場合に、特定の処理を行う特定処理手段と、を備える携帯型デバイスである。
第2の発明は、第1の発明の携帯型デバイスにおいて、前記振動検知部が検知した振動のパターンを分析し、個人ごとに固有の特徴量を抽出する特徴量抽出手段を備え、前記振動パターン記憶部は、認証を許可する前記特徴量を記憶し、前記振動認証手段は、前記特徴量抽出手段によって抽出された特徴量と、予め前記振動パターン記憶部に記憶された特徴量とを照合して認証を行うこと、を特徴とする携帯型デバイスである。
第3の発明は、第1の発明又は第2の発明の携帯型デバイスにおいて、前記振動検知部が検知した振動を音声に変換して音声認識する音声認識手段を備え、前記特定処理手段は、前記振動認証手段により認証された場合に、前記音声認識手段により音声認識された前記音声の内容に基づく処理を行うこと、を特徴とする携帯型デバイスである。
第4の発明は、第3の発明の携帯型デバイスにおいて、前記振動認証手段による処理と、前記音声認識手段による処理とを並行して行うこと、を特徴とする携帯型デバイスである。
第5の発明は、第1の発明から第4の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部は、骨伝導マイクであること、を特徴とする携帯型デバイスである。
第6の発明は、第1の発明から第4の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部は、咽喉マイクであること、を特徴とする携帯型デバイスである。
第7の発明は、第1の発明から第6の発明までのいずれかの携帯型デバイスにおいて、前記振動検知部が検知した振動を音声に変換し、個人ごとに固有の声紋データを抽出する声紋抽出手段と、認証を許可する前記声紋データを記憶する声紋記憶部と、前記声紋抽出手段によって抽出された声紋データと、予め前記振動パターン記憶部に記憶された声紋データとを照合して認証を行う声紋認証手段と、を備え、前記特定処理手段は、前記振動認証手段により認証され、かつ、前記声紋認証手段により認証された場合に、特定の処理を行うこと、を特徴とする携帯型デバイスである。
第8の発明は、第1の発明から第7の発明までのいずれかの携帯型デバイスとしてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following means.
According to a first aspect of the present invention, there is provided a vibration detection unit that detects vibration related to a sound emitted by a person attached to a human body, and a vibration that stores data related to vibration that permits authentication based on a vibration pattern detected by the vibration detection unit. A portable device comprising: a vibration authentication unit that performs authentication with reference to a pattern storage unit; and a specific processing unit that performs a specific process when authenticated by the vibration authentication unit.
According to a second aspect of the present invention, the portable device according to the first aspect includes a feature amount extraction unit that analyzes a vibration pattern detected by the vibration detection unit and extracts a unique feature amount for each individual. The storage unit stores the feature amount permitted to be authenticated, and the vibration authentication unit collates the feature amount extracted by the feature amount extraction unit with the feature amount previously stored in the vibration pattern storage unit. The portable device is characterized by performing authentication.
According to a third aspect of the present invention, in the portable device according to the first or second aspect of the present invention, the portable device includes a voice recognition unit that recognizes a voice by converting the vibration detected by the vibration detection unit into a voice. When authenticated by the vibration authentication unit, the portable device performs processing based on the content of the voice recognized by the voice recognition unit.
A fourth invention is the portable device according to the third invention, characterized in that the processing by the vibration authentication means and the processing by the voice recognition means are performed in parallel.
A fifth invention is the portable device according to any one of the first to fourth inventions, wherein the vibration detecting unit is a bone conduction microphone.
A sixth invention is the portable device according to any one of the first to fourth inventions, wherein the vibration detecting unit is a throat microphone.
According to a seventh aspect of the present invention, in the portable device according to any one of the first to sixth aspects of the invention, the vibration detected by the vibration detection unit is converted into a voice, and voiceprint data that is unique to each individual is extracted. Authentication is performed by collating the extraction means, the voiceprint storage section for storing the voiceprint data permitting authentication, the voiceprint data extracted by the voiceprint extraction means, and the voiceprint data previously stored in the vibration pattern storage section. A portable device comprising: a voice print authenticating unit that performs a specific process when authenticated by the vibration authenticating unit and authenticated by the voice print authenticating unit. It is.
The eighth invention is a program for causing a computer to function as any one of the portable devices from the first invention to the seventh invention.

本発明によれば、よりセキュリティを向上させた携帯型デバイス及びプログラムを提供することができる。   According to the present invention, it is possible to provide a portable device and a program with improved security.

本実施形態に係る携帯型装置の例を示す図である。It is a figure which shows the example of the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置の機能ブロックを示す図である。It is a figure which shows the functional block of the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置の処理内容データ記憶部の例を示す図である。It is a figure which shows the example of the process content data storage part of the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置のメイン処理を示すフローチャートである。It is a flowchart which shows the main process of the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置を用いた名刺交換での使用例を示す図である。It is a figure which shows the usage example by the business card exchange using the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置を用いた決済での使用例を示す図である。It is a figure which shows the usage example in the payment using the portable apparatus which concerns on this embodiment. 本実施形態に係る携帯型装置を用いた病院での使用例を示す図である。It is a figure which shows the usage example in the hospital using the portable apparatus which concerns on this embodiment. 変形形態に係る携帯型装置の例を示す図である。It is a figure which shows the example of the portable apparatus which concerns on a deformation | transformation form.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<携帯型装置1>
図1は、本実施形態に係る携帯型装置1の例を示す図である。
図2は、本実施形態に係る携帯型装置1の機能ブロックを示す図である。
図3は、本実施形態に係る携帯型装置1の処理内容データ記憶部の例を示す図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(Embodiment)
<Portable device 1>
FIG. 1 is a diagram illustrating an example of a portable device 1 according to the present embodiment.
FIG. 2 is a diagram illustrating functional blocks of the portable device 1 according to the present embodiment.
FIG. 3 is a diagram illustrating an example of the processing content data storage unit of the portable device 1 according to the present embodiment.

図1に示す携帯型装置1(携帯型デバイス)は、骨伝導マイク4(振動検知部)をユーザPの耳(人体)に装着して使用する携帯型の装置である。
携帯型装置1は、ユーザPが発音した際に、骨伝導マイク4が骨から伝わってくる振動を取得することで、振動を利用してユーザP本人であるか否かを判定する本人認証処理を行い、各種処理に利用する装置である。各種処理とは、例えば、携帯型装置1に記憶されたデータを用いた処理であり、物品購入時の決済処理や、名刺交換の処理等をいう。
また、携帯型装置1は、取得した振動を音声に変換することで、音声を認識する機能を有する。
A portable device 1 (portable device) shown in FIG. 1 is a portable device that is used by attaching a bone conduction microphone 4 (vibration detection unit) to the ear (human body) of a user P.
When the user P generates a sound, the portable device 1 acquires the vibration transmitted from the bone by the bone conduction microphone 4 to determine whether or not the user P is the user P by using the vibration. This is a device that performs various processing. The various processes are processes using data stored in the portable device 1, for example, and refer to a payment process when purchasing an article, a business card exchange process, and the like.
In addition, the portable device 1 has a function of recognizing sound by converting the acquired vibration into sound.

携帯型装置1は、例えば、スマートフォンに代表されるような携帯情報端末である。なお、携帯型装置1は、スマートフォンのような兼用装置であってもよいし、専用装置であってもよい。
図2に示すように、携帯型装置1は、骨伝導マイク4と、通信部8と、制御部10と、記憶部30とを備える。
骨伝導マイク4は、ユーザPが発音することで、骨から伝わってくる振動を検知する装置である。骨伝導マイク4は、図1に示すように、ユーザPが携帯型装置1を携行した状態で、ユーザPの耳の部分に取り付けられる。
The portable device 1 is, for example, a portable information terminal represented by a smartphone. The portable device 1 may be a dual-purpose device such as a smartphone or a dedicated device.
As shown in FIG. 2, the portable device 1 includes a bone conduction microphone 4, a communication unit 8, a control unit 10, and a storage unit 30.
The bone conduction microphone 4 is a device that detects vibration transmitted from the bone when the user P generates a sound. As shown in FIG. 1, the bone conduction microphone 4 is attached to the ear portion of the user P while the user P carries the portable device 1.

通信部8は、外部の装置(端末等)との間で通信を行うためのインタフェースである。通信部8は、例えば、Bluetooth(登録商標)や、NFC(Near Field Communication)に代表される短距離無線通信を行うものであってもよいし、その他の通信方式(wi−fi、人体通信)を行うものであってもよい。また、通信部8は、複数の通信方式を組み合わせてもよい。   The communication unit 8 is an interface for performing communication with an external device (terminal or the like). For example, the communication unit 8 may perform short-range wireless communication represented by Bluetooth (registered trademark) or NFC (Near Field Communication), or other communication methods (wi-fi, human body communication). It may be what performs. The communication unit 8 may combine a plurality of communication methods.

制御部10は、携帯型装置1の全体を制御するCPU(中央処理装置)である。制御部10は、記憶部30に記憶されているアプリケーションプログラム等を適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、振動受付部11と、特徴量抽出部12(特徴量抽出手段)と、振動認証部13(振動認証手段)と、音声変換部14と、音声認識部15(音声認識手段)と、処理部16(特定処理手段)とを備える。
The control unit 10 is a CPU (central processing unit) that controls the entire portable device 1. The control unit 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an application program or the like stored in the storage unit 30.
The control unit 10 includes a vibration receiving unit 11, a feature amount extraction unit 12 (feature amount extraction unit), a vibration authentication unit 13 (vibration authentication unit), a voice conversion unit 14, and a voice recognition unit 15 (voice recognition unit). And a processing unit 16 (specific processing means).

振動受付部11は、骨伝導マイク4から振動データを受け付ける制御部である。ここで、振動データは、ユーザPが発音した際に骨を伝わってくる振動に関するデータであるので、周囲の雑音等が入らない、純粋にユーザPの発音に関する振動データである。
特徴量抽出部12は、振動受付部11が受け付けた振動データを分析して、個人ごとに固有の特徴量を抽出する制御部である。
振動認証部13は、振動受付部11が受け付けた振動データの特徴量に基づき、振動パターン記憶部32を参照して、認証を許可するユーザPから発せられた音声に関する振動であるか否かを判断することで認証を行う制御部である。
音声変換部14は、振動受付部11が受け付けた振動データを、音声データに変換する制御部である。
音声認識部15は、音声変換部14により変換された音声データを音声認識して、音声の内容をテキストデータとして取得する制御部である。
処理部16は、振動認証部13によって認証された場合に、音声認識部15によって取得したテキストデータに基づく処理を行う制御部である。
なお、これらの各機能の詳細については、後述する。
The vibration receiving unit 11 is a control unit that receives vibration data from the bone conduction microphone 4. Here, since the vibration data is data related to vibration transmitted through the bone when the user P pronounces sound, the vibration data is purely vibration data related to the sound of the user P without surrounding noise or the like.
The feature amount extraction unit 12 is a control unit that analyzes the vibration data received by the vibration reception unit 11 and extracts a unique feature amount for each individual.
The vibration authentication unit 13 refers to the vibration pattern storage unit 32 based on the feature amount of the vibration data received by the vibration reception unit 11 and determines whether or not the vibration is related to a voice emitted from the user P who permits authentication. It is a control part which authenticates by judging.
The voice conversion unit 14 is a control unit that converts the vibration data received by the vibration receiving unit 11 into voice data.
The voice recognition unit 15 is a control unit that recognizes the voice data converted by the voice conversion unit 14 and acquires the content of the voice as text data.
The processing unit 16 is a control unit that performs processing based on the text data acquired by the voice recognition unit 15 when authenticated by the vibration authentication unit 13.
Details of these functions will be described later.

記憶部30は、制御部10を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、振動パターン記憶部32と、処理内容データ記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。
プログラム記憶部31は、処理プログラム31a(プログラム)を記憶している。処理プログラム31aは、制御部10の各機能を実行するためのプログラムである。
The storage unit 30 is a storage area such as a semiconductor memory element for storing programs, data, and the like necessary for executing the control unit 10.
The storage unit 30 includes a program storage unit 31, a vibration pattern storage unit 32, and a processing content data storage unit 33.
The program storage unit 31 is a storage area for storing various programs.
The program storage unit 31 stores a processing program 31a (program). The processing program 31 a is a program for executing each function of the control unit 10.

振動パターン記憶部32は、認証に使用する振動データ(振動に関するデータ)を記憶する記憶領域である。振動パターン記憶部32は、例えば、この携帯型装置1を使用するユーザPが発声した際に骨から伝わってきた振動データとして、この振動データを分析して得られるユーザP固有の特徴量を記憶する。携帯型装置1では、まず、事前処理として、ユーザPが発声した際に骨から伝わってきた振動データを、骨伝導マイク4を介して取得する。そして、携帯型装置1は、振動データを分析して得られるユーザP固有の特徴量を、振動パターン記憶部32に記憶させる。
処理内容データ記憶部33は、処理内容のデータを記憶する記憶領域である。処理内容データ記憶部33は、図3に示すように、処理項目と、その処理で使用する処理データとを対応付けて記憶する。処理項目は、この携帯型装置1を用いて行う処理の名称であり、例えば、決済、保険証、名刺交換等である。また、処理データは、処理で使用するデータである。処理データは、個人情報等の秘匿情報であり、暗号化されたデータである。処理項目が「決済」であれば、処理データは、例えば、クレジットカードのカード番号であり、処理項目が「保険証」であれば、処理データは、例えば、ユーザIDである。また、処理項目が「名刺交換」であれば、処理データは、例えば、ユーザPの氏名、電子メールアドレス、電話番号、住所等の個人データである。
The vibration pattern storage unit 32 is a storage area for storing vibration data (data relating to vibration) used for authentication. The vibration pattern storage unit 32 stores, for example, a characteristic amount unique to the user P obtained by analyzing the vibration data as vibration data transmitted from the bone when the user P using the portable device 1 utters. To do. In the portable device 1, first, as pre-processing, vibration data transmitted from the bone when the user P utters is acquired via the bone conduction microphone 4. Then, the portable device 1 causes the vibration pattern storage unit 32 to store the characteristic amount unique to the user P obtained by analyzing the vibration data.
The processing content data storage unit 33 is a storage area for storing processing content data. As shown in FIG. 3, the process content data storage unit 33 stores process items and process data used in the process in association with each other. The processing item is a name of processing performed using the portable device 1, and is, for example, settlement, insurance card, business card exchange, or the like. Further, the processing data is data used in the processing. The processing data is confidential information such as personal information and is encrypted data. If the processing item is “settlement”, the processing data is, for example, a credit card card number. If the processing item is “insurance card”, the processing data is, for example, a user ID. If the processing item is “business card exchange”, the processing data is personal data such as the name, e-mail address, telephone number, and address of the user P, for example.

なお、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、携帯型装置1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。   The computer refers to an information processing device including a control unit, a storage device, and the like. The portable device 1 is an information processing device including the control unit 10, the storage unit 30, and the like, and is included in the concept of a computer. .

<メイン処理の説明>
次に、携帯型装置1での処理について説明する。
図4は、本実施形態に係る携帯型装置1のメイン処理を示すフローチャートである。
図4に示すメイン処理は、事前処理後に実行される処理である。ここで、事前処理として、携帯型装置1は、骨伝導マイク4が、ユーザPが発音した際の骨から伝わってくる振動を検知するので、制御部10は、骨伝導マイク4を介して取得した振動データを、振動パターン記憶部32に記憶させる処理を行う。
<Description of main processing>
Next, processing in the portable device 1 will be described.
FIG. 4 is a flowchart showing main processing of the portable device 1 according to the present embodiment.
The main process shown in FIG. 4 is a process executed after the preliminary process. Here, as pre-processing, the portable device 1 detects the vibration transmitted from the bone when the user P pronounces the sound, so that the control unit 10 acquires the bone conduction microphone 4 through the bone conduction microphone 4. The vibration data stored in the vibration pattern storage unit 32 is performed.

耳に骨伝導マイク4を装着したユーザPが、携帯型装置1を携行した状態で発音することで、ステップS(以下、「S」という。)10において、制御部10(振動受付部11)は、骨伝導マイク4を介して振動データを受け付ける。
S11において、制御部10(特徴量抽出部12、振動認証部13)は、振動パターン記憶部32を参照して、受け付けた振動データに基づいて認証する。具体的には、制御部10は、受け付けた振動データを分析して、特徴量を抽出する。ここで、制御部10は、振動データからスペクトログラムを生成した上で声の特徴を数値化したものを、特徴量として抽出する。そして、そして、制御部10は、抽出した特徴量と、振動パターン記憶部32に記憶されている認証を許可する特徴量とを照合して、認証を行う。
S12において、制御部10(振動認証部13)は、S11による処理の結果、振動データによって認証できたか否かを判断する。認証できた場合(S12:YES)には、制御部10は、処理をS13に移す。他方、認証できなかった場合(S12:NO)には、制御部10は、本処理を終了する。
In step S (hereinafter referred to as “S”) 10, the control unit 10 (vibration reception unit 11) is generated by the user P wearing the bone conduction microphone 4 in his / her ear with the portable device 1 carrying the sound. Accepts vibration data via the bone conduction microphone 4.
In S <b> 11, the control unit 10 (the feature amount extraction unit 12 and the vibration authentication unit 13) refers to the vibration pattern storage unit 32 and performs authentication based on the received vibration data. Specifically, the control unit 10 analyzes the received vibration data and extracts a feature amount. Here, the control unit 10 generates a spectrogram from the vibration data and then extracts a numerical value of the voice feature as a feature amount. And the control part 10 collates the extracted feature-value with the feature-value which permits the authentication memorize | stored in the vibration pattern memory | storage part 32, and performs authentication.
In S <b> 12, the control unit 10 (vibration authentication unit 13) determines whether or not authentication can be performed using vibration data as a result of the processing in S <b> 11. If the authentication is successful (S12: YES), the control unit 10 moves the process to S13. On the other hand, when it cannot authenticate (S12: NO), the control part 10 complete | finishes this process.

つまり、携帯型装置1は、携帯型装置1を使用するユーザPの振動データから得られる特徴量を振動パターン記憶部32に登録しておけば、ユーザP以外の者が携帯型装置1を使用した場合には、振動パターン記憶部32に記憶された特徴量とは一致しない。そのため、携帯型装置1は、不正に使用されることがない。   That is, if the portable device 1 registers the feature amount obtained from the vibration data of the user P who uses the portable device 1 in the vibration pattern storage unit 32, a person other than the user P uses the portable device 1. In such a case, the feature amount stored in the vibration pattern storage unit 32 does not match. Therefore, the portable device 1 is not used illegally.

S13において、制御部10(音声変換部14)は、振動受付部11が受け付けた振動データを、音声データに変換する。
S14において、制御部10(音声認識部15)は、音声認識処理を行う。具体的には、制御部10は、S13で振動データから変換した音声データを音声認識して、テキストデータを取得する。
S15において、制御部10は、S14によって取得したテキストデータに基づき、処理内容データ記憶部33を参照して、該当する処理項目を抽出する。例えば、テキストデータが「けっさい」である場合には、制御部10は、処理内容データ記憶部33の処理項目「決済」を抽出する。
In S13, the control unit 10 (voice conversion unit 14) converts the vibration data received by the vibration receiving unit 11 into voice data.
In S14, the control unit 10 (voice recognition unit 15) performs a voice recognition process. Specifically, the control unit 10 recognizes the voice data converted from the vibration data in S13, and acquires text data.
In S15, the control unit 10 refers to the processing content data storage unit 33 based on the text data acquired in S14, and extracts a corresponding processing item. For example, when the text data is “Kessai”, the control unit 10 extracts the processing item “settlement” in the processing content data storage unit 33.

S16において、制御部10は、S15の処理によって処理項目を抽出できたか否かを判断する。処理項目を抽出できた場合(S15:YES)には、制御部10は、処理をS17に移す。他方、処理項目を抽出できなかった場合(S15:NO)には、制御部10は、本処理を終了する。
S17において、制御部10(処理部16)は、抽出した処理項目に対応する処理データを用いた処理を実行する。その後、制御部10は、本処理を終了する。
In S16, the control unit 10 determines whether or not the process item has been extracted by the process of S15. If the process item can be extracted (S15: YES), the control unit 10 moves the process to S17. On the other hand, when the process item cannot be extracted (S15: NO), the control unit 10 ends this process.
In S17, the control unit 10 (processing unit 16) executes processing using the processing data corresponding to the extracted processing item. Then, the control part 10 complete | finishes this process.

<具体例の説明>
次に、携帯型装置1で実行可能な処理の具体例を説明する。
(例1:名刺交換)
図5は、本実施形態に係る携帯型装置1を用いた名刺交換での使用例を示す図である。
図5に示す例は、本実施形態の携帯型装置1A(1)を有するユーザPAと、携帯型装置1B(1)を有するユーザPBとの間で、お互いの個人データをやりとりする場合である。
まず、図5(A)に示すように、ユーザPAは、携帯型装置1Aの骨伝導マイク4A(4)を装着した状態で「名刺交換」と発音する。同様に、ユーザPBは、携帯型装置1Bの骨伝導マイク4B(4)を装着した状態で「名刺交換」と発音する。
そして、図5(B)に示すように、ユーザPA及びユーザPBは、各々の携帯型装置1A及び1Bを近接させる。
<Description of specific examples>
Next, a specific example of processing that can be executed by the portable device 1 will be described.
(Example 1: Business card exchange)
FIG. 5 is a diagram illustrating an example of use in business card exchange using the portable device 1 according to the present embodiment.
The example shown in FIG. 5 is a case in which personal data is exchanged between a user PA having the portable device 1A (1) of this embodiment and a user PB having the portable device 1B (1). .
First, as shown in FIG. 5A, the user PA pronounces “business card exchange” in a state where the bone conduction microphone 4A (4) of the portable device 1A is worn. Similarly, the user PB pronounces “business card exchange” while wearing the bone conduction microphone 4B (4) of the portable device 1B.
Then, as shown in FIG. 5B, the user PA and the user PB bring the portable devices 1A and 1B close to each other.

携帯型装置1A及び1Bでは、各骨伝導マイク4が「名刺交換」の発音に基づいて、骨から伝わってくる振動を検知することで、各携帯型装置1の制御部10(振動受付部11)は、各骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1A及び1Bは、各携帯型装置1の制御部10(特徴量抽出部12、振動認証部13)が各々振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1A及び1Bは、各々処理項目が「名刺交換」を抽出できたので(図4のS16がYES)、制御部10(処理部16)は、通信部8を用いた非接触通信を行う。携帯型装置1Aは、処理内容データ記憶部33(図3参照)から抽出したユーザPAの個人データを、携帯型装置1Bに送信すると共に、携帯型装置1BからユーザPBの個人データを受信する。同様に、携帯型装置1Bは、ユーザPBの個人データを、携帯型装置1Aに送信すると共に、ユーザPAの個人データを受信する。
このようにすることで、各携帯型装置1に記憶されている個人データを、安全に相手先の携帯型装置1に送信することができる。
In the portable devices 1 </ b> A and 1 </ b> B, each bone conduction microphone 4 detects vibration transmitted from the bone based on the pronunciation of “business card exchange”, whereby the control unit 10 (vibration reception unit 11) of each portable device 1. ) Receives vibration data via each bone conduction microphone 4 (S10 in FIG. 4). And after the control part 10 (feature amount extraction part 12, vibration authentication part 13) of each portable apparatus 1 authenticates each portable apparatus 1A and 1B using vibration data (S12 of FIG. 4 is YES). The control unit 10 (speech conversion unit 14, speech recognition unit 15) converts the vibration data into speech data to perform speech recognition processing, and extracts processing items with reference to the processing content data storage unit 33 (FIG. 3). (S13 to 15 in FIG. 4). Since each of the portable devices 1A and 1B can extract “business card exchange” (YES in S16 in FIG. 4), the control unit 10 (processing unit 16) uses the communication unit 8 for non-contact. Communicate. The portable device 1A transmits the personal data of the user PA extracted from the processing content data storage unit 33 (see FIG. 3) to the portable device 1B, and receives the personal data of the user PB from the portable device 1B. Similarly, the portable device 1B transmits the personal data of the user PB to the portable device 1A and receives the personal data of the user PA.
By doing in this way, the personal data memorize | stored in each portable apparatus 1 can be transmitted to the other party's portable apparatus 1 safely.

(例2:店舗での決済)
図6は、本実施形態に係る携帯型装置1を用いた決済での使用例を示す図である。
図6に示す例は、本実施形態の携帯型装置1を有するユーザPが、携帯型装置1を店舗での決済処理で使用する場合である。
ユーザPは、決済を行う際に、図6(A)に示すように、決済処理端末72の近辺において、携帯型装置1の骨伝導マイク4を装着した状態で、「決済」と発音する。
そして、図6(B)に示すように、ユーザPは、携帯型装置1を、決済処理端末72のリーダライタ71に近づける。
(Example 2: Settlement at the store)
FIG. 6 is a diagram showing an example of use in settlement using the portable device 1 according to the present embodiment.
The example shown in FIG. 6 is a case where the user P having the portable device 1 of the present embodiment uses the portable device 1 for a settlement process in a store.
When making a payment, the user P pronounces “settlement” in the vicinity of the settlement processing terminal 72 with the bone conduction microphone 4 of the portable device 1 attached as shown in FIG.
Then, as shown in FIG. 6B, the user P brings the portable device 1 closer to the reader / writer 71 of the payment processing terminal 72.

携帯型装置1では、骨伝導マイク4が「決済」の発音に基づいて、骨から伝わってくる振動を検知することで、制御部10(振動受付部11)が骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1は、制御部10(特徴量抽出部12、振動認証部13)が振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1は、処理項目が「決済」を抽出できたので(図4のS16がYES)、決済で使用するクレジットカードのカード番号を、処理内容データ記憶部33(図3参照)から取得する。そして、携帯型装置1の制御部10(処理部16)は、通信部8を介してリーダライタ71に対して、クレジットカードのカード番号を送出する。
そのようにすることで、図6(C)に示すように、決済処理端末72では、リーダライタ71を介してクレジットカードのカード番号を受信して、決済処理を行うことができる。
In the portable device 1, the control unit 10 (vibration receiving unit 11) vibrates via the bone conduction microphone 4 when the bone conduction microphone 4 detects vibration transmitted from the bone based on the pronunciation of “settlement”. Data is received (S10 in FIG. 4). And after the control part 10 (the feature-value extraction part 12, the vibration authentication part 13) authenticates using vibration data (S12 of FIG. 4 is YES), the portable apparatus 1 is the control part 10 (voice conversion part 14). The voice recognition unit 15) converts the vibration data into voice data to perform voice recognition processing, and extracts processing items with reference to the processing content data storage unit 33 (FIG. 3) (S13 to 15 in FIG. 4). Since the portable device 1 can extract “settlement” as the processing item (YES in S16 in FIG. 4), the credit card number used for the settlement is stored in the processing content data storage unit 33 (see FIG. 3). Get from. Then, the control unit 10 (processing unit 16) of the portable device 1 sends the card number of the credit card to the reader / writer 71 via the communication unit 8.
By doing so, as shown in FIG. 6C, the payment processing terminal 72 can receive the card number of the credit card via the reader / writer 71 and perform the payment processing.

(例3:病院での保険証提示)
図7は、本実施形態に係る携帯型装置1を用いた病院での使用例を示す図である。
図7に示す例は、本実施形態の携帯型装置1を有するユーザPが、携帯型装置1を病院での保険証提示で使用する場合である。
まず、ユーザPは、携帯型装置1の骨伝導マイク4を装着した状態で、「保険証」と発音する(#1)。
そして、ユーザPは、携帯型装置1を、病院に設置されている受付端末82のリーダライタ81に近づける。
(Example 3: Presenting insurance card at hospital)
FIG. 7 is a diagram illustrating a usage example in a hospital using the portable device 1 according to the present embodiment.
The example shown in FIG. 7 is a case where the user P having the portable device 1 of the present embodiment uses the portable device 1 for presenting a health insurance card at a hospital.
First, the user P pronounces “insurance card” while wearing the bone conduction microphone 4 of the portable device 1 (# 1).
Then, the user P brings the portable device 1 closer to the reader / writer 81 of the reception terminal 82 installed in the hospital.

携帯型装置1では、骨伝導マイク4が「保険証」の発音に基づいて、骨から伝わってくる振動を検知することで、制御部10(振動受付部11)が骨伝導マイク4を介して振動データを受け付ける(図4のS10)。そして、携帯型装置1は、制御部10(特徴量抽出部12、振動認証部13)が振動データを用いて認証した後(図4のS12がYES)に、制御部10(音声変換部14、音声認識部15)が振動データを音声データに変換して音声認識処理をし、処理内容データ記憶部33(図3)を参照して処理項目を抽出する(図4のS13〜15)。そして、携帯型装置1は、処理項目が「決済」を抽出できたので(図4のS16がYES)、保険証番号を得るためのユーザIDを、処理内容データ記憶部33(図3参照)から取得する。そして、携帯型装置1の制御部10(処理部16)は、通信部8を介してリーダライタ81に対して、保険証番号の提示要求として、ユーザIDを送出する(#2)。   In the portable device 1, the bone conduction microphone 4 detects the vibration transmitted from the bone based on the pronunciation of the “insurance card”, so that the control unit 10 (vibration reception unit 11) passes through the bone conduction microphone 4. Vibration data is received (S10 in FIG. 4). And after the control part 10 (the feature-value extraction part 12, the vibration authentication part 13) authenticates using vibration data (S12 of FIG. 4 is YES), the portable apparatus 1 is the control part 10 (voice conversion part 14). The voice recognition unit 15) converts the vibration data into voice data to perform voice recognition processing, and extracts processing items with reference to the processing content data storage unit 33 (FIG. 3) (S13 to 15 in FIG. 4). And since the processing item was able to extract "settlement" as a processing item (S16 of Drawing 4 is YES), portable device 1 sets user ID for obtaining a health insurance card number to processing contents data storage part 33 (refer to Drawing 3). Get from. And the control part 10 (processing part 16) of the portable apparatus 1 sends out user ID as a presentation request | requirement of a health insurance card number with respect to the reader / writer 81 via the communication part 8 (# 2).

受付端末82は、リーダライタ81を介して受信したユーザIDを、保険証番号を管理しているセンタサーバ85に対して送信することで、問合せをする(#3)。
センタサーバ85では、受信したユーザIDに対応する保険証番号を、センタサーバ85が有するデータベースから取得して(#4)、取得した保険証番号を受付端末82に送信する(#5)。
このようにすることで、受付端末82は、リーダライタ81を介して携帯型装置1との通信をすることで、携帯型装置1のユーザPの保険証番号を得ることができる。
The reception terminal 82 makes an inquiry by transmitting the user ID received via the reader / writer 81 to the center server 85 managing the insurance card number (# 3).
The center server 85 acquires the insurance card number corresponding to the received user ID from the database of the center server 85 (# 4), and transmits the acquired insurance card number to the reception terminal 82 (# 5).
In this way, the reception terminal 82 can obtain the insurance card number of the user P of the portable device 1 by communicating with the portable device 1 via the reader / writer 81.

なお、この例では、保険証番号を取得するものとして説明したが、同じ処理によって、センタサーバ85で管理している各種のデータを、ユーザIDを用いることで取得することができる。その場合には、例えば、ユーザIDの他に、処理ごとに異なる暗号鍵を記憶部30に記憶しておき、暗号鍵も含めてセンタサーバ85に送信してもよい。そして、暗号鍵によってデータが復元できた場合には、そのデータを使用できるので、よりセキュリティ性の高い仕組みにすることができる。   In this example, the insurance card number is described as being acquired, but various data managed by the center server 85 can be acquired by using the user ID by the same processing. In that case, for example, in addition to the user ID, a different encryption key for each process may be stored in the storage unit 30 and may be transmitted to the center server 85 including the encryption key. If the data can be restored with the encryption key, the data can be used, so that a mechanism with higher security can be achieved.

このように、本実施形態によれば、携帯型装置1は、以下のような効果がある。
(1)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけで、骨伝導マイク4を介して受け付けた振動データによって本人認証処理を行うことができる。振動データは、音声データのように録音等を行うことが難しいため、複製が困難なものであり、ユーザP本人以外の者の不正使用を防ぐことができる。
(2)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけで、振動データを音声データに変換して、発音内容に基づく処理を行うことができる。よって、処理が、ユーザPの発音に即したものになる。また、振動データから変換した音声データを用いるので、周囲が騒がしい状況下においても音声データを正確に取得できる。よって、周囲のノイズに強いものにできる。
Thus, according to this embodiment, the portable device 1 has the following effects.
(1) The user P can perform the personal authentication process based on the vibration data received through the bone conduction microphone 4 simply by wearing the bone conduction microphone 4 of the portable device 1 and generating a sound. Since vibration data is difficult to record and the like as voice data, it is difficult to duplicate, and unauthorized use by persons other than the user P himself / herself can be prevented.
(2) The user P can convert the vibration data into voice data and perform a process based on the pronunciation content simply by wearing the bone conduction microphone 4 of the portable device 1 and generating a sound. Therefore, the processing is in accordance with the pronunciation of the user P. Moreover, since the voice data converted from the vibration data is used, the voice data can be accurately obtained even under a noisy environment. Therefore, it can be strong against ambient noise.

(3)ユーザPは、携帯型装置1が有する骨伝導マイク4を装着して発音するだけでよく、ユーザPが手等を用いて操作を行う必要がない。よって、両手が塞がっている状態等であっても処理を行うことができる。
(4)携帯型装置1が送信する処理データは、暗号化されたデータにすることで、データを途中で盗み見られても解読できず、セキュリティ性が向上する。
(3) The user P only has to wear the bone conduction microphone 4 included in the portable device 1 and generate a sound, and the user P does not need to perform an operation using a hand or the like. Therefore, the process can be performed even when both hands are closed.
(4) Since the processing data transmitted by the portable device 1 is encrypted, even if the data is stolen in the middle, it cannot be decrypted, and the security is improved.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.

(変形形態)
(1)本実施形態では、骨伝導マイクを用いるものを説明したが、これに限定されない。ユーザに装着してそのユーザが発する音に関する振動を検知可能なものであれば、他の装置を用いるものであってもよい。
図8は、変形形態に係る携帯型装置201の例を示す図である。
携帯型装置201は、ユーザPの喉の位置に装着する咽喉マイク204を備える。そして、咽喉マイク204は、喉の振動を検知して、振動データを携帯型装置201の制御部に送信する。よって、携帯型装置201は、咽喉マイク204を用いたものであっても、骨伝導マイクを用いたものと同様の処理を行うことができる。
(Deformation)
(1) In this embodiment, although what uses a bone-conduction microphone was demonstrated, it is not limited to this. Other devices may be used as long as they can be attached to the user and can detect vibration related to the sound emitted by the user.
FIG. 8 is a diagram illustrating an example of the portable device 201 according to a modified embodiment.
The portable device 201 includes a throat microphone 204 that is attached to the position of the throat of the user P. The throat microphone 204 detects throat vibrations and transmits vibration data to the control unit of the portable device 201. Therefore, even if the portable device 201 uses the throat microphone 204, it can perform the same processing as that using the bone conduction microphone.

(2)本実施形態では、本人認証処理を行った後に音声認識処理を行うものとして説明したが、これに限定されない。本人認証処理と、音声認識処理とを同時に(並行して)行うものであってもよい。そのようにすることで、処理時間の短縮を図ることができる。
(3)本実施形態では、名刺交換処理や決済処理、保険証処理を行うものを例に説明したが、これに限定されない。処理内容データ記憶部に処理項目と処理で使用するデータとを記憶させておけば、他のサービスであっても実行できる。
(2) In the present embodiment, the voice recognition process is performed after the personal authentication process is performed, but the present invention is not limited to this. The personal authentication process and the voice recognition process may be performed simultaneously (in parallel). By doing so, the processing time can be shortened.
(3) In the present embodiment, the business card exchange process, the settlement process, and the insurance card process are described as examples. However, the present invention is not limited to this. If the processing item data is stored in the processing content data storage unit, it can be executed even for other services.

(4)本実施形態では、処理内容データ記憶部を用いて処理を行うものを説明したが、これに限定されない。携帯型装置が単一の処理を行う専用装置であれば、振動データに基づいて本人認証ができた場合には、特定の単一処理を行うようにすればよい。
(5)本実施形態では、振動データから得られた音声データを用いて音声認識処理を行うものを説明したが、これに限定されない。さらに、制御部(音声抽出手段)が音声データから声紋データを抽出し、制御部(声紋認証手段)が、声紋記憶部に記憶された予め認証を許可する声紋データと照合して認証を行う声紋認証をしてもよい。声紋認証は、声帯の大きさや声道の形が個人ごとに異なることを利用したものである。そのため、ある特定の言葉を発した際の声紋データは、個人特定に活用できる。そのようにすることで、複数の認証を利用することができるため、よりセキュリティ性が向上する。
(4) In this embodiment, although what processed using a process content data storage part was demonstrated, it is not limited to this. If the portable device is a dedicated device that performs a single process, a specific single process may be performed when the personal authentication is performed based on the vibration data.
(5) In this embodiment, although what performed the speech recognition process using the audio | voice data obtained from the vibration data was demonstrated, it is not limited to this. Further, the control unit (speech extraction unit) extracts voice print data from the voice data, and the control unit (voice print authentication unit) performs authentication by collating with voice print data stored in the voice print storage unit that permits authentication in advance. You may authenticate. Voiceprint authentication uses the fact that the size of the vocal cords and the shape of the vocal tract differ from person to person. Therefore, voiceprint data when a specific word is uttered can be used for individual identification. By doing so, since a plurality of authentications can be used, security is further improved.

(6)本実施形態では、認証処理や音声認識処理と、処理項目に対応する処理とを1つのプログラムによって行うものとして説明したが、これに限定されない。例えば、認証処理と、音声認識処理と、処理項目に対応する処理とは、各々別プログラムにしてもよい。
(7)本実施形態では、処理内容データ記憶部として、処理項目と処理データを1:1対応するものとして説明したが、これに限定されない。例えば、処理項目が「決済」である場合に、処理データとして、クレジットカードのカード番号の他に、ポイントカードや、電子マネーのカード番号等があってもよく、1:多の関係であってもよい。その場合には、どの処理データを使用するかをユーザに選択させたり、予め順序を決めて記憶しておくことで、複数の処理データに対しても適用できる。
(6) In the present embodiment, the authentication process, the voice recognition process, and the process corresponding to the process item are described as being performed by one program. However, the present invention is not limited to this. For example, the authentication process, the voice recognition process, and the process corresponding to the process item may be different programs.
(7) In the present embodiment, the processing content data storage unit has been described as having a 1: 1 correspondence between processing items and processing data. However, the present invention is not limited to this. For example, when the processing item is “settlement”, the processing data may include a credit card card number, a point card, an electronic money card number, and the like. Also good. In that case, the processing data can be applied to a plurality of processing data by allowing the user to select which processing data is to be used or by predetermining and storing the order.

1,1A,1B,201 携帯型装置
4,4A,4B 骨伝導マイク
8 通信部
10 制御部
11 振動受付部
12 特徴量抽出部
13 振動認証部
14 音声変換部
15 音声認識部
16 処理部
30 記憶部
31a 処理プログラム
32 振動パターン記憶部
33 処理内容データ記憶部
71,81 リーダライタ
72 レジ端末
82 受付端末
204 咽喉マイク
P,PA,PB ユーザ
1, 1A, 1B, 201 Portable device 4, 4A, 4B Bone conduction microphone 8 Communication unit 10 Control unit 11 Vibration receiving unit 12 Feature extraction unit 13 Vibration authentication unit 14 Voice conversion unit 15 Voice recognition unit 16 Processing unit 30 Storage Unit 31a Processing program 32 Vibration pattern storage unit 33 Processing content data storage unit 71, 81 Reader / writer 72 Cash register terminal 82 Reception terminal 204 Throat microphone P, PA, PB User

Claims (8)

人体に装着してその人が発する音に関する振動を検知する振動検知部と、
前記振動検知部が検知した振動のパターンに基づき、認証を許可する振動に関するデータを記憶した振動パターン記憶部を参照して認証を行う振動認証手段と、
前記振動認証手段により認証された場合に、特定の処理を行う特定処理手段と、
を備える携帯型デバイス。
A vibration detector that is attached to a human body and detects vibration related to the sound emitted by the person;
Based on the vibration pattern detected by the vibration detection unit, vibration authentication means for performing authentication with reference to a vibration pattern storage unit that stores data relating to vibration that permits authentication;
Specific processing means for performing specific processing when authenticated by the vibration authentication means;
A portable device comprising:
請求項1に記載の携帯型デバイスにおいて、
前記振動検知部が検知した振動のパターンを分析し、個人ごとに固有の特徴量を抽出する特徴量抽出手段を備え、
前記振動パターン記憶部は、認証を許可する前記特徴量を記憶し、
前記振動認証手段は、前記特徴量抽出手段によって抽出された特徴量と、予め前記振動パターン記憶部に記憶された特徴量とを照合して認証を行うこと、
を特徴とする携帯型デバイス。
The portable device according to claim 1, wherein
Analyzing the vibration pattern detected by the vibration detection unit, comprising a feature amount extraction means for extracting a unique feature amount for each individual,
The vibration pattern storage unit stores the feature amount that permits authentication,
The vibration authentication means performs authentication by collating the feature quantity extracted by the feature quantity extraction means with the feature quantity stored in the vibration pattern storage unit in advance.
A portable device characterized by.
請求項1又は請求項2に記載の携帯型デバイスにおいて、
前記振動検知部が検知した振動を音声に変換して音声認識する音声認識手段を備え、
前記特定処理手段は、前記振動認証手段により認証された場合に、前記音声認識手段により音声認識された前記音声の内容に基づく処理を行うこと、
を特徴とする携帯型デバイス。
The portable device according to claim 1 or 2,
Comprising voice recognition means for recognizing voice by converting the vibration detected by the vibration detector into voice;
The specific processing means, when authenticated by the vibration authentication means, performs processing based on the content of the voice recognized by the voice recognition means;
A portable device characterized by.
請求項3に記載の携帯型デバイスにおいて、
前記振動認証手段による処理と、前記音声認識手段による処理とを並行して行うこと、
を特徴とする携帯型デバイス。
The portable device according to claim 3, wherein
Performing the processing by the vibration authentication means and the processing by the voice recognition means in parallel;
A portable device characterized by.
請求項1から請求項4までのいずれかに記載の携帯型デバイスにおいて、
前記振動検知部は、骨伝導マイクであること、
を特徴とする携帯型デバイス。
The portable device according to any one of claims 1 to 4,
The vibration detection unit is a bone conduction microphone;
A portable device characterized by.
請求項1から請求項4までのいずれかに記載の携帯型デバイスにおいて、
前記振動検知部は、咽喉マイクであること、
を特徴とする携帯型デバイス。
The portable device according to any one of claims 1 to 4,
The vibration detection unit is a throat microphone;
A portable device characterized by.
請求項1から請求項6までのいずれかに記載の携帯型デバイスにおいて、
前記振動検知部が検知した振動を音声に変換し、個人ごとに固有の声紋データを抽出する声紋抽出手段と、
認証を許可する前記声紋データを記憶する声紋記憶部と、
前記声紋抽出手段によって抽出された声紋データと、予め前記振動パターン記憶部に記憶された声紋データとを照合して認証を行う声紋認証手段と、
を備え、
前記特定処理手段は、前記振動認証手段により認証され、かつ、前記声紋認証手段により認証された場合に、特定の処理を行うこと、
を特徴とする携帯型デバイス。
The portable device according to any one of claims 1 to 6,
Voiceprint extraction means for converting the vibration detected by the vibration detection unit into voice and extracting voiceprint data unique to each person;
A voiceprint storage unit that stores the voiceprint data that permits authentication;
Voiceprint authentication means for performing authentication by collating voiceprint data extracted by the voiceprint extraction means with voiceprint data previously stored in the vibration pattern storage unit;
With
The specific processing means performs specific processing when authenticated by the vibration authentication means and authenticated by the voiceprint authentication means,
A portable device characterized by.
請求項1から請求項7までのいずれかに記載の携帯型デバイスとしてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a portable device in any one of Claim 1- Claim 7.
JP2016033716A 2016-02-25 2016-02-25 Portable device and program Pending JP2017151735A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016033716A JP2017151735A (en) 2016-02-25 2016-02-25 Portable device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016033716A JP2017151735A (en) 2016-02-25 2016-02-25 Portable device and program

Publications (1)

Publication Number Publication Date
JP2017151735A true JP2017151735A (en) 2017-08-31

Family

ID=59740755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016033716A Pending JP2017151735A (en) 2016-02-25 2016-02-25 Portable device and program

Country Status (1)

Country Link
JP (1) JP2017151735A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290495A (en) * 2000-04-05 2001-10-19 Canon Inc Device and method for speech recognition, and storage medium
JP2006025079A (en) * 2004-07-07 2006-01-26 Nec Tokin Corp Head set and wireless communication system
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device
WO2014109344A1 (en) * 2013-01-10 2014-07-17 Necカシオモバイルコミュニケーションズ株式会社 Terminal, unlocking method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290495A (en) * 2000-04-05 2001-10-19 Canon Inc Device and method for speech recognition, and storage medium
JP2006025079A (en) * 2004-07-07 2006-01-26 Nec Tokin Corp Head set and wireless communication system
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device
WO2014109344A1 (en) * 2013-01-10 2014-07-17 Necカシオモバイルコミュニケーションズ株式会社 Terminal, unlocking method, and program

Similar Documents

Publication Publication Date Title
US10841301B2 (en) System and method to authenticate electronics using electronic-metrics
US20200226612A1 (en) Biometric, behavioral-metric, knowledge-metric, and electronic-metric directed authentication and transaction method and system
EP3272101B1 (en) Audiovisual associative authentication method, related system and device
US20170011406A1 (en) Sound-Directed or Behavior-Directed Method and System for Authenticating a User and Executing a Transaction
JP6096333B2 (en) Method, apparatus and system for verifying payment
US9311546B2 (en) Biometric identity verification for access control using a trained statistical classifier
KR102510706B1 (en) User authentication based on radio frequency identifiable identification documents and gesture request-response protocols
US20140090039A1 (en) Secure System Access Using Mobile Biometric Devices
US9262615B2 (en) Methods and systems for improving the security of secret authentication data during authentication transactions
US10257191B2 (en) Biometric identity verification
US11315571B2 (en) Audible authentication
CN105512535A (en) User authentication method and user authentication device
JP6759613B2 (en) Portable devices and programs
CN108462725B (en) Electronic signature device, identity verification method and system
JP2011134332A (en) Authentication device using human body communication, portable device equipped with authentication function using human body communication, and authentication method using human body communication
JP2008033144A (en) Portable type personal identification method and electronic commerce method
JP2021047557A (en) User authentication device and program
US11494771B2 (en) System, method, and computer program product for authenticating a transaction
JP2017151735A (en) Portable device and program
JP2015153143A (en) admission management system
JP2005275923A (en) Individual authentication method at the time of card settlement, individual authentication system at the time of card settlement, shop information processing system, credit-card company information processing system, portable terminal, and program therefor
WO2017006559A1 (en) Operator confirmation server, operator confirmation system, operator confirmation method, and operator confirmation program
Thullier A practical application of a text-independent speaker authentication system on mobile devices
BISWAS et al. ENHANCED SECURE ATM AUTHENTICATION USING NFC TECHNOLOGY AND IRIS VERIFICATION
FI126129B (en) Audiovisual associative authentication method and equivalent system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602