KR102227418B1 - 화자 인증 방법 - Google Patents
화자 인증 방법 Download PDFInfo
- Publication number
- KR102227418B1 KR102227418B1 KR1020200004159A KR20200004159A KR102227418B1 KR 102227418 B1 KR102227418 B1 KR 102227418B1 KR 1020200004159 A KR1020200004159 A KR 1020200004159A KR 20200004159 A KR20200004159 A KR 20200004159A KR 102227418 B1 KR102227418 B1 KR 102227418B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- noise
- voiceprint
- user
- authentication server
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000002360 preparation method Methods 0.000 claims abstract description 20
- 238000000926 separation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/20—Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0861—Generation of secret information including derivation or calculation of cryptographic keys or passwords
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3226—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
- H04L9/3231—Biological data, e.g. fingerprint, voice or retina
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Telephonic Communication Services (AREA)
Abstract
성문(聲紋)을 이용한 화자 인증 방법이 개시된다.
화자 인증 방법은
상기 사용자 단말이 사용자의 음성 입력으로부터 성문과 잡음을 분리하고, 분리된 성문 데이터(제1성문 데이터)를 암호화하여 상기 인증 서버로 전송하고, 상기 인증 서버가 상기 사용자 단말로부터 입력된 제1성문 데이터를 저장하는 성문 데이터 준비 과정;
인증시, 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 사용자 단말로부터 입력받은 제2성문 데이터와 상기 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말에 전송하는 화자 인증 과정;
을 포함한다.
화자 인증 방법은
상기 사용자 단말이 사용자의 음성 입력으로부터 성문과 잡음을 분리하고, 분리된 성문 데이터(제1성문 데이터)를 암호화하여 상기 인증 서버로 전송하고, 상기 인증 서버가 상기 사용자 단말로부터 입력된 제1성문 데이터를 저장하는 성문 데이터 준비 과정;
인증시, 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 사용자 단말로부터 입력받은 제2성문 데이터와 상기 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말에 전송하는 화자 인증 과정;
을 포함한다.
Description
본 발명은 성문(聲紋)을 이용한 화자 인증 방법에 관한 것으로서 특히, 화자 주변의 잡음 환경을 이용하는 개선된 화자 인증 방법에 관한 것이다.
현재 시장은 차량과 스마트폰의 연동에 의한 차량 제어가 가능하도록 변화하고 있고, 스마트폰 자체가 개인을 입증하는 유용한 수단이 되고 스마트 폰을 이용한 결제까지 보편화되고 있지만, 그로 인하여 스마트 폰 도난 시, 개인이 소유하고 있는 자산에 대한 도난도 발생할 수 있다.
특히, 스마트폰을 이용하여 비밀 번호 혹은 일회용 비밀번호(OTP)를 입력함에 의해 본인 인증을 하는 시스템에 있어서 소유자 본인이 아닌 다른 사람이 소유자의 스마트폰을 통하여 입력되는 문자를 보고 이를 이용하여 부정하게 사용하는 것을 막을 방법이 없다.
본 발명은 상기의 문제점을 해결하기 위하여 창출된 것으로서, 통신과 화자인증을 결합함에 의해 효과적으로 본인 인증을 수행하는 방법을 제공하는 것을 그 목적으로 한다.
본 발명의 다른 목적은 화자 주변의 잡음 환경을 이용하여 효과적인 화자 인증을 수행하는 방법을 제공하는 것에 있다.
상기의 목적을 달성하기 위한 본 발명에 따른 화자 인증 방법은
인증 서버와 사용자 단말 사이의 인증 방법에 있어서,
상기 사용자 단말이 사용자의 음성 입력으로부터 성문과 잡음을 분리하고, 분리된 성문 데이터(제1성문 데이터) 및 잡음 데이터를 암호화하여 상기 인증 서버로 전송하고, 상기 인증 서버가 상기 사용자 단말로부터 입력된 제1성문 데이터 및 잡음 데이터를 저장하는 성문 데이터 준비 과정;
인증 시, 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 사용자 단말로부터 입력받은 제2성문 데이터와 상기 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말로 전송하는 화자 인증 과정;
을 포함한다.
여기서, 상기 성문 데이터 준비 과정은
상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문(제1성문 데이터) 및 잡을 데이터를 암호화하여 상기 인증 서버로 전송하는 것을 특징으로 한다.
여기서, 상기 성문 데이터 준비 과정에서 하기의 수식을 이용하여 암호화되는 것을 특징으로 한다.
Ciphertext = f_enc(Plaintext1, f_key1(v_server, device_id, v_user))
여기서,
f_enc; 암호화 함수
plaintext1 = f(성문 데이터, 잡음 데이터)
f_key1; 제1암호화키
V_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값.
Device_id: 단말마다 가지고 있는 고유의 상수 값
V_user: 사용자에 대한 식별자
여기서, 상기 화자 인증 과정에서 하기의 수식을 이용하여 암호화되는 것을 특징으로 한다.
Ciphertext = f_enc(Plaintext2, f_key2(v_server, device_id, v_user, v_noise)) ---(수식2)
여기서,
f_enc; 암호화 함수
plaintext2; 성문 데이터
f_key2; 제2암호화키
V_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값.
Device_id: 단말마다 가지고 있는 고유의 상수 값
V_user: 사용자에 대한 식별자
V_noise: 상기 성문 데이터 준비 과정에서 준비된 잡음 데이터로부터 생성한 상수 값
여기서, 인증 시, 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 성문 데이터 준비 과정에서 저장된 잡음 데이터를 이용하여 제3암호화키를 생성하고, 생성된 제3암호화키에 의해 제2성문 데이터를 복호하고, 복호된 제2성문 데이터와 상기 성문 데이터 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말에 전송한다.
본 발명에 따른 화자 인증 방법은 사용자의 성문 및 사용자 주변의 잡음을 함께 고려함으로써 효과적으로 사용자를 인증할 수 있게 하는 효과를 갖는다.
본 발명에 따른 화자 인증 방법은 잡음의 예측 불가능성을 이용함으로써 공격에 효과적으로 대응할 수 있게 하는 효과를 갖는다.
도 1은 본 발명에 따른 화자 인증 방법이 수행되는 과정을 보이는 흐름도이다.
도 2는 사용자 음성으로부터 성문 및 잡음을 분리하는 것을 보인다.
도 3은 도 2에 도시된 음성 정보 준비 과정을 상세히 보인다.
도 4는 도 2에 도시된 화자 인증 과정을 상세히 보인다.
도 2는 사용자 음성으로부터 성문 및 잡음을 분리하는 것을 보인다.
도 3은 도 2에 도시된 음성 정보 준비 과정을 상세히 보인다.
도 4는 도 2에 도시된 화자 인증 과정을 상세히 보인다.
이하, 첨부된 도면을 참조하여 본 발명의 구성 및 동작을 상세히 설명하기로 한다.
도 1은 본 발명에 따른 화자 인증 방법이 수행되는 과정을 보이는 흐름도이다.
도 1을 참조하면, 본 발명에 따른 화자 인증 방법은 성문 데이터 준비 과정(S100)과 화자 인증 과정(S200)을 포함한다.
성문 데이터 준비 과정(S100)은 사용자의 음성으로부터 성문 및 잡음을 분리하고 분리된 성문 데이터(제1성문 데이터) 및 잡음 데이터를 저장하는 과정이다.
이때, 성문 데이터 준비 과정(S100)에서는 사용자 단말이 성문 데이터(제1성문 데이터)를 인증 서버로 보낼 때 잡음을 이용하지 않고 암호화키(제1암호화키)를 생성하고, 생성된 암호화키(제1암호화키)를 이용하여 암호화한다.
화자 인증 과정(S200)은 사용자에게 임의의 텍스트를 제시하여 읽게 하고, 이를 읽은 사용자의 음성으로부터 성문 데이터(제2성문 데이터) 및 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 잡음을 인수로 하는 암호화키로 암호화하여 전송하고 인증 서버가 성문 데이터(제2성문 데이터)를 성문 데이터 준비 과정에서 저장된 성문 데이터(제1성문 데이터)와 비교하여 인증을 수행하는 과정이다.
이때, 화자 인증 과정(S200)에서는 사용자 단말이 성문 데이터(제2성문 데이터)를 인증 서버로 보낼 때 성문 데이터 준비 과정에서 준비된 잡음 데이터를 이용하여 암호화키(제2암호화키)를 생성하고, 생성된 암호화키(제2암호화키)를 이용하여 암호화한다.
또한, 인증 서버는 성문 데이터 준비 과정(S100)에서 저장된 잡음 데이터를 이용하여 복호화를 위한 제3암호화키를 생성한다.
도 2는 성문 데이터 준비 과정을 상세히 보인다.
도 2를 참조하면 성문 데이터 준비 과정(S100)에서는 사용자 단말에서 임의의 텍스트 예를 들어, 단어, 문장, 숫자와 문자의 조합을 사용자에게 보여주어 사용자가 읽게 한 후, 입력된 음성 신호로부터 성문 및 잡음을 추출하고, 암호화하여 인증 서버로 전송한다.
임의의 텍스트는 인증 서버가 사용자 단말에 전송하는 것일 수 있다. 사용자 단말은 인증 서버가 보내주는 텍스트를 표출시키고, 사용자가 이를 읽을 때의 음성을 녹음하고, 녹음된 음성을 분석하여 성문 데이터(제1성문 데이터) 및 잡음 데이터를 추출한다.
이때, 암호화는 하기의 수식 1과 같이 수행된다.
Ciphertext = f_enc(Plaintext1, f_key1(v_server, device_id, v_user)) ---(수식1)
여기서,
f_enc; 암호화 함수
plaintext1 = f(성문 데이터, 잡음 데이터)
f_key1; 제1암호화키
V_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값.
Device_id: 단말마다 가지고 있는 고유의 상수 값
V_user: 사용자에 대한 식별자
여기서, plaintext1 = f(성문 데이터, 잡음 데이터)는 성문 데이터와 잡음 데이터를 덧붙여서 일련의 데이터 열을 만드는 것을 의미한다.
한편, Device_id는 사용자 단말이 가지고 있는 하드웨어(H/W) 요소들과 디바이스 정보의 조합으로 생성된다.
수식1의 특징은 암호화시 잡음을 이용하지 않고 암호화키를 생성한다는 것이다.
이러한 성문 데이터 준비 과정(S100)은 회원 가입 시 수행될 수 있다.
도 3은 성문 데이터 준비 과정에서 사용자 음성으로부터 성문 및 잡음을 분리하는 것을 보인다.
성문 데이터를 추출하는 단계는 통상적으로 2가지 단계를 거친다.
첫 번째는 FFT (Fast Fourier Transform) 라는 수학적인 분석 작업을 거쳐서, 녹음된 데이터를 구성하고 있는 주파수의 성분대로 분리하는 작업이다.
이 작업을 통해서 사람의 목소리와 잡음을 각각 분리해 낼 수 있다.
여기서 추출해 낸 사람의 목소리의 파형과 진폭을 분석해 보면 사람마다 특징적인 분포를 보이면서 다르게 나타나는데 이 특징들을 추출하여 다른 사람과 구별되는 그 사람만의 성문 데이터를 구성하게 된다.
도 4는 도 2에 도시된 화자 인증 과정을 상세히 보인다.
도 4를 참조하면, 화자 인증 과정(S200)에서는 인증 서버가 임의의 문장이나 단어 혹은 숫자, 문자의 조합을 생성하여 사용자 단말로 전송하고, 사용자 단말이 인증 서버가 전송한 내용을 사용자에게 보여주고, 사용자가 해당 내용을 읽은 녹음 데이터에서 성문 및 잡음을 추출하여 사용자 인증 서버로 전송한다.
여기서, 암호화는 하기의 수식2를 사용하여 수행된다.
Ciphertext = f_enc(Plaintext2, f_key2(v_server, device_id, v_user, v_noise)) ---(수식2)
여기서,
f_enc; 암호화 함수
plaintext2; 성문 데이터
f_key2; 제2암호화키
V_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값.
Device_id: 단말마다 가지고 있는 고유의 상수 값
V_user: 사용자에 대한 식별자
V_noise: 성문 데이터 준비 과정에서 준비된 잡음 데이터로부터 생성한 상수 값
수식2의 특징은 암호화시 잡음을 이용하여 암호화키를 생성한다는 것이다.
인증 시, 잡음은 사용하지 않는다. 인증 시의 잡음을 사용하려면 인증 시마다 잡음을 전송하고 이를 저장하는 과정이 필요한 데, 그렇게 하지 않고 최초의 잡음만을 사용하여 기존에 상용화 되어 있는 기술을 조합하는 방법으로도 충분하다.
인증 서버는 사용자 단말에서 전송된 성문 데이터(제2성문 데이터)를 성문 데이터 준비 과정에서 저장된 성문 데이터(제1성문 데이터)와 비교하고 그 결과를 사용자 단말로 전송한다.
인증 서버는 성문 데이터 준비 과정(S100)에서 저장된 잡음 데이터를 이용하여 복호화를 위한 암호화키(제3암호화키)를 생성한다. 생성된 제3암호화키를 사용하여 사용자 단말에서 전송된 성문 데이터(제2성문 데이터)를 복호하고, 복호된 제2성문 데이터와 성문 데이터 준비 과정에서 저장된 제1성문 데이터와 같은 지를 비교한다.
신뢰성 있는 암호화는 불록 암호 알고리즘이 사용되고, 블록 암호 알고리즘은 Key가 반드시 사용된다. 따라서 이러한 암호화 방법에 대한 공격은 Key를 알아내는 데에 집중되고 있다.
본 발명의 주된 특징은 화자 인증 과정(S200)에서 성문 데이터 준비 과정(S100)에서 준비된 잡음 데이터를 암호화키 생성에 사용한다는 것이다.
성문 데이터 준비 과정(S100)에서는 아직 서버 상에 잡음 데이터가 저장되기 전이므로, 단말기가 수집한 잡음 데이터를 서버가 알 수 없다. 따라서 이 경우에는 암호화키 생성 시 잡음 데이터를 사용하지 못한다.
즉, 성문 데이터 준비 과정(S100)에서는 수식(1)에 보이는 바와 같이 암호화를 하되 암호화키 생성 시 잡음을 인수로 하지 않으며, 반면 화자 인증 과정(S200)에서는 수식(2)에 보이는 바와 같이, 성문 데이터 준비 과정에서 준비된 잡음 데이터를 인수로 하여 제2암호화키를 생성한다.
잡음 데이터는 매우 다양하고 동일한 경우가 하나도 없기 때문에 매우 훌륭한 난수성을 갖고 있다. 그래서 잡음을 추가하여 암호화키를 생성하면 이 키는 매우 알아내기 어렵다.
본 발명에 따른 화자 인증 방법은 두 가지 측면에서 강점을 갖는다.
첫 번째는 두 번째는 사용자의 성문 및 사용자 주변의 잡음을 함께 고려함으로써 효과적으로 사용자를 인증할 수 있다는 것이다.
두 번째는 잡음의 예측 불가능성을 이용하여 공격이 어려운 인증 방법을 구축할 수 있다는 것이다.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들은 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
100...사용자 단말 200...인증 서버
Claims (5)
- 인증 서버와 사용자 단말 사이의 인증 방법에 있어서,
상기 사용자 단말이 사용자의 음성 입력으로부터 성문과 잡음을 분리하고, 분리된 성문 데이터(제1성문 데이터) 및 잡음 데이터를 암호화하여 상기 인증 서버로 전송하고, 상기 인증 서버가 상기 사용자 단말로부터 입력된 제1성문 데이터 및 잡음 데이터를 저장하는 성문 데이터 준비 과정; 및
인증시, 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 사용자 단말로부터 입력받은 제2성문 데이터와 상기 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말로 전송하는 화자 인증 과정;을 포함하되,
상기 성문 데이터 준비 과정은
상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문(제1성문 데이터)을 암호화하여 상기 인증 서버로 전송하며,
상기 성문 데이터 준비 과정에서 하기의 수식
Ciphertext = f_enc(Plaintext1, f_key1(v_server, device_id, v_user))
(여기서,
f_enc: 암호화 함수,
Plaintext1 = f(성문 데이터, 잡음 데이터),
f_key1: 제1암호화키,
v_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값,
device_id: 단말마다 가지고 있는 고유의 상수 값,
v_user: 사용자에 대한 식별자)
을 이용하여 암호화되는 것을 특징으로 하는 화자 인증 방법. - 삭제
- 삭제
- 제1항에 있어서, 상기 화자 인증 과정에서 하기의 수식
Ciphertext = f_enc(Plaintext2, f_key2(v_server, device_id, v_user, v_noise))
여기서,
f_enc; 암호화 함수
plaintext2; 성문 데이터
f_key2; 제2암호화키
V_server: 인증서버에서 단말 별로 생성한 변수 값으로서 사용자 단말 별로 유일한 값.
Device_id: 단말마다 가지고 있는 고유의 상수 값
V_user: 사용자에 대한 식별자
V_noise: 상기 성문 데이터 준비 과정에서 준비된 잡음 데이터로부터 생성한 상수 값
을 이용하여 암호화되는 것을 특징으로 하는 화자 인증 방법. - 제4항에 있어서, 상기 화자 인증 과정에서 상기 인증 서버가 임의의 텍스트를 생성하여 상기 사용자 단말로 전송하고, 상기 사용자 단말이 상기 인증 서버로부터 전송받은 텍스트를 표출하고 사용자 음성을 입력받아 성문과 잡음을 분리하고, 분리된 성문 데이터(제2성문 데이터)를 상기 잡음을 인수로 하여 암호화하여 상기 인증 서버로 전송하며, 상기 인증 서버가 상기 성문 데이터 준비 과정에서 저장된 잡음 데이터를 이용하여 제3암호화키를 생성하고, 생성된 제3암호화키에 의해 제2성문 데이터를 복호하고, 복호된 제2성문 데이터와 상기 성문 데이터 준비 과정에서 저장된 제1성문 데이터를 비교하고 비교 결과를 상기 사용자 단말에 전송하는 것을 특징으로 하는 화자 인증 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200004159A KR102227418B1 (ko) | 2020-01-13 | 2020-01-13 | 화자 인증 방법 |
PCT/KR2021/000369 WO2021145634A1 (ko) | 2020-01-13 | 2021-01-12 | 화자 인증 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200004159A KR102227418B1 (ko) | 2020-01-13 | 2020-01-13 | 화자 인증 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102227418B1 true KR102227418B1 (ko) | 2021-03-12 |
Family
ID=75177121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200004159A KR102227418B1 (ko) | 2020-01-13 | 2020-01-13 | 화자 인증 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102227418B1 (ko) |
WO (1) | WO2021145634A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102356069B1 (ko) * | 2021-12-21 | 2022-02-09 | (주)리인터내셔널 | 외국인 식별을 통한 외국인 전용 카지노 게임시스템 및 그 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100276846B1 (ko) * | 1997-06-11 | 2001-01-15 | 포만 제프리 엘 | 휴대용 음성 인식 장치, 음성 인식 시스템 및 음성에 의한 유효클라이언트 인증 방법 |
KR101325867B1 (ko) * | 2012-02-24 | 2013-11-05 | 주식회사 팬택 | 음성 인식을 이용한 사용자 인증 방법, 이를 위한 장치 및 시스템 |
KR101395805B1 (ko) | 2013-09-06 | 2014-05-20 | 주식회사 엔에스에이치씨 | 성문 인식 및 난수열 생성을 이용한 사용자 인증 방법 |
KR101908711B1 (ko) | 2015-03-20 | 2018-10-16 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 인공 지능을 기반으로 하는 성문 로그인 방법 및 장치 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100672341B1 (ko) * | 2006-01-20 | 2007-01-24 | 엘지전자 주식회사 | 데이터 암호화 방법 및 그를 위한 단말기 |
KR20190138085A (ko) * | 2018-06-04 | 2019-12-12 | 김지헌 | 고유음성 인식을 이용한 본인인증 이어폰 장치 |
-
2020
- 2020-01-13 KR KR1020200004159A patent/KR102227418B1/ko active IP Right Grant
-
2021
- 2021-01-12 WO PCT/KR2021/000369 patent/WO2021145634A1/ko active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100276846B1 (ko) * | 1997-06-11 | 2001-01-15 | 포만 제프리 엘 | 휴대용 음성 인식 장치, 음성 인식 시스템 및 음성에 의한 유효클라이언트 인증 방법 |
KR101325867B1 (ko) * | 2012-02-24 | 2013-11-05 | 주식회사 팬택 | 음성 인식을 이용한 사용자 인증 방법, 이를 위한 장치 및 시스템 |
KR101395805B1 (ko) | 2013-09-06 | 2014-05-20 | 주식회사 엔에스에이치씨 | 성문 인식 및 난수열 생성을 이용한 사용자 인증 방법 |
KR101908711B1 (ko) | 2015-03-20 | 2018-10-16 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 인공 지능을 기반으로 하는 성문 로그인 방법 및 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102356069B1 (ko) * | 2021-12-21 | 2022-02-09 | (주)리인터내셔널 | 외국인 식별을 통한 외국인 전용 카지노 게임시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2021145634A1 (ko) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gomez-Barrero et al. | Privacy-preserving comparison of variable-length data with application to biometric template protection | |
US20180241558A1 (en) | 1:n biometric authentication, encryption, signature system | |
Barman et al. | Fingerprint-based crypto-biometric system for network security | |
Johnson et al. | Secure voice-based authentication for mobile devices: vaulted voice verification | |
Alberto Torres et al. | Privacy-preserving biometrics authentication systems using fully homomorphic encryption | |
KR20070086656A (ko) | 생체측정 데이터 및 비밀 추출 코드를 사용하는 키생성 | |
Al-Assam et al. | Automated biometric authentication with cloud computing | |
Karimovich et al. | Biometric cryptosystems: Open issues and challenges | |
Wu et al. | Attacks and countermeasures on privacy-preserving biometric authentication schemes | |
Johnson et al. | Voice authentication using short phrases: Examining accuracy, security and privacy issues | |
KR102227418B1 (ko) | 화자 인증 방법 | |
WO2020121458A1 (ja) | 照合システム、クライアントおよびサーバ | |
Osho et al. | AbsoluteSecure: a tri-layered data security system | |
Mandal et al. | Comprehensive and improved secure biometric system using homomorphic encryption | |
Banerjee et al. | A perfect dynamic-id and biometric based remote user authentication scheme under multi-server environments using smart cards | |
WO2020121459A1 (ja) | 認証システム、クライアントおよびサーバ | |
Mishra et al. | Pseudo-biometric identity framework: Achieving self-sovereignity for biometrics on blockchain | |
Lalithamani et al. | Dual encryption algorithm to improve security in hand vein and palm vein-based biometric recognition | |
Wilusz et al. | Security analysis of transaction authorization methods for next generation electronic payment services | |
Nair et al. | Multibiometric cryptosystem based on decision level fusion for file uploading in cloud | |
Hernández-Álvarez et al. | KeyEncoder: A secure and usable EEG-based cryptographic key generation mechanism | |
KR20100013612A (ko) | 사용자 인증 시스템 및 그 방법 | |
Abidin et al. | An efficient entity authentication protocol with enhanced security and privacy properties | |
Boddeti et al. | A biometric key-binding and template protection framework using correlation filters | |
CN112287316B (zh) | 基于椭圆曲线和可取消生物特征的生物认证方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |