KR20190138085A - Identity authentication earphone device with a unique voice recognition - Google Patents

Identity authentication earphone device with a unique voice recognition Download PDF

Info

Publication number
KR20190138085A
KR20190138085A KR1020180064210A KR20180064210A KR20190138085A KR 20190138085 A KR20190138085 A KR 20190138085A KR 1020180064210 A KR1020180064210 A KR 1020180064210A KR 20180064210 A KR20180064210 A KR 20180064210A KR 20190138085 A KR20190138085 A KR 20190138085A
Authority
KR
South Korea
Prior art keywords
voice
user
authentication
frequency
data
Prior art date
Application number
KR1020180064210A
Other languages
Korean (ko)
Inventor
김지헌
박수홍
Original Assignee
김지헌
박수홍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김지헌, 박수홍 filed Critical 김지헌
Priority to KR1020180064210A priority Critical patent/KR20190138085A/en
Publication of KR20190138085A publication Critical patent/KR20190138085A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a user authentication earphone device using unique voice recognition, which comprises: a receiving unit (100) for receiving voice of a user and noise generated therearound to request user authentication information stored in a user terminal or an application; a frequency converting device unit (200) for converting data input from the receiving unit (100) into each frequency data for processing user authentication; an authentication processing unit (300) for checking user registration for a frequency generated in the frequency converting device unit (200), and executed based on voice and ear sound of the user input from the user terminal or the application when the voice or ear sound of the user is registered as the user authentication; and a database (400) for storing data processed by the authentication processing unit (300), data received from the receiving unit (100) or frequency data generated by the frequency converting device unit (200) in real time.

Description

고유음성 인식을 이용한 본인인증 이어폰 장치{IDENTITY AUTHENTICATION EARPHONE DEVICE WITH A UNIQUE VOICE RECOGNITION}Personal authentication earphone device using unique voice recognition {IDENTITY AUTHENTICATION EARPHONE DEVICE WITH A UNIQUE VOICE RECOGNITION}

본 발명은 고유음성 인식을 이용한 본인인증 이어폰 장치에 관한 것으로서, 기존 아이디, 비밀번호 기반으로 인증하는 인증수단이 아닌 사용자의 목소리를 통하여 인증하는 고유음성 인식을 이용한 본인인증 이어폰 장치에 관한 것이다.The present invention relates to a self-identifying earphone device using a unique voice recognition, and to a self-certifying earphone device using a unique voice recognition to authenticate through a voice of a user, rather than an authentication means for authenticating based on an existing ID and password.

현재, 이동통신사 또는 금융업계와 같이 가입 고객 중심으로 하는 서비스를 제공하는 업체에서는, 업체 자신이 제공하고 있는 서비스에 대한 안내서비스를 제공하는 안내서비스시스템을 구비하여, 가입 고개에게 편의성을 제공하면서 동시에 업체 자신의 서비스 효율을 증대시키고 있다.Currently, companies that provide services centered on subscription customers, such as mobile carriers or the financial industry, have a guide service system that provides guidance services for services provided by the company itself, while providing convenience to the subscription head. The company's own service efficiency is increasing.

목소리 기반 인증 방식의 경우, 가입 고객의 인증용 목소리를 사전에 등록해 두고, 본인 인증 필요 시 인증 대 상인 가입 고객의 목소리 및 해당 가입 고객의 사전 등록된 인증용 목소리 간의 일치 여부에 따른 인증 결과(정상 인증, 또는 비정상 인증)을 도출하는 방식이다.In the case of the voice-based authentication method, the authentication voice of the registered customer is registered in advance, and if authentication is required, the authentication result according to the match between the voice of the registered target customer and the registered customer's pre-registered authentication voice ( Normal authentication or abnormal authentication).

그러나, 목소리 기반 인증 방식은, 사전 등록하는 인증용 목소리가 정당한 가입 고객 본인이 아닌 다른 사람의 목소리로 등록될 경우, 정당한 가입 고객 본인이 원천적으로 정상 인증 받을 수 없는 문제점이 있다.However, the voice-based authentication scheme has a problem in that the legitimate registered customer cannot be normally authenticated if the pre-registered authentication voice is registered with a voice of someone other than the legitimate subscribed customer.

또한, 주변에서 발생하는 소음과 녹음된 목소리에 대한 진위여부, 감기 등 목소리에 영향을 줄 수 있는 질병에 걸린 경우 그에 따른 인식 성공률 등이 문제가 발생되며, 정당한 가입 고객 본인이라 할지라도 상황에 따라 목소리가 달라질 수 있고, 다른 사람이 가입 고객의 목소리를 흉내냄으로써 인증결과에 신뢰도가 떨어지는 문제점이 있다.In addition, if there is a disease that can affect the voice, such as the noise of the surroundings, the authenticity of the recorded voice, and the common cold, the recognition success rate will be caused, and even if you are a legitimate subscriber, The voice may be different, and there is a problem that the reliability of the authentication result is lowered by mimicking the voice of another customer.

본 발명은 상기의 종래기술의 문제점을 해결하기 위해 창안된 것으로서, 보다 상세하게는 1차 목소리만으로 본인 인증을 하는 것이 아니라 2차 귓소리까지 본인 인증을 함으로써 정교하고 정확한 생체인증 수단으로 사용이 가능한 고유음성 인식을 이용한 본인인증 이어폰 장치를 제공하는 것을 목적으로 한다.The present invention has been devised to solve the above problems of the prior art, and more specifically, it can be used as a precise and accurate biometric means by authenticating not only the first voice but also the second beep. An object of the present invention is to provide a self-certified earphone device using unique voice recognition.

본 발명의 바람직한 일실시예에 따르면, 사용자 단말기 또는 앱에 저장되어진 본인 인증 정보를 요청하기 위해 상기 사용자의 목소리와 주변에서 발생되어지는 잡음을 수신하는 수신부(100); 상기 수신부(100)에서 입력받은 데이터를 사용자의 인증처리를 하기 위해 각 각의 주파수 데이터로 변환되어지는 주파수 변환 장치부(200); 상기 주파수 변환 장치부(200)에서 생성된 주파수에 대한 본인 등록여부를 확인하고, 상기 본인의 목소리 또는 귓소리가 본인 인증에 등록되어 있으면 상기 사용자 단말기 또는 앱으로부터 입력받은 사용자의 목소리 및 귓소리를 기반으로 실행하는 인증 처리부(300);를 포함하며, 상기 인증 처리부(300)에서 처리되어진 데이터와 상기 수신부(100)에서 수신된 데이터 또는 상기 주파수 변환 장치부(200)에서 생성된 주파수 데이터를 실시간으로 저장되는 데이터베이스(400);가 포함되어지는 것을 특징으로 한다.According to a preferred embodiment of the present invention, the receiving unit for receiving the noise generated in the vicinity and the voice of the user to request the user authentication information stored in the user terminal or the app; A frequency converting device unit 200 for converting the data input from the receiving unit 100 into respective frequency data for user authentication processing; Check whether the user registration for the frequency generated by the frequency conversion device unit 200, and if the voice or beep is registered in the user authentication, the voice and beep of the user input from the user terminal or app An authentication processing unit 300 to execute based on the data processed by the authentication processing unit 300 and the data received by the receiving unit 100 or the frequency data generated by the frequency converting unit 200 in real time. The database 400 is stored as; characterized in that it is included.

본 발명의 다른 일실시예에 따르면, 상기 수신부(100)는 상기 사용자의 목소리를 저장하는 보이스 수신부(110)와, 상기 주변에서 발생되는 잡음을 저장하는 노이즈 수신부(120)가 더 포함되어지며, 상기 보이스 수신부(110)는 상기 사용자가 발성되는 목소리는 사용자의 귀바퀴 모양에 따라 고유의 데이터가 생성되어지는 데이터생성부(130)가 더 포함되어지는 것을 특징으로 한다.According to another embodiment of the present invention, the receiver 100 further includes a voice receiver 110 for storing the user's voice, and a noise receiver 120 for storing noise generated in the surroundings. The voice receiver 110 may further include a data generator 130 in which a unique voice is generated according to the shape of the ear of the user.

본 발명의 다른 일실시예에 따르면, 상기 주파수 변환 장치부(200)는 상기 수신부(100)에서 입력받은 데이터를 각 각의 주파수 데이터로 변환하기 위해 상기 사용자의 목소리를 변환하는 보이스 변환장치(210)와, 상기 주변에서 발생되는 잡음을 변환하는 노이즈 변환장치(220)로 구성되며, 상기 보이스 변환장치(210)는 사용자의 귀바퀴에 따라 필터링되는 귀바퀴 주파수 필터링장치(211)가 더 포함되어지는 것을 특징으로 한다.According to another embodiment of the present invention, the frequency converter 200 is a voice converter 210 for converting the voice of the user to convert the data received from the receiver 100 to the respective frequency data And a noise converter 220 for converting noise generated in the surroundings, wherein the voice converter 210 further includes an ear wheel frequency filtering device 211 filtered according to a user's ear wheel. It features.

본 발명의 다른 일실시예에 따르면, 상기 인증 처리부(300)는 상기 주파수 변환 장치부(200)에서 생성된 주파수에 변환되어진 사용자의 목소리와 주변에서 발생되어진 잡음을 비교하기 위해 위상 캔슬 필터링(310)을 통해서 사용자의 목소리와 주변에서 발생된 잡음을 걸러내며, 상기 위상 캔슬 필터링(310)은 데이터베이스(400)에 저장되어진 데이터와 비교하는 것을 특징으로한다.According to another exemplary embodiment of the present invention, the authentication processor 300 performs phase cancellation filtering 310 to compare the user's voice converted to the frequency generated by the frequency converter 200 and the noise generated in the vicinity. The filter filters the user's voice and noise generated in the surroundings, and the phase cancellation filtering 310 compares the data stored in the database 400.

본 발명의 다른 일실시예에 따르면, 상기 위상 캔슬 필터링(310)을 통해서 상기 주파수 변환 장치부(200)에서 발생된 데이터와 상기 데이터베이스(400)에 저장되어진 사용자의 인증정보가 포함되어진 데이터를 비교하여 주파수 변환 장치부(200)에서 송신된 인증정보가 일치할 경우, 상기 위상 캔슬 필터링(310)을 통해서 인증되어진 정보는 사용자의 단말기 또는 앱을 실행되어지는 것을 특징으로 한다.According to another embodiment of the present invention, the data generated by the frequency converter 200 through the phase cancellation filtering 310 and the data including the authentication information of the user stored in the database 400 is compared When the authentication information transmitted from the frequency converter 200 matches, the information authenticated through the phase cancellation filtering 310 is executed by a user terminal or an app.

본 발명의 다른 일실시예에 따르면, 상기 수신부(100)는 사용자의 목소리 이외의 잡음을 선택할 수 있는 노이즈 리덕션(140)이 더 포함되어지는 것을 특징으로 한다.According to another exemplary embodiment of the present invention, the receiver 100 may further include a noise reduction 140 that may select noise other than the voice of the user.

본 발명의 다른 일실시예에 따르면, 상기 위상 캔슬 필터링(310)은 사용자의 목소리와 주변에서 발생되는 잡음을 모노 또는 스테레오로 분류되어지며, 상기 스테레오는 사용자의 목소리와 상기 사용자의 목소리와 비슷한 목소리를 분별되어지는 기능을 더 포함하는 것을 특징으로 한다.According to another exemplary embodiment of the present invention, the phase cancellation filtering 310 classifies a user's voice and noise generated from the surrounding into mono or stereo, and the stereo voice is similar to the user's voice and the user's voice. It characterized in that it further comprises a function to be classified.

본 발명의 다른 일실시예에 따르면, 상기 수신부(100)에서 수신되어지는 가청 주파수 대역(20HZ ~ 20KHZ)은 평탄한 주파수 특성을 가지는 것을 특징으로 한다.According to another embodiment of the present invention, the audible frequency band 20HZ to 20KHZ received by the receiver 100 is characterized by having a flat frequency characteristic.

본 발명의 다른 일실시예에 따르면, 본인의 인증용 목소리 등록을 위해 귀속 삽입형 마이크를 이용하여 단말기 접속 또는 단말기 내부에 설치된 앱에 접속되는 접속단계(S100); 상기 단말기 또는 단말기 내부에 설치된 앱에 대하여, 본인인증 완료 여부를 확인하는 인증완료확인단계(S200); 및 상기 본인인증 완료가 확인되는 경우에만, 상기 특정 단말기 또는 앱으로 부터 전송되는 목소리에 따른 목소리정보를 상기 단말기 또는 앱과 관련된 인증용 목소리정보로 등록 처리하는 목소리 정보등록단계(S300);를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, a connection step (S100) connected to a terminal connection or an app installed in the terminal by using an in-ear microphone to register his own voice for authentication; Authentication completion confirmation step (S200) for checking whether the authentication is completed for the terminal or the app installed inside the terminal; And voice information registration step (S300) of registering the voice information according to the voice transmitted from the specific terminal or the app as authentication voice information related to the terminal or the app only when the identity verification is completed. Characterized in that.

한편 본 명세서에 개시된 기술에 관한 설명은 단지 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 개시된 기술에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.On the other hand, the description of the technology disclosed herein is only an embodiment for structural or functional description, the scope of the disclosed technology is not to be construed as limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the disclosed technology does not mean that a specific embodiment should include all or only such effects, and thus the scope of the disclosed technology should not be understood as being limited thereto.

또한 본 고안에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다. “제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소로 제1 구성요소로 명명될 수 있다.In addition, the meaning of the terms described in the present invention should be understood as follows. The terms “first” and “second” are used to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, a first component may be named a second component, and similarly may be named a first component as a second component.

나아가 어떤 구성요소가 다른 구성요소에 “연결되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.Further, when a component is referred to as being "connected" to another component, it should be understood that there may be other components in between, although it may be directly connected to the other component. On the other hand, when a component is referred to as being "directly connected" to another component, it should be understood that there is no other component in between. On the other hand, other expressions that describe the relationship between the components, such as "between" and "between," or "neighboring to," and "direct neighboring to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다”또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as “include” or “have” refer to features, numbers, steps, operations, components, parts, or parts thereof described. It is to be understood that the combination is intended to be present and does not exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 고안이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 고안에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Generally, the terms defined in the dictionary used are to be interpreted as being consistent with the meanings in the context of the related art, and should not be interpreted as having ideal or excessively formal meanings unless clearly defined in the present invention.

본 발명에 따른 고유음성 인식을 이용한 본인인증 이어폰 장치는 종래의 기존 아이디 및 비밀번호를 기반으로 인증하는 인증수단이 아닌 사용자의 목소리와 그에 따른 귓소리를 통해 인증하는 고유음성 인식을 이용한 본인인증 이어폰 장치에 관한 것이다.The self-identifying earphone device using the unique voice recognition according to the present invention is not an authentication means for authenticating based on a conventional ID and password, but a self-certifying earphone device using a unique voice recognition for authenticating through a user's voice and a beep. It is about.

도 1은 본 발명에 따른 고유음성 인식을 이용한 본인인증 이어폰 장치에 따른 사용자의 귀바퀴 모양에 따른 독자적인 주파수 반응을 나타내는 흐름도
도 2는 본 발명에 따른 스피커 및 마이크가 결합되어진 귀속 삽입형 이어폰 유닛을 도시한 구성도
도 3은 본 발명에 따른 귀속 삽입형 이어폰을 착용한 것을 도시한 구성도
도 4는 본 발명에 따른 고유음성 인식을 이용한 본인인증 이어폰 장치에 따른 장치를 도시한 흐름도이다.
1 is a flow chart showing an independent frequency response according to the shape of the ear of the user according to the earphone device using the unique voice recognition according to the present invention
Figure 2 is a block diagram showing an ear plug-in earphone unit coupled to the speaker and the microphone according to the present invention
Figure 3 is a block diagram showing wearing an ear-insert earphone according to the invention
4 is a flowchart illustrating a device according to the self-identifying earphone device using the unique voice recognition according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 4는 본 발명은 고유음성 인식을 이용한 본인인증 이어폰 장치 및 방법을 도시한 것으로 사용자 단말기 또는 앱에 저장되어진 본인 인증 정보를 요청하기 위해 상기 사용자의 목소리와 주변에서 발생되어지는 잡음을 수신하는 수신부(100); 상기 수신부(100)에서 입력받은 데이터를 사용자의 인증처리를 하기 위해 각 각의 주파수 데이터로 변환되어지는 주파수 변환 장치부(200); 상기 주파수 변환 장치부(200)에서 생성된 주파수에 대한 본인 등록여부를 확인하고, 상기 본인의 목소리 또는 귓소리가 본인 인증에 등록되어 있으면 상기 사용자 단말기 또는 앱으로부터 입력받은 사용자의 목소리 및 귓소리를 기반으로 실행하는 인증 처리부(300)로 구성되며, 상기 인증 처리부(300)에서 처리되어진 데이터와 상기 수신부(100)에서 수신된 데이터 또는 상기 주파수 변환 장치부(200)에서 생성된 주파수 데이터를 실시간으로 저장되는 데이터베이스(400);가 더 포함되어진다.1 to 4 illustrate a device and a method for authenticating an earphone using intrinsic voice recognition according to an embodiment of the present invention, in which a noise generated in the user's voice and surroundings is requested to request identity authentication information stored in a user terminal or an app. Receiving unit 100 for receiving; A frequency converting device unit 200 for converting the data input from the receiving unit 100 into respective frequency data for user authentication processing; Check whether the user registration for the frequency generated by the frequency conversion device unit 200, and if the voice or beep is registered in the user authentication, the voice and beep of the user input from the user terminal or app It is composed of an authentication processing unit 300 to execute based on the data processed by the authentication processing unit 300 and the data received by the receiving unit 100 or the frequency data generated by the frequency converter 200 in real time Database 400 is stored; is further included.

여기서, 상기 수신부(100)는 상기 사용자의 목소리를 저장하는 보이스 수신부(110)와, 상기 주변에서 발생되는 잡음을 저장하는 노이즈 수신부(120)와 상기 사용자가 발성되는 목소리는 사용자의 귀바퀴 모양에 따라 고유의 데이터가 생성되어지는 데이터 생성부(130)가 더 포함된다.Here, the receiver 100 is a voice receiver 110 for storing the user's voice, the noise receiver 120 for storing the noise generated in the surroundings and the voice that the user is speaking according to the shape of the ear of the user The data generation unit 130 in which unique data is generated is further included.

여기서 상기 수신부(100)는 목소리와 귓소리에 대한 정보를 수신 받는 것이 선호되지만, 동일한 목적과 기능을 달성할 수 있는 범위내에서 다른 형상 및 재질로 구성되어지는 것을 배제하는 것은 아니다.Here, the receiver 100 preferably receives information about a voice and a beep, but does not exclude that the receiver 100 is composed of different shapes and materials within a range capable of achieving the same purpose and function.

상기 보이즈 수신부(110)는 사용자의 성대를 통해서 나온 음성과 사용자의 귀바퀴 모양에 따라 귓소리를 저장하게 된다.The voice receiving unit 110 stores the beep sound according to the voice coming out through the vocal cords of the user and the shape of the ear wheels of the user.

상기 노이즈 수신부(120)는 주변에서 발생되는 잡음과 상기 이어폰에서 발산되는 음향을 저장하게 된다.The noise receiver 120 stores the noise generated from the surroundings and the sound emitted from the earphone.

여기서, 상기 발산되어지는 음향은 일반 음악 또는 단말기를 대상으로 하여 타인과 주고 받는 통화등이 포함된다.Here, the emitted sound includes a general music or a call with another person for a terminal.

또한, 상기 수신부(100)는 귓소리를 녹음할 수 있는 기능을 추가적으로 탑재가 가능하므로 이에 관하여 자세한 설명은 생략하기로 한다.In addition, since the receiving unit 100 can be additionally equipped with a function of recording a beep sound, detailed description thereof will be omitted.

상기 수신부(100)는 사용자의 목소리 이외의 잡음을 선택할 수 있는 노이즈 리덕션(140)이 더 포함되어지며, 상기 노이즈 리덕션(140)은 주변에서 발생되는 잡음을 포함하는 것을 물론이요, 타인과 통화하는 대화 및 상기 이어폰을 통해서 발생되는 음향 등을 말하는 것이다.The receiver 100 further includes a noise reduction 140 for selecting noise other than the voice of the user, and the noise reduction 140 includes noise generated in the surroundings. Talk and sound generated through the earphone.

상기 수신부(100)에서 수신되어지는 가청 주파수 대역(20HZ ~ 20KHZ)은 평탄한 주파수 특성을 가지는 것이 선호되지만, 동일한 목적과 기능을 달성할 수 있는 범위내에서 다른 형상 및 재질로 구성되어지는 것을 배제하는 것은 아니다.The audible frequency bands 20HZ to 20KHZ received by the receiver 100 preferably have flat frequency characteristics, but exclude that they are composed of different shapes and materials within a range capable of achieving the same purpose and function. It is not.

상기 주파수 변환 장치부(200)는 상기 수신부(100)에서 입력받은 데이터를 각 각의 주파수 데이터로 변환하기 위해 상기 사용자의 목소리를 변환하는 보이스 변환장치(210)와, 상기 주변에서 발생되는 잡음을 변환하는 노이즈 변환장치(220)가 더 포함된다.The frequency converter 200 is a voice converter 210 for converting the voice of the user to convert the data received from the receiver 100 to the respective frequency data and the noise generated in the surroundings A noise converter 220 for converting is further included.

여기서 상기 보이스 변환장치(210)는 사용자의 귀바퀴에 따라 필터링되는 귀바퀴 주파수 필터링장치(211)가 더 포함되어지며, 상기 귀바퀴 주파수 필터링장치(211)는 상기 수신부(100)에서 녹음되어진 귓소리를 통해서 필터링을 하게 된다.Here, the voice conversion device 210 further includes an ear frequency filtering device 211 that is filtered according to the user's ear wheels, and the ear wheel frequency filtering device 211 is recorded through the beep sound recorded by the receiver 100. It will filter.

상기 인증 처리부(300)는 상기 주파수 변환 장치부(200)에서 생성된 주파수에 변환되어진 사용자의 목소리와 주변에서 발생되어진 잡음을 비교하기 위해 위상 캔슬 필터링(310)을 통해서 사용자의 목소리와 주변에서 발생된 잡음을 걸러내며, 상기 위상 캔슬 필터링(310)은 데이터베이스(400)에 저장되어진 데이터와 비교하게 된다.The authentication processing unit 300 is generated in the user's voice and surroundings through a phase cancellation filtering 310 to compare the user's voice converted to the frequency generated by the frequency converter 200 and noise generated in the surroundings. The phase cancellation filtering 310 compares with the data stored in the database 400.

또한, 상기 위상 캔슬 필터링(310)은 사용자의 목소리와 주변에서 발생되는 잡음을 모노 또는 스테레오로 분류하는 것이 가능하며, 상기 사용자의 목소리를 분류한 스테레오는 한번 더 사용자의 목소리와 비슷한 목소리가 있는지 한번 더 확인하게 된다.In addition, the phase cancellation filtering 310 may classify the user's voice and noise generated from the surroundings into mono or stereo, and the stereo classifying the user's voice is once again whether there is a voice similar to the user's voice. You will see more.

여기서 데이터베이스(400)에 저장되어진 데이터는 사용자의 인증정보가 포함되어진 데이터를 말하며, 상기 위상 캔슬 필터링(310)은 주파수 변환 장치부(200)에서 송신된 데이터와, 상기 데이터베이스(400)에서 저장된 인증 데이터가 일치할 경우, 상기 인증되어진 정보는 사용자의 단말기 또는 앱을 실행하기위해 제어부에 요청을 하게 된다.Here, the data stored in the database 400 refers to data including the authentication information of the user. The phase cancellation filtering 310 is data transmitted from the frequency converter 200 and the authentication stored in the database 400. If the data matches, the authenticated information requests the controller to execute the user's terminal or app.

여기서 상기 위상 캔슬 필터링(310)을 통해서 걸러되어진 데이터 주파수는 상기 데이터베이스(400)에 실시간으로 저장되며, 상기 데이터베이스(400)는 상기 수신부(100)와 주파수 변환 장치부(200)와 인증 처리부(300)에서 생성된 데이터를 서버부(500)에 패킷별로 분할하여 전송하게 된다.Here, the data frequencies filtered through the phase cancellation filtering 310 are stored in the database 400 in real time, and the database 400 includes the receiver 100, the frequency converter 200, and the authentication processor 300. The data generated at) is transmitted to the server unit 500 by dividing the data into packets.

여기서 상기 서버부(500)는 상기 데이터베이스(400)에서 송신된 데이터가 악성 코드 및 상기 데이터베이스(400)에서 송신된 데이터가 조각되어있는지 여부를 판단하게 되며, 상기 데이터 조각 또는 악성 코드가 있는 경우 상기 데이터베이스(400)에서 송신된 데이터 및 저장되어진 데이터는 즉각 삭제하게 된다.Here, the server unit 500 determines whether the data transmitted from the database 400 is a malicious code and whether the data transmitted from the database 400 is fragmented. Data transmitted from the database 400 and stored data are immediately deleted.

다음으로, 본 발명에 따른 고유음성 인식을 이용한 본인인증 방법을 하기 위해 본인의 인증용 목소리 등록을 위해 귀속 삽입형 마이크를 이용하여 단말기 접속 또는 단말기 내부에 설치된 앱에 접속되는 접속단계(S100); 상기 단말기 또는 단말기 내부에 설치된 앱에 대하여, 본인인증 완료 여부를 확인하는 인증완료확인단계(S200); 및 상기 본인인증 완료가 확인되는 경우에만, 상기 특정 단말기 또는 앱으로 부터 전송되는 목소리에 따른 목소리정보를 상기 단말기 또는 앱과 관련된 인증용 목소리정보로 등록 처리하는 목소리 정보등록단계(S300);를 통해서 인증하게 된다.Next, a connection step (S100) connected to a terminal connection or an app installed inside the terminal by using an attributable microphone to register the user's authentication voice in order to perform a user authentication method using the unique voice recognition according to the present invention; Authentication completion confirmation step (S200) for checking whether the authentication is completed for the terminal or the app installed inside the terminal; And voice information registration step (S300) of registering the voice information according to the voice transmitted from the specific terminal or the app as authentication voice information related to the terminal or the app only when the identity verification is completed. You will be authenticated.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

100 : 수신부 200 : 주파수 변환 장치부
300 : 인증 처리부 400 : 데이터베이스
100 receiver 200 frequency converter
300: authentication processing unit 400: database

Claims (9)

사용자 단말기 또는 앱에 저장되어진 본인 인증 정보를 요청하기 위해 상기 사용자의 목소리와 주변에서 발생되어지는 잡음을 수신하는 수신부(100);
상기 수신부(100)에서 입력받은 데이터를 사용자의 인증처리를 하기 위해 각 각의 주파수 데이터로 변환되어지는 주파수 변환 장치부(200);
상기 주파수 변환 장치부(200)에서 생성된 주파수에 대한 본인 등록여부를 확인하고, 상기 본인의 목소리 또는 귓소리가 본인 인증에 등록되어 있으면 상기 사용자 단말기 또는 앱으로부터 입력받은 사용자의 목소리 및 귓소리를 기반으로 실행하는 인증 처리부(300);를 포함하며,
상기 인증 처리부(300)에서 처리되어진 데이터와 상기 수신부(100)에서 수신된 데이터 또는 상기 주파수 변환 장치부(200)에서 생성된 주파수 데이터를 실시간으로 저장되는 데이터베이스(400);가 포함되어지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
Receiving unit for receiving the noise generated in the voice and the surrounding of the user to request the user authentication information stored in the user terminal or the app;
A frequency converting device unit 200 which converts the data received from the receiving unit 100 into respective frequency data for user authentication processing;
Check whether the user registers the frequency generated by the frequency conversion unit 200, and if the voice or beep is registered in the user authentication, the voice and beep of the user input from the user terminal or app It includes; authentication processing unit 300 to execute based on,
And a database 400 storing data processed by the authentication processor 300 and data received by the receiver 100 or frequency data generated by the frequency converter 200 in real time. Self-certified earphone device using the unique voice recognition.
제 1 항에 있어서,
상기 수신부(100)는
상기 사용자의 목소리를 저장하는 보이스 수신부(110)와,
상기 주변에서 발생되는 잡음을 저장하는 노이즈 수신부(120)가 더 포함되어지며, 상기 보이스 수신부(110)는 상기 사용자가 발성되는 목소리는 사용자의 귀바퀴 모양에 따라 고유의 데이터가 생성되어지는 데이터생성부(130)가 더 포함되어지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 1,
The receiver 100 is
Voice receiving unit 110 for storing the voice of the user,
A noise receiver 120 for storing the noise generated in the surroundings is further included, and the voice receiver 110 is a data generator in which a unique voice is generated according to the shape of the ear of the user. Self-certified earphone device using the unique voice recognition, characterized in that the 130 is further included.
제 1 항에 있어서,
상기 주파수 변환 장치부(200)는
상기 수신부(100)에서 입력받은 데이터를 각 각의 주파수 데이터로 변환하기 위해 상기 사용자의 목소리를 변환하는 보이스 변환장치(210)와, 상기 주변에서 발생되는 잡음을 변환하는 노이즈 변환장치(220)로 구성되며, 상기 보이스 변환장치(210)는 사용자의 귀바퀴에 따라 필터링되는 귀바퀴 주파수 필터링장치(211)가 더 포함되어지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 1,
The frequency converter 200
In order to convert the data received from the receiving unit 100 into the respective frequency data voice conversion device 210 for converting the voice of the user, and noise converter 220 for converting the noise generated in the surroundings Is configured, the voice conversion device 210 is a personal authentication earphone device using the unique voice recognition, characterized in that the ear wheel frequency filtering device 211 is further filtered according to the user's ear wheels.
제 1 항에 있어서,
상기 인증 처리부(300)는
상기 주파수 변환 장치부(200)에서 생성된 주파수에 변환되어진 사용자의 목소리와 주변에서 발생되어진 잡음을 비교하기 위해 위상 캔슬 필터링(310)을 통해서 사용자의 목소리와 주변에서 발생된 잡음을 걸러내며, 상기 위상 캔슬 필터링(310)은 데이터베이스(400)에 저장되어진 데이터와 비교하는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 1,
The authentication processing unit 300
In order to compare the user's voice converted to the frequency generated by the frequency converter 200 and the noise generated in the surroundings, the user's voice and the noise generated in the surroundings are filtered through the phase cancellation filtering 310. Phase cancellation filtering 310 is a personal authentication earphone device using the unique speech recognition, characterized in that compared with the data stored in the database (400).
제 4 항에 있어서,
상기 위상 캔슬 필터링(310)을 통해서 상기 주파수 변환 장치부(200)에서 발생된 데이터와 상기 데이터베이스(400)에 저장되어진 사용자의 인증정보가 포함되어진 데이터를 비교하여 주파수 변환 장치부(200)에서 송신된 인증정보가 일치할 경우, 상기 위상 캔슬 필터링(310)을 통해서 인증되어진 정보는 사용자의 단말기 또는 앱을 실행되어지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 4, wherein
Through the phase cancellation filtering 310, the data generated by the frequency converter 200 and the data including the authentication information of the user stored in the database 400 are compared and transmitted from the frequency converter 200. When the authentication information is matched, the information authenticated through the phase cancellation filtering 310 is a user authentication earphone device using a unique voice recognition, characterized in that the user's terminal or an app is executed.
제 2 항에 있어서,
상기 수신부(100)는 사용자의 목소리 이외의 잡음을 선택할 수 있는 노이즈 리덕션(140)이 더 포함되어지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 2,
The receiver 100 further comprises a noise reduction 140 for selecting noise other than the voice of the user.
제 4 항에 있어서,
상기 위상 캔슬 필터링(310)은 사용자의 목소리와 주변에서 발생되는 잡음을 모노 또는 스테레오로 분류되어지며, 상기 스테레오는 사용자의 목소리와 상기 사용자의 목소리와 비슷한 목소리를 분별되어지는 기능을 더 포함하는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 4, wherein
The phase cancellation filtering 310 classifies a user's voice and noise generated from the surroundings into mono or stereo, and the stereo further includes a function of distinguishing between a user's voice and a voice similar to the user's voice. Self-certified earphone device using the unique voice recognition.
제 1 항에 있어서,
상기 수신부(100)에서 수신되어지는 가청 주파수 대역(20HZ ~ 20KHZ)은 평탄한 주파수 특성을 가지는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 장치.
The method of claim 1,
Audible frequency band (20HZ ~ 20KHZ) received by the receiver 100 has a self-identification earphone device using a unique voice recognition, characterized in that it has a flat frequency characteristics.
제 1 항 내지 제 8 항중 어느 한 항에 따른 고유음성 인식을 이용한 본인인증 이어폰 장치 및 방법
본인의 인증용 목소리 등록을 위해 귀속 삽입형 마이크를 이용하여 단말기 접속 또는 단말기 내부에 설치된 앱에 접속되는 접속단계(S100);
상기 단말기 또는 단말기 내부에 설치된 앱에 대하여, 본인인증 완료 여부를 확인하는 인증완료확인단계(S200); 및
상기 본인인증 완료가 확인되는 경우에만, 상기 특정 단말기 또는 앱으로 부터 전송되는 목소리에 따른 목소리정보를 상기 단말기 또는 앱과 관련된 인증용 목소리정보로 등록 처리하는 목소리 정보등록단계(S300);를 포함하는 것을 특징으로 하는 고유음성 인식을 이용한 본인인증 이어폰 방법.
Self-certifying earphone device and method using unique voice recognition according to any one of claims 1 to 8
A connection step of accessing a terminal connected to an application installed inside the terminal by using an attributable microphone to register a voice for authentication (S100);
Authentication completion confirmation step (S200) for checking whether the authentication is completed for the terminal or the app installed inside the terminal; And
Only when it is confirmed that the authentication of the identity is completed, the voice information registration step (S300) of registering the voice information according to the voice transmitted from the specific terminal or the app as authentication voice information associated with the terminal or the app; Self-certified earphone method using the unique voice recognition, characterized in that.
KR1020180064210A 2018-06-04 2018-06-04 Identity authentication earphone device with a unique voice recognition KR20190138085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180064210A KR20190138085A (en) 2018-06-04 2018-06-04 Identity authentication earphone device with a unique voice recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180064210A KR20190138085A (en) 2018-06-04 2018-06-04 Identity authentication earphone device with a unique voice recognition

Publications (1)

Publication Number Publication Date
KR20190138085A true KR20190138085A (en) 2019-12-12

Family

ID=69004024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180064210A KR20190138085A (en) 2018-06-04 2018-06-04 Identity authentication earphone device with a unique voice recognition

Country Status (1)

Country Link
KR (1) KR20190138085A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145634A1 (en) * 2020-01-13 2021-07-22 주식회사 인에이블 Speaker authentication method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145634A1 (en) * 2020-01-13 2021-07-22 주식회사 인에이블 Speaker authentication method

Similar Documents

Publication Publication Date Title
US10984083B2 (en) Authentication of user using ear biometric data
US11494473B2 (en) Headset for acoustic authentication of a user
JP5805846B2 (en) Continuous voice authentication for mobile devices
US8224649B2 (en) Method and apparatus for remote command, control and diagnostics of systems using conversational or audio interface
KR100386044B1 (en) System and method for securing speech transactions
US20140350932A1 (en) Voice print identification portal
US7920680B2 (en) VoIP caller authentication by voice signature continuity
WO2006054205A1 (en) Audio device for and method of determining biometric characteristincs of a user.
EP0882350A2 (en) Method and system for the secure communication of data
GB2564495A (en) Audio data transfer
WO2014011131A2 (en) A method enabling verification of the user id by means of an interactive voice response system
JP3478884B2 (en) Adaptation method for variability of carbon / electret telephones in automatic speaker verification
US20060262908A1 (en) Voice authentication for call control
AU2011349110B2 (en) Voice authentication system and methods
KR102080994B1 (en) Method for user authentication using data extracting
US11799657B2 (en) System and method for performing biometric authentication
KR20190138085A (en) Identity authentication earphone device with a unique voice recognition
Alattar et al. Privacy‐preserving hands‐free voice authentication leveraging edge technology
JP2014072701A (en) Communication terminal
US20220392453A1 (en) Limiting identity space for voice biometric authentication
KR20200092779A (en) Voice-based identity authentication and digital signature
EP1445760B1 (en) Speaker verifying apparatus
JP4217412B2 (en) Telephone device with personal authentication function
US20220392452A1 (en) Limiting identity space for voice biometric authentication
KR102064678B1 (en) Method for user authentication by data verification