KR102156570B1 - Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system - Google Patents

Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system Download PDF

Info

Publication number
KR102156570B1
KR102156570B1 KR1020190041525A KR20190041525A KR102156570B1 KR 102156570 B1 KR102156570 B1 KR 102156570B1 KR 1020190041525 A KR1020190041525 A KR 1020190041525A KR 20190041525 A KR20190041525 A KR 20190041525A KR 102156570 B1 KR102156570 B1 KR 102156570B1
Authority
KR
South Korea
Prior art keywords
microphone
natural language
hearing device
user
natural
Prior art date
Application number
KR1020190041525A
Other languages
Korean (ko)
Inventor
송명근
Original Assignee
올리브유니온(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 올리브유니온(주) filed Critical 올리브유니온(주)
Priority to KR1020190041525A priority Critical patent/KR102156570B1/en
Application granted granted Critical
Publication of KR102156570B1 publication Critical patent/KR102156570B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a smart hearing device, which provides control parameters and feedback for natural language or non-natural language determined by analyzing sound data. The smart hearing device includes: a receiving unit for receiving sound data of a voice signal and a noise signal from a first microphone and a second microphone formed on one side; a determination unit which compares the digital flow of the sound data and a previously stored graph pattern to determine a natural or non-natural language for the sound data; a processing unit which matches similar data for the determined natural language or non-natural language based on a database including a natural language area and an unnatural language area; and a providing unit which sets a control parameter in a specified natural or non-natural language according to the matched similar data and provides a user with a converted sound in one side.

Description

자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스, 인공지능 히어링 시스템 및 그 방법{SMART HEARING DEVICE FOR DISTINGUISHING NON-NATURAL LANGUAGE OR NATURAL LANGUAGE AND THE METHOD THEREOF, AND ARTIFICIAL INTELLIGENCE HEARING SYSTEM}Smart hearing device, artificial intelligence hearing system, and method for distinguishing natural or non-natural languages {SMART HEARING DEVICE FOR DISTINGUISHING NON-NATURAL LANGUAGE OR NATURAL LANGUAGE AND THE METHOD THEREOF, AND ARTIFICIAL INTELLIGENCE HEARING SYSTEM}

본 발명은 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스, 인공지능 히어링 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 소리 데이터를 분석하여 판단되는 자연어 또는 비자연어에 대해 제어 파라미터 및 피드백을 제공하는 기술에 관한 것이다. The present invention relates to a smart hearing device, an artificial intelligence hearing system, and a method for distinguishing natural or non-natural languages, and more particularly, a technology for providing control parameters and feedback for natural or non-natural languages determined by analyzing sound data It is about.

최근에는 의공학적 기술의 도약적인 발전에 의하여 이전에 보청기를 착용하여 큰 도움을 받지 못하던 환자들이 적합한 보청기를 선정하여 착용함으로써, 훌륭한 청력 개선을 도모할 수 있게 되었다.In recent years, due to the leap forward in medical engineering technology, patients who have not received great help from wearing hearing aids in the past have been able to achieve excellent hearing improvement by selecting and wearing suitable hearing aids.

보청기는 의료기기 중에도, 늘 몸에 부착하여 사용하는 첨단 의료기기 이다. 보청기는 청력의 변화에 따라 꾸준히 관리를 받아야 하고, 습기와 귀 내 이물질로 인해 손상되는 부분에 대한 A/S를 받아야 한다. 따라서, 보청기는 의공학적 기술 중에서도 가장 중요한 기술 중의 하나라고 여겨진다. Hearing aids are high-tech medical devices that are always attached to the body and used among medical devices. Hearing aids should be continuously managed according to changes in hearing, and A/S should be received for parts damaged by moisture and foreign substances in the ear. Therefore, hearing aids are considered to be one of the most important technologies among medical technologies.

기존의 보청기는 나팔형의 집음기의 형태였으나, 현재는 보통 음의 증폭을 돕는 전기보청기의 형태로 사용된다. 또한, 보청기는 유돌부에 장착하는 골도식이 있으나 대개는 기도식의 구조이며, 음파를 마이크로폰으로 받아 전기 진동으로 바꾸고, 이것을 확대하여 이어폰으로 다시 음파를 변환하여 귀에 들리게 한다.Conventional hearing aids were in the form of trumpet-type sound collectors, but now they are usually used in the form of electric hearing aids that help amplify sound. In addition, hearing aids have a bone diagram that is mounted on the mastoid, but they are usually airway-type structures, and they receive sound waves through a microphone and convert them into electric vibrations, and expand this to convert sound waves back into earphones so that they are heard by the ears.

최근에는 보다 강력한 보청기 전용 프로세서에 대한 연구가 진행되고 있다. 보청기 전용 프로세서는 기존의 프로세서에 비해 2배 이상 빨라진 처리 속도와 메모리를 탑재하고, 진화된 나노 기술로 작게 구성된 칩과 부품들로 구성된다.Recently, research on a more powerful hearing aid processor is being conducted. The hearing aid processor is equipped with a processing speed and memory that is more than twice as fast as that of the existing processor, and is composed of chips and parts made of small pieces with advanced nanotechnology.

다만, 기존의 보청기에 대한 기술은 난청인(이하에서는 ‘사용자’로 칭함)의 청력 데이터를 기반으로 설정된 것이므로, 사용자의 실시간 주변 소음에 대한 데이터를 적용하지 못한다는 한계가 존재하였다. However, since the existing hearing aid technology is set based on the hearing data of the hearing impaired person (hereinafter referred to as “user”), there is a limitation in that data on the user's real-time ambient noise cannot be applied.

또한, 기존의 보청기에 대한 기술은 단순히 음역대 분류를 통해 사람의 목소리를 추측하고 외부 소음과 사람의 목소리를 구분하고 있으나, 이는 성능이 좋지 못하며 자연어와 비자연어를 구분하지 못한다. 또한, 인간의 목소리 음역대 구간은 대략 500Hz 내지 5000Hz 정도로 범위가 상당히 넓으나, 기존의 보청기에 대한 기술은 목소리의 특정 음역대 구간이 외부 소음으로 인식되어 목소리 부각 기능과 노이즈 제거 기능을 잘 구현하지 못한다는 한계가 존재하였다. In addition, the existing hearing aid technology simply guesses the human voice through the sound range classification and separates the external noise from the human voice, but this has poor performance and cannot distinguish between natural and unnatural languages. In addition, the range of the human voice range is quite wide, about 500Hz to 5000Hz, but the existing hearing aid technology does not implement the voice enhancement function and noise reduction function well because the specific range of the voice is recognized as external noise. There were limitations.

본 발명의 목적은 자연어와 비자연어의 구분을 통해 사용자의 목소리와 소음을 판별하여 서로 다른 파라미터와 피드백으로 보다 효과적인 보청 성능을 제공하고자 한다. An object of the present invention is to provide more effective hearing aid performance with different parameters and feedback by discriminating a user's voice and noise through distinction between natural and non-natural languages.

또한, 본 발명의 목적은 사용자의 우측 및 좌측 각각에 착용되는 제1 스마트 히어링 디바이스 및 제2 스마트 히어링 디바이스를 이용하여 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화를 입체적으로 인지하도록 제공하고자 한다.In addition, an object of the present invention is to provide a three-dimensional recognition of environmental changes and noise changes according to the sound direction of the left and right using a first smart hearing device and a second smart hearing device worn on the right and left side of the user. do.

본 발명의 실시예에 따른 스마트 히어링 디바이스는 일측에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호의 소리 데이터를 수신하는 수신부, 상기 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 상기 소리 데이터에 대한 자연어 또는 비자연어를 판단하는 판단부, 자연어 영역 및 비자연어 영역을 포함하는 데이터베이스를 기반으로, 상기 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭하는 처리부 및 상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공하는 제공부를 포함한다.The smart hearing device according to an embodiment of the present invention includes a receiver configured to receive sound data of a voice signal and a noise signal from a first microphone and a second microphone formed on one side, and compare the digital flow of the sound data with a previously stored graph pattern. Based on a determination unit that determines a natural or unnatural language for sound data, a database including a natural language region and an unnatural language region, a processing unit that matches similar data for the determined natural language or non-natural language, and the matched similar data And a providing unit configured to provide a user with a sound of one side converted by setting a control parameter in the specified natural language or non-natural language.

또한, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 상기 매칭된 유사 데이터에 따른 상기 특정된 자연어 또는 비자연어에 대한 응답으로 피드백을 제공하는 피드백 전달부를 더 포함할 수 있다.In addition, the smart hearing device according to an embodiment of the present invention may further include a feedback transmitting unit that provides feedback in response to the specified natural language or non-natural language according to the matched similar data.

상기 수신부는 서로 다른 위치에 형성된 상기 제1 마이크 및 상기 제2 마이크로부터 상기 음성 신호 및 상기 소음 신호를 감지하며, 상기 음성 신호 및 상기 소음 신호를 디지털로 전환하여 상기 소리 데이터로 수신할 수 있다.The receiver may detect the voice signal and the noise signal from the first microphone and the second microphone formed at different positions, convert the voice signal and the noise signal to digital to receive the sound data.

상기 판단부는 디지털로 전환된 상기 소리 데이터의 디지털 흐름과 기 저장된 시간에 대한 음량 그래프 및 주파수에 대한 음량 그래프의 그래프 패턴을 비교하며, 그래프의 값들에서 특정 패턴을 나타내는 자연어 또는 비자연어를 판단할 수 있다.The determination unit compares the digital flow of the digitally converted sound data with a graph pattern of a volume graph for a previously stored time and a volume graph for a frequency, and may determine a natural language or an unnatural language representing a specific pattern from the values of the graph. have.

상기 처리부는 상기 데이터베이스를 기반으로, 자연어로 판단된 상기 소리 데이터에 유사한 단어 및 문장의 유사 데이터를 매칭하거나, 비자연어로 판단된 상기 소리 데이터에 유사한 환경 소음, 노이즈(잡음) 및 새로운 소리의 유사 데이터를 매칭할 수 있다.Based on the database, the processor matches similar data of words and sentences similar to the sound data determined in natural language, or similar environmental noise, noise (noise) and similarity to the sound data determined in non-natural language. Data can be matched.

상기 제공부는 사용자의 청력 데이터와 상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 기초하여 환경 변화에 따른 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 상기 제어 파라미터를 설정하여 사용자 맞춤형으로 일측의 소리를 제공할 수 있다.The providing unit sets at least one of amplification value change according to environmental change, volume control, and frequency control based on a natural language or non-natural language specified according to the user's hearing data and the matched similar data to customize the user. It can provide the sound of one side.

상기 제공부는 상기 제1 마이크 및 상기 제2 마이크로부터 수신되는 디지털 신호의 상기 소리 데이터에 상기 제어 파라미터를 설정하여 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스를 조절하고, 상기 조절된 신호에 대한 디지털 신호를 아날로그 신호로 변환하여 상기 사용자에게 일측의 소리를 제공할 수 있다.The providing unit sets the control parameter in the sound data of the digital signal received from the first microphone and the second microphone to adjust at least one or more of amplification value change, volume control, and frequency control, and the adjusted By converting a digital signal for a signal into an analog signal, a sound of one side may be provided to the user.

상기 피드백 전달부는 상기 처리부를 통해 자연어 또는 비자연어로 판단된 상기 소리 데이터에 유사한 단어 및 문장의 상기 유사 데이터가 매칭되는 경우, 상기 유사 데이터에 대한 응답으로 단어 및 문장의 피드백을 제공할 수 있다.When the similar data of similar words and sentences are matched with the sound data determined in natural or non-natural language through the processing unit, the feedback transmitting unit may provide feedback of words and sentences in response to the similar data.

상기 피드백 전달부는 인공지능(Artificial Intelligence; AI)에 기반하여 상기 소리 데이터에 대한 유사한 단어 및 문장의 상기 유사 데이터가 매칭되는 경우, 상기 사용자의 목소리로 인한 질문에 대한 응답으로 단어 및 문장의 피드백을 추출하여 음성 메시지로 전달할 수 있다. When the similar data of similar words and sentences with respect to the sound data are matched based on artificial intelligence (AI), the feedback transmitting unit provides feedback of words and sentences in response to a question caused by the user's voice. It can be extracted and delivered as a voice message.

본 발명의 실시예에 따른 인공지능 히어링 시스템은 일측에 형성된 제1 마이크 및 제2 마이크로부터 수신되는 음성 신호 및 소음 신호를 포함하는 제1 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 유사 데이터의 매칭으로 인한 제1 제어 파라미터를 설정하여 일측의 소리를 제공하는 제1 스마트 히어링 디바이스, 타측에 형성된 제3 마이크 및 제4 마이크롤부터 수신되는 음성 신호 및 소음 신호를 포함하는 제2 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 상기 유사 데이터의 매칭으로 인한 제2 제어 파라미터를 설정하여 타측의 소리를 제공하는 제2 스마트 히어링 디바이스 및 상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스를 제어하는 모바일 디바이스를 포함한다.The artificial intelligence hearing system according to an embodiment of the present invention determines a natural or non-natural language for the first sound data including a voice signal and a noise signal received from a first microphone and a second microphone formed on one side, and the determined natural language Alternatively, a first smart hearing device that provides sound from one side by setting a first control parameter due to matching similar data with an unnatural language, a third microphone formed on the other side, and a voice signal and a noise signal received from the fourth microphone roll. A second smart hearing device that determines a natural or unnatural language for the included second sound data, sets a second control parameter due to matching of the similar data with the determined natural or non-natural language to provide the sound of the other party, and And a mobile device that controls the first smart hearing device and the second smart hearing device.

상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은 사용자의 입 부근에 위치하는 상기 제1 마이크 및 상기 제3 마이크를 포함하고, 상기 사용자의 입을 기준으로 이격거리에 위치된 상기 제2 마이크 및 상기 제4 마이크를 포함할 수 있다.Each of the first smart hearing device and the second smart hearing device includes the first microphone and the third microphone positioned near the user's mouth, and the second microphone positioned at a distance from the user's mouth And the fourth microphone.

상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은 사용자에게 맞춤형 일측의 소리 및 타측의 소리를 각기 제공하여 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화를 입체적으로 인지하도록 제공할 수 있다.Each of the first smart hearing device and the second smart hearing device can provide a user with a customized sound of one side and a sound of the other side, respectively, so that environmental changes and noise changes according to the sound direction of the left and right are three-dimensionally recognized. have.

상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은 사용자의 좌측 청력 데이터 및 우측 청력 데이터에 기반하여, 서로 다른 파라미터 값의 상기 제1 제어 파라미터 및 상기 제2 파라미터를 설정할 수 있다.Each of the first smart hearing device and the second smart hearing device may set the first control parameter and the second parameter of different parameter values based on left hearing data and right hearing data of the user.

상기 모바일 디바이스는 사용자의 선택 입력에 따라 상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각의 전원 온(On)/오프(Off), 신호 수집 및 제어 파라미터 설정 중 어느 하나 이상을 제어할 수 있다.The mobile device may control any one or more of power on/off, signal collection and control parameter setting of each of the first smart hearing device and the second smart hearing device according to a user's selection input. have.

본 발명의 실시예에 따른 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스의 동작 방법에 있어서, 일측에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호의 소리 데이터를 수신하는 단계, 상기 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 상기 소리 데이터에 대한 자연어 또는 비자연어를 판단하는 단계, 자연어 영역 및 비자연어 영역을 포함하는 데이터베이스를 기반으로, 상기 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭하는 단계 및 상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공하는 단계를 포함한다.In the operating method of a smart hearing device for discriminating natural or unnatural language according to an embodiment of the present invention, receiving sound data of a voice signal and a noise signal from a first microphone and a second microphone formed at one side, the sound data Determining a natural language or non-natural language for the sound data by comparing the digital flow of and a previously stored graph pattern, based on a database including a natural language region and a non-natural language region, similar data for the determined natural language or non-natural language And setting a control parameter to a specified natural language or non-natural language according to the matched similar data, and providing a converted sound to a user.

또한, 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법은 상기 매칭된 유사 데이터에 따른 상기 특정된 자연어 또는 비자연어에 대한 응답으로 피드백을 제공하는 단계를 더 포함할 수 있다. In addition, the method of operating the smart hearing device according to an embodiment of the present invention may further include providing feedback in response to the specified natural language or non-natural language according to the matched similar data.

본 발명의 실시예에 따르면, 자연어와 비자연어의 구분을 통해 사용자의 목소리와 소음을 판별하여 서로 다른 파라미터와 피드백으로 보다 효과적인 보청 성능을 제공할 수 있다. According to an embodiment of the present invention, it is possible to provide more effective hearing aid performance through different parameters and feedback by discriminating the user's voice and noise through the classification of natural and non-natural languages.

또한, 본 발명의 실시예에 따르면, 사용자의 우측 및 좌측 각각에 착용되는 제1 스마트 히어링 디바이스 및 제2 스마트 히어링 디바이스를 이용하여 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화에서의 맞춤형 보청 서비스를 제공하고, 그에 따른 보청기 사용의 편의성을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, customized hearing aid in environmental changes and noise changes according to the sound direction of the left and right by using the first smart hearing device and the second smart hearing device worn on the right and left side of the user, respectively. The service can be provided and the convenience of using the hearing aid can be improved accordingly.

도 1은 본 발명의 실시예에 따른 스마트 히어링 디바이스의 세부 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법을 흐름도로 도시한 것이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 자연어 또는 비자연어를 구분하여 피드백을 제공하는 예를 설명하기 위해 도시한 것이다.
도 4a 및 도 4b는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 실시 예를 도시한 것이다.
도 5, 도 6a 및 도 6b는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 적용 예를 도시한 것이다.
도 7은 본 발명의 실시예에 따른 인공지능 히어링 시스템의 구성을 도시한 것이다.
1 is a block diagram showing a detailed configuration of a smart hearing device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of operating a smart hearing device according to an embodiment of the present invention.
3A and 3B are diagrams for explaining an example of providing feedback by classifying natural or non-natural languages according to an embodiment of the present invention.
4A and 4B illustrate an embodiment of a smart hearing device according to an embodiment of the present invention.
5, 6A, and 6B illustrate examples of application of a smart hearing device according to an embodiment of the present invention.
7 illustrates the configuration of an artificial intelligence hearing system according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. In addition, the same reference numerals shown in each drawing denote the same member.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, terms used in the present specification are terms used to properly express preferred embodiments of the present invention, which may vary depending on the intention of viewers or operators, or customs in the field to which the present invention belongs. Accordingly, definitions of these terms should be made based on the contents throughout the present specification.

본 발명은 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스, 인공지능 히어링 시스템 및 그 방법에 관한 기술로, 사용자의 귀에 착용되는 스마트 히어링 디바이스로부터 수신되는 음성 신호 및 소음 신호의 소리 데이터를 분석하여 자연어 또는 비자연어로 판단하고, 판단 결과에 따라 유사 데이터의 매칭에 따른 제어 파라미터 설정 및 피드백을 제공하는 것을 그 요지로 한다. The present invention relates to a smart hearing device, an artificial intelligence hearing system, and a method for classifying natural or non-natural languages, by analyzing sound data of a voice signal and a noise signal received from a smart hearing device worn on a user's ear, The gist is to determine non-natural language and provide control parameter setting and feedback according to matching similar data according to the determination result.

이 때, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 청각 능력이 떨어지는 사용자가 들을 수 있도록 증폭된 소리를 제공하는 보청기이다.In this case, the smart hearing device according to an embodiment of the present invention is a hearing aid that provides amplified sound so that a user with low hearing ability can hear it.

이하에서는 판별되는 자연어 또는 비자연어에 따라 신호의 증폭값, 볼륨 및 주파수 중 적어도 어느 하나 이상을 제어하고, 그에 따른 피드백을 제공함으로써, 사용자에게 맞춤형 보청 서비스에 따른 편의를 향상시킬 수 있는 본 발명의 실시예에 따른 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스, 인공지능 히어링 시스템 및 그 방법에 대해 도 1 내지 도 7을 참조하여 상세히 설명한다. Hereinafter, according to the determined natural or non-natural language, at least one of the amplification value, volume, and frequency of the signal is controlled, and feedback is provided, thereby improving the convenience of the customized hearing service to the user. A smart hearing device, an artificial intelligence hearing system, and a method for classifying natural or non-natural languages according to an embodiment will be described in detail with reference to FIGS. 1 to 7.

도 1은 본 발명의 실시예에 따른 스마트 히어링 디바이스의 세부 구성을 블록도로 도시한 것이다.1 is a block diagram showing a detailed configuration of a smart hearing device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 소리 데이터를 분석하여 판단되는 자연어 또는 비자연어에 대해 제어 파라미터 및 피드백을 제공한다.Referring to FIG. 1, a smart hearing device according to an embodiment of the present invention analyzes sound data and provides control parameters and feedback for a natural or non-natural language determined.

이하에서 설명하고자 하는 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 사용자의 좌측 또는 우측 귀에 착용되는 것으로, 제1 스마트 히어링 디바이스 또는 제2 스마트 히어링 디바이스일 수 있으며, 제1 스마트 히어링 디바이스 및 제2 스마트 히어링 디바이스는 도 1에 도시되어 이하에서 설명되는 세부적인 구성을 동일하게 포함하는 것을 특징으로 한다. The smart hearing device 100 according to an embodiment of the present invention to be described below is worn on the left or right ear of the user, and may be a first smart hearing device or a second smart hearing device, and the first smart hearing device and the The second smart hearing device is characterized in that it has the same detailed configuration as shown in FIG. 1 and described below.

이를 위해, 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 수신부(110), 판단부(120), 처리부(130) 및 제공부(140)를 포함한다. 또한, 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 피드백 전달부(150) 및 데이터베이스(160)를 더 포함할 수 있다.To this end, the smart hearing device 100 according to an embodiment of the present invention includes a receiving unit 110, a determining unit 120, a processing unit 130, and a providing unit 140. In addition, the smart hearing device 100 according to an embodiment of the present invention may further include a feedback transmission unit 150 and a database 160.

수신부(110)는 일측에 형성된 제1 마이크(101) 및 제2 마이크(102)로부터 음성 신호 및 소음 신호의 소리 데이터를 수신한다. The receiver 110 receives sound data of a voice signal and a noise signal from the first microphone 101 and the second microphone 102 formed at one side.

수신부(110)는 서로 다른 위치에 형성된 제1 마이크(101) 및 제2 마이크(102)로부터 음성 신호 및 소음 신호를 감지하며, 음성 신호 및 소음 신호를 디지털로 전환하여 소리 데이터로 수신할 수 있다. The receiver 110 may detect a voice signal and a noise signal from the first microphone 101 and the second microphone 102 formed at different locations, and convert the voice signal and noise signal digitally to receive sound data. .

이 때, 제1 마이크(101)는 사용자의 음성 신호를 수신할 수 있고, 제2 마이크(102)는 사용자 주변의 소음 신호를 수신할 수 있다. 보다 구체적으로, 제1 마이크(101) 및 제2 마이크(102)는 사용자의 입을 기준으로 서로 다른 거리에 위치하므로, 제1 마이크(101)는 사용자의 입 부근에 인정하게 위치하여 사용자의 목소리 위주의 음성 신호를 수신하고, 제2 마이크(102)는 제1 마이크(101)에 비해 상대적으로 사용자의 입에서 가능한 멀리 위치하여 주변 소음 위주의 소음 신호를 수신할 수 있다. In this case, the first microphone 101 may receive a user's voice signal, and the second microphone 102 may receive a noise signal around the user. More specifically, since the first microphone 101 and the second microphone 102 are located at different distances based on the user's mouth, the first microphone 101 is located in the vicinity of the user's mouth to focus on the user's voice. And the second microphone 102 is located as far as possible from the user's mouth compared to the first microphone 101 to receive a noise signal focusing on ambient noise.

본 발명의 실시예에 따른 제1 마이크(101) 및 제2 마이크(102)는 스마트 히어링 디바이스(100) 내 서로 다른 위치에 배치되나, 제1 마이크(101) 및 제2 마이크(102)의 공구(또는 구멍)가 향하는 방향은 균일한 음성 신호 및 소음 신호를 감지하고, 그에 따른 적정 소음 제거를 위해 동일한 것을 특징으로 한다. 여기서, 상기 적정 소음은 마이크의 위치에서 수집되는 음성 신호 및 소음 신호 외의 소음 및 수치값을 의미할 수 있다. The first microphone 101 and the second microphone 102 according to the embodiment of the present invention are disposed at different positions in the smart hearing device 100, but the tools of the first microphone 101 and the second microphone 102 The direction in which the (or hole) faces is characterized in that it senses a uniform voice signal and a noise signal, and is the same for proper noise reduction. Here, the appropriate noise may mean noise and numerical values other than the voice signal and noise signal collected at the location of the microphone.

이에 따라, 수신부(110)는 제1 마이크(101) 및 제2 마이크(102)에서 감지된 음성 신호 및 소음 신호를 수신하여 전기 신호 즉, 디지털로 변환하여 소리 데이터로 수신할 수 있다. Accordingly, the receiving unit 110 may receive the voice signal and noise signal sensed by the first microphone 101 and the second microphone 102, convert it to an electrical signal, that is, digitally, and receive it as sound data.

판단부(120)는 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 소리 데이터에 대한 자연어 또는 비자연어를 판단한다. The determination unit 120 compares the digital flow of sound data with a previously stored graph pattern to determine a natural or non-natural language for the sound data.

판단부(120)는 인공지능(Artificial Intelligence; AI)에 기반하여 디지털로 변환된 소리 데이터의 디지털 흐름과 기 저장된 시간에 대한 음량 그래프 및 주파수에 대한 음량 그래프의 그래프 패턴을 비교하며, 그래프의 값들에서 특정 패턴을 나타내는 자연어 또는 비자연어를 판단할 수 있다. The determination unit 120 compares the digital flow of digitally converted sound data based on artificial intelligence (AI) and a graph pattern of a volume graph for a previously stored time and a volume graph for a frequency, and values of the graph Natural language or unnatural language representing a specific pattern can be judged.

본 발명의 실시예에 따른 자연어는 사람 간의 대화, 사용자의 질문과 같은 단어 또는 문장을 나타내고, 비자연어는 공사 현장의 시끄러운 소리, 자동차 소리, 사물에서 일시적으로 발생되는 소리와 같은 소음과 사람에게 생소한 소리(또는 새로운 소리)를 나타낸다. 각 자연어 및 비자연어는 시간 - 음량 그래프, 주파수 - 음량 그래프에서 서로 다른 특정 패턴을 나타내며, 그래프에 따른 특정 패턴은 데이터베이스(160)에 저장되어 유지될 수 있다. 예를 들면, 사용자의 대화는 공사 현장에서 발생되는 소음에 비해 소리의 높낮이가 존재하며, 지속성이 발생된다. 이에, 사용자의 대화에 따른 문장에 대한 시간 - 음량 그래프 및 주파수 - 음량 그래프에서의 특정 패턴이 존재하며, 공사 현장에서 발생되는 소음에 대한 시간 - 음량 그래프 및 주파수 - 음량 그래프에서의 특정 패턴이 존재할 수 있다. The natural language according to the embodiment of the present invention represents a word or sentence such as a conversation between people and a user's question, and the unnatural language is a noise such as a loud sound of a construction site, a car sound, a sound temporarily generated from an object, and unfamiliar to people. Represents a sound (or a new sound). Each natural language and non-natural language represent different specific patterns in a time-volume graph and a frequency-volume graph, and a specific pattern according to the graph may be stored and maintained in the database 160. For example, the user's conversation has a higher and lower level of sound compared to the noise generated at the construction site, and persistence occurs. Accordingly, there is a time for a sentence according to a user's conversation-a volume graph and a frequency-a specific pattern in the volume graph, and a time for the noise generated at the construction site-a volume graph and frequency-a specific pattern in the volume graph I can.

판단부(120)는 디지털로 변환된 소리 데이터의 디지털 흐름과 데이터베이스(160)에 저장되어 유지되는 자연어 및 비자연어에 대한 그래프 패턴을 비교하여 특정 패턴을 나타내는 자연어 또는 비자연어를 판단할 수 있다. 예를 들면, 판단부(120)는 디지털로 변환된 소리 데이터를 비교 분석하여 자연어로 판단 또는 비자연어로 판단할 수 있다. The determination unit 120 may determine a natural language or an unnatural language representing a specific pattern by comparing the digital flow of sound data converted to digital with graph patterns for natural and non-natural languages stored and maintained in the database 160. For example, the determination unit 120 may compare and analyze digitally converted sound data to determine natural language or non-natural language.

처리부(130)는 자연어 영역 및 비자연어 영역을 포함하는 데이터베이스(160)를 기반으로, 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭한다. The processing unit 130 matches similar data for the determined natural language or non-natural language, based on the database 160 including the natural language region and the non-natural language region.

판단부(120)에 의해 소리 데이터가 자연어 또는 비자연어로 판단되는 경우, 처리부(130)는 데이터베이스(160)를 기반으로, 자연어로 판단된 소리 데이터에 유사한 단어 및 문장의 유사 데이터를 매칭하거나, 비자연어로 판단된 소리 데이터에 유사한 환경 소음, 노이즈(잡음) 및 새로운 소리의 유사 데이터를 매칭할 수 있다. 보다 구체적으로, 데이터베이스(160)는 자연어에 관련된 단어 또는 문장을 포함하는 자연어 영역과 소음 및 생소한 소리에 관련된 정보를 포함하는 비자연어 영역을 포함할 수 있으며, 판단부(120)에 의해 소리 데이터가 자연어로 판단되는 경우, 처리부(130)는 데이터베이스(160)를 기반으로, 자연어 영역에서 소리 데이터에 유사한 단어 또는 문장의 유사 데이터를 매칭할 수 있다. When the sound data is determined in natural or non-natural language by the determination unit 120, the processing unit 130 matches similar data of similar words and sentences with sound data determined in natural language based on the database 160, or Similar environmental noise, noise (noise), and similar data of a new sound may be matched with sound data determined in an unnatural language. More specifically, the database 160 may include a natural language region including words or sentences related to natural language and a non-natural language region including information related to noise and unfamiliar sound, and the sound data is stored by the determination unit 120. When it is determined in natural language, the processor 130 may match similar data of words or sentences similar to sound data in the natural language area based on the database 160.

일 예로, 판단부(120)에 의해 공사 현장의 시끄러운 소리 또는 자동차 소리가 비자연어로 판단되는 경우, 처리부(130)는 공사 현장의 소음 또는 자동차 소음으로 유사 데이터를 매칭할 수 있다. 또한, 판단부(120)에 의해 생소한 소리가 비자연어로 판단되는 경우, 처리부(130)는 새로운 소리 또는 새로운 소음으로 유사 데이터를 매칭할 수 있다. For example, when the loud sound of the construction site or the car sound is determined by the determination unit 120 in an unnatural language, the processing unit 130 may match similar data with the noise of the construction site or the car noise. In addition, when an unnatural sound is determined by the determination unit 120 in an unnatural language, the processing unit 130 may match similar data with a new sound or a new noise.

다른 예로, 판단부(120)에 의해 사용자와 주변 사람의 목소리가 자연어로 판단되는 경우, 처리부(130)는 목소리에 의한 “안녕”, “오랜만이야”와 같은 유사 데이터를 매칭할 수 있다. 또한, 판단부(120)에 의해 사용자의 질문이 자연어로 판단되는 경우, 처리부(130)는 데이터베이스(160)의 연관 검색을 통해 “오늘 날씨는 어때?” 또는 “배고파”와 같은 유사 데이터를 매칭할 수 있다. As another example, when the voices of the user and the neighbors are determined in natural language by the determination unit 120, the processing unit 130 may match similar data such as “Goodbye” and “It's been a long time” based on the voices. In addition, when the user's question is determined in natural language by the determination unit 120, the processing unit 130 “how is the weather today?” through a related search of the database 160. Or, you can match similar data such as "hungry".

제공부(140)는 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공한다. The providing unit 140 sets a control parameter in a specified natural language or non-natural language according to the matched similar data, and provides the user with the converted sound.

이 때, 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 보청기를 사용하는 사용자의 청력 데이터(Personal Hearing Profile)를 기본적으로 포함할 수 있다. 예를 들면, 제공부(140)는 사용자가 선호하는 볼륨 및 주파수와, 이질감을 느끼지 않을 정도의 증폭값, 볼륨 및 주파수 범위를 포함하는 사용자의 청력 데이터를 포함할 수 있다. 실시예에 따라서, 전술한 데이터는 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)와 연동되는 모바일 디바이스(500) 또는 외부 서버(600)에 의해 수신될 수 있으며, 디바이스(500) 또는 외부 서버(600)에 저장되어 유지될 수도 있다. In this case, the smart hearing device 100 according to an embodiment of the present invention may basically include hearing data (Personal Hearing Profile) of a user using a hearing aid. For example, the providing unit 140 may include a user's hearing data including a volume and a frequency preferred by the user, an amplification value such that a sense of difference is not felt, a volume, and a frequency range. Depending on the embodiment, the above-described data may be received by the mobile device 500 or the external server 600 interworking with the smart hearing device 100 according to the embodiment of the present invention, and the device 500 or an external server It may be stored and maintained at 600.

다만, 상기 청력 데이터는 증폭값, 볼륨 및 주파수 등의 항목 또는 수치값에 한정되지 않는다. 예를 들면, 상기 청력 데이터는 작은 소리는 크게 증폭해주고 큰 소리는 작게 줄여주는 비선형 압축 정보, 소리가 들리는 방향을 정확히 잡아낼 수 있는 방향성 정보, 마이크로 수신된 소리를 증폭해 다른 잡음 없이 잘 들을 수 있도록 도와주는 피드백 정보 및 소음을 줄여주는 소음 제거 정보 중 적어도 어느 하나 이상의 정보에 대한 사용자의 선호도 및 수치값을 더 포함할 수도 있다. However, the hearing data is not limited to items or numerical values such as amplification value, volume, and frequency. For example, the hearing data is nonlinear compression information that amplifies small sounds large and reduces loud sounds small, directional information that accurately detects the direction in which the sound is heard, and amplifies the received sound by a microphone so that it can be heard without other noise. The user's preference and numerical value for at least one or more of information for helping feedback and noise reduction information for reducing noise may be further included.

제공부(140)는 사용자의 청력 데이터와 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 기초하여 환경 변화에 따른 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 제어 파라미터를 설정하여 사용자 맞춤형으로 일측의 소리를 제공할 수 있다. 이 때, 제공부(140)는 자연어 및 비자연어에 서로 다른 제어 파라미터 값을 적용하는 것을 특징으로 한다. 예를 들면, 동일하게 볼륨을 높이는 제어 파라미터를 적용하더라도, 제공부(140)는 비자연어보다 자연어에 적용되는 제어 파라미터 값을 더 높일 수 있다. The providing unit 140 sets at least one of amplification value change, volume control, and frequency control according to environmental changes based on a specified natural language or non-natural language according to similar data matched with the user's hearing data. The sound of one side can be customized. In this case, the providing unit 140 is characterized by applying different control parameter values to natural and non-natural languages. For example, even if the same control parameter for increasing the volume is applied, the providing unit 140 may further increase the control parameter value applied to the natural language rather than the non-natural language.

보다 상세하게는, 제공부(140)는 제1 마이크(101) 및 제2 마이크(102)로부터 수신되는 디지털 신호의 소리 데이터에 제어 파라미터를 설정하여 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스를 조절하고, 조절된 신호에 대한 디지털 신호를 아날로그 신호로 변환하여 사용자에게 일측의 소리를 제공할 수 있다. More specifically, the providing unit 140 sets a control parameter in sound data of a digital signal received from the first microphone 101 and the second microphone 102 to change at least one of amplification value change, volume control, and frequency control. One or more balances may be adjusted, and a digital signal for the adjusted signal may be converted into an analog signal to provide a user with a sound of one side.

예를 들면, 제1 마이크(101) 및 제2 마이크(102)로부터 수신된 소리 데이터에 따른 증폭값, 볼륨 및 주파수 중 적어도 어느 하나 이상이 사용자가 기 설정하거나, 선호하는 기준 범위를 벗어날 수 있다. 이는 사용자가 위치하는 환경 변화에 따른 요인, 사용자의 음성 변화에 따른 요인, 기계적 오류의 요인 및 자연어 또는 비자연어에 의한 높낮이 요인 중 어느 하나에 의해 발생될 수 있다. 이에, 제공부(140)는 처리부(130)에 의해 매칭된 자연어 또는 비자연어에 대한 유사 데이터에 기초하여 음성 신호 및 소음 신호의 증폭값, 볼륨 및 주파수 중 적어도 어느 하나 이상의 밸런스를 조절할 수 있으며, 조절된 밸런스에 따른 디지털 신호를 아날로그 신호(음향 에너지)로 변환시켜 소리로 사용자에게 제공할 수 있다.For example, at least one or more of an amplification value, volume, and frequency according to sound data received from the first microphone 101 and the second microphone 102 may be preset by the user or out of a preferred reference range. . This may be caused by any one of a factor according to a change in the environment where the user is located, a factor according to a change in the user's voice, a factor of a mechanical error, and a height factor due to a natural or unnatural language. Accordingly, the providing unit 140 may adjust the balance of at least one of the amplification values, the volume, and the frequency of the voice signal and the noise signal based on the similar data for the natural or non-natural language matched by the processing unit 130, A digital signal according to the adjusted balance can be converted into an analog signal (sound energy) and provided to the user as sound.

일 예로, 처리부(130)에 의해 공사 현장의 소음 또는 자동차 소음으로 유사 데이터가 매칭되는 경우, 제공부(140)는 소음에 대한 볼륨을 낮추는 밸런스를 조절하여 사용자에게 제공할 수 있다. For example, when similar data is matched with noise of a construction site or vehicle noise by the processing unit 130, the providing unit 140 may adjust a balance for lowering the volume of the noise and provide it to the user.

다른 예로, 처리부(130)에 의해 사용자와 주변 사람의 목소리가 “안녕” 또는 “오랜만이야”와 같은 유사 데이터로 매칭되는 경우, 제공부(140)는 주변 소음보다 매칭된 유사 데이터의 증폭값, 볼륨 및 주파수를 높이는 밸런스를 조절하여 보다 정확히 사용자에게 정보가 전달되도록 제공할 수 있다. As another example, when the voices of the user and the surrounding people are matched with similar data such as "Goodbye" or "It's been a while" by the processing unit 130, the providing unit 140 may provide an amplification value of the matched similar data, By adjusting the balance for increasing the volume and frequency, it is possible to provide information to be more accurately transmitted to the user.

즉, 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 사용자의 환경 변화에 따라 제1 마이크(101) 및 제2 마이크(102)로부터 수신된 음성 신호 및 소음 신호를 포함하는 소리 데이터를 분석하여 자연어 또는 비자연어로 판단하고, 자연어 또는 비자연어에 대한 유사 데이터를 매칭하여 소리 데이터에 대한 제어 파라미터를 설정함으로써, 사용자가 별도로 볼륨을 조절하거나, 주파수를 조절하지 않아도 변화되는 상황에 최적화되는 보청 서비스를 제공할 수 있으며, 보청기 사용의 편의성을 향상시킬 수 있다. That is, the smart hearing device 100 according to the embodiment of the present invention analyzes sound data including the voice signal and noise signal received from the first microphone 101 and the second microphone 102 according to a change in the user's environment. Hearing aid that is optimized for changing situations even if the user does not separately adjust the volume or frequency by setting control parameters for sound data by judging natural or non-natural languages and matching similar data for natural or non-natural languages Service can be provided, and convenience of hearing aid can be improved.

본 발명의 실시예에 따른 스마트 히어링 디바이스(100)의 피드백 전달부(150)는 매칭된 유사 데이터에 따른 특정된 자연어에 대한 응답으로 피드백을 제공할 수 있다. The feedback transmission unit 150 of the smart hearing device 100 according to an embodiment of the present invention may provide feedback in response to a specified natural language according to matched similar data.

피드백 전달부(150)는 처리부(130)를 통해 자연어 또는 비자연어로 판단된 소리 데이터에 유사한 단어 및 문장의 유사 데이터가 매칭되는 경우, 유사 데이터에 대한 응답으로 단어 및 문장의 피드백을 제공할 수 있다.When the similar data of similar words and sentences are matched with sound data determined in natural or non-natural language through the processing unit 130, the feedback transmission unit 150 may provide feedback of words and sentences in response to the similar data. have.

피드백 전달부(150)는 인공지능(Artificial Intelligence; AI)에 기반하여 소리 데이터에 대한 유사한 단어 및 문장의 유사 데이터가 매칭되는 경우, 사용자의 목소리로 인한 질문에 대한 응답으로 단어 및 문장의 피드백을 추출하여 음성으로 전달할 수 있다. When the similar data of similar words and sentences with respect to sound data are matched based on artificial intelligence (AI), the feedback transmission unit 150 provides feedback of words and sentences in response to a question from the user's voice. It can be extracted and delivered as a voice.

일 예로, 판단부(120)에 의해 공사 현장의 시끄러운 소리 또는 자동차 소리가 비자연어로 판단되고, 처리부(130)에 의해 공사 현장의 소음 또는 자동차 소음의 유사 데이터로 매칭되는 경우, 비자연어에 해당하는 소리 데이터는 제어 파라미터에 의해 밸런스가 조절될 수 있다. 이후에, 피드백 전달부(150)는 비자연어에 해당하는 소리 데이터에 대한 피드백을 사용자에게 제공할 수 있다. 예를 들면, 자동차 소음으로 유사 데이터가 매칭되는 경우, 피드백 전달부(150)는 “주의하세요”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. 또 다른 예로, 사용자에게 익숙하지 않은 새로운 소음으로 유사 데이터가 매칭되는 경우, 피드백 전달부(150)는 “새로운 소리입니다” 또는 “새로운 환경입니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. For example, when the loud sound or car sound of the construction site is determined by the determination unit 120 in an unnatural language, and the processing unit 130 matches the noise of the construction site or similar data of the car noise, it corresponds to the non-natural language. The sound data can be balanced by a control parameter. Thereafter, the feedback transmission unit 150 may provide feedback on sound data corresponding to an unnatural language to the user. For example, when similar data is matched due to vehicle noise, the feedback transmission unit 150 may provide a voice message notification such as “be careful” to the user. As another example, when similar data is matched with a new noise unfamiliar to the user, the feedback transmission unit 150 may provide a voice message notification such as “This is a new sound” or “This is a new environment” to the user.

다른 예로, 판단부(120)에 의해 사용자의 질문이 자연어로 판단되고, 처리부(130)에 의해 “오늘 날씨는 어때?” 또는 “배고파”와 같은 유사 데이터로 매칭되는 경우, 자연어에 해당하는 소리 데이터는 제어 파라미터에 의해 밸런스가 조절될 수 있다. 이후에, 피드백 전달부(150)는 자연어에 해당하는 소리 데이터에 대한 피드백을 사용자에게 제공할 수 있다. 예를 들면, “오늘 날씨는 어때?”의 유사 데이터가 매칭되는 경우, 피드백 전달부(150)는 “오늘 날씨는 맑습니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. 또 다른 예로, “배고파”와 같은 유사 데이터가 매칭되는 경우, 피드백 전달부(150)는 “근처 음식점은 OOO가 있습니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. As another example, a user's question is determined in natural language by the determination unit 120, and “how is the weather today?” by the processing unit 130 Alternatively, when matching with similar data such as “hungry”, sound data corresponding to natural language may be balanced by a control parameter. Thereafter, the feedback delivery unit 150 may provide feedback on sound data corresponding to natural language to the user. For example, when similar data of “how is the weather today?” are matched, the feedback delivery unit 150 may provide a voice message notification such as “the weather is sunny” to the user. As another example, when similar data such as “hungry” are matched, the feedback delivery unit 150 may provide a voice message notification such as “the nearby restaurant has OOO” to the user.

본 발명의 실시예에 따른 스마트 히어링 디바이스(100)는 소리 데이터, 유사 데이터, 제어 파라미터 및 피드백에 관련된 정보를 모바일 디바이스 또는 외부 서버로 전송하고, 모바일 디바이스로부터 사용자의 입력을 수신하는 통신부(미도시)를 더 포함할 수 있다.The smart hearing device 100 according to an embodiment of the present invention transmits information related to sound data, similar data, control parameters, and feedback to a mobile device or an external server, and receives a user's input from the mobile device (not shown). ) May be further included.

예를 들면, 상기 통신부는 블루투스(bluetooth), Wi-Fi(Wireless Fidelity), 지그비(Zigbee), BLE(Bluetooth Low Energy) 중 어느 하나의 근거리 무선통신 모듈을 통해 사용자가 소지하는 모바일 디바이스로 소리 데이터, 유사 데이터, 제어 파라미터 및 피드백에 관련된 정보를 전송하며, 모바일 디바이스로부터 사용자의 선택 입력에 따른 스마트 히어링 디바이스의 전원 온/오프(On/Off) 또는 제어 파라미터를 제어하는 제어 커맨드를 수신할 수 있다. For example, the communication unit is a mobile device possessed by a user through any one of Bluetooth, Wi-Fi (Wireless Fidelity), Zigbee, and BLE (Bluetooth Low Energy) wireless communication module. , Similar data, control parameters, and information related to feedback may be transmitted, and a control command for controlling power on/off or control parameters of the smart hearing device according to the user's selection input may be received from the mobile device. .

실시예에 따라서, 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)의 통신부는 근거리 무선통신 모듈뿐만 아니라, 셀룰러 전화 네트워크, 무선 LAN(local area network) 및/또는 MAN(metropolitan area network) 등의 무선 네트워크, 인트라넷 및/또는 월드 와이드 웹(WWW)이라고도 불리는 인터넷과 같은 네트워크 및 기타 장치와 무선 통신에 의해 통신할 수 있다.Depending on the embodiment, the communication unit of the smart hearing device 100 according to the embodiment of the present invention includes not only a short-range wireless communication module, but also a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network (MAN). Wireless networks, intranets, and/or networks such as the Internet, also referred to as the World Wide Web (WWW), and other devices may communicate by wireless communication.

이러한 무선 통신은 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), W-CDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스(Bluetooth), (IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n 등의) Wi-Fi(Wireless Fidelity), VoIP(voice over Internet Protocol), Wi-MAX, LTE(Long Term Evolution), 지그비(Zigbee), Z-wave, BLE(Bluetooth Low Energy), 비콘(Beacon), IMAP(Internet Message Access Protocol) 및/또는 POP(Post Office Protocol) 등의 이메일용 프로토콜, XMPP(eXtensible Messaging and Presence Protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service), SMS(Short Message Service), LoRa 등의 인스턴트 메시징, 또는 본원의 출원일 당시에 개발되지 않은 통신 프로토콜을 포함할 수 있다. 다만, 상술한 무선 통신에는 이들로 한정되지 않는 복수의 통신 표준, 프로토콜 및 기술들이 사용될 수 있다.These wireless communications include Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), and Bluetooth. Bluetooth), Wi-Fi (Wireless Fidelity) (such as IEEE 802.11a, IEEE 802.11b, IEEE 802.11g and/or IEEE 802.11n), voice over Internet Protocol (VoIP), Wi-MAX, Long Term Evolution (LTE) , Zigbee, Z-wave, BLE (Bluetooth Low Energy), Beacon, IMAP (Internet Message Access Protocol) and/or POP (Post Office Protocol) protocol for email, eXtensible Messaging and Presence (XMPP) Protocol), SIMPLE (Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS (Instant Messaging and Presence Service), SMS (Short Message Service), instant messaging such as LoRa, or communication protocols not developed at the time of filing of this application. Can include. However, a plurality of communication standards, protocols, and technologies that are not limited to these may be used for the wireless communication described above.

도 2는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법을 흐름도로 도시한 것이다.2 is a flowchart illustrating a method of operating a smart hearing device according to an embodiment of the present invention.

도 2의 동작 방법은 도 1의 본 발명의 실시예에 따른 스마트 히어링 디바이스(100)에 의해 수행된다.The operation method of FIG. 2 is performed by the smart hearing device 100 according to the embodiment of the present invention of FIG. 1.

도 2를 참조하면, 단계 210에서, 일측에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호의 소리 데이터를 수신한다. Referring to FIG. 2, in step 210, sound data of a voice signal and a noise signal are received from a first microphone and a second microphone formed at one side.

단계 210은 서로 다른 위치에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호를 감지하며, 단계 220은 음성 신호 및 소음 신호를 디지털로 전환하여 소리 데이터로 수신할 수 있다.In step 210, a voice signal and a noise signal are detected from a first microphone and a second microphone formed at different locations, and in step 220, the voice signal and the noise signal are digitally converted and received as sound data.

단계 230에서, 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 상기 소리 데이터에 대한 자연어 또는 비자연어를 판단한다. In step 230, a natural or unnatural language for the sound data is determined by comparing the digital flow of sound data with a previously stored graph pattern.

단계 230은 인공지능(Artificial Intelligence; AI)에 기반하여 디지털로 변환된 소리 데이터의 디지털 흐름과 기 저장된 시간에 대한 음량 그래프 및 주파수에 대한 음량 그래프의 그래프 패턴을 비교하며, 그래프의 값들에서 특정 패턴을 나타내는 자연어 또는 비자연어를 판단할 수 있다. Step 230 compares the digital flow of digitally converted sound data based on artificial intelligence (AI) with the graph pattern of the volume graph for the previously stored time and the volume graph for the frequency, and a specific pattern from the values of the graph. It is possible to judge a natural or unnatural language representing

단계 230에 의해 소리 데이터는 자연어 또는 비자연어로 구분되며, 단계 241 및 단계 251은 자연어 영역 및 비자연어 영역을 포함하는 데이터베이스를 기반으로, 상기 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭한다. 예를 들면, 단계 241은 단계 230에 의해 공사 현장의 시끄러운 소리 또는 자동차 소리가 비자연어로 판단되는 경우, 공사 현장의 소음 또는 자동차 소음으로 유사 데이터를 매칭할 수 있다. 또한, 단계 251은 단계 230에 의해 사용자와 주변 사람의 목소리가 자연어로 판단되는 경우, 목소리에 의한 “안녕”, “오랜만이야”와 같은 유사 데이터를 매칭할 수 있으며, 단계 230에 의해 사용자의 질문이 자연어로 판단되는 경우에는 데이터베이스의 연관 검색을 통해 “오늘 날씨는 어때?” 또는 “배고파”와 같은 유사 데이터를 매칭할 수 있다. In step 230, the sound data is divided into natural language or non-natural language. Steps 241 and 251 match similar data for the determined natural language or non-natural language based on a database including a natural language region and an unnatural language region. For example, in step 241, when it is determined by step 230 that a loud sound or a car sound is unnatural, similar data may be matched with the noise of the construction site or the car noise. In addition, in step 251, when the voices of the user and the surrounding people are determined in natural language by step 230, similar data such as "hello" and "it's been a long time" based on the voice may be matched, and in step 230, the user's question If it is judged as a natural language, the database is searched for "how is the weather today?" Or, you can match similar data such as "hungry".

이후에, 단계 242 및 단계 252에서, 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공한다.Thereafter, in steps 242 and 252, a control parameter is set in the specified natural language or non-natural language according to the matched similar data, and the converted sound of one side is provided to the user.

단계 242 및 단계 252는 사용자의 청력 데이터와 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 기초하여 환경 변화에 따른 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 제어 파라미터를 설정하여 사용자 맞춤형으로 일측의 소리를 제공할 수 있다.Steps 242 and 252 are based on a natural or non-natural language specified according to similar data matched with the user's hearing data, and set at least one of amplification value change, volume control, and frequency control according to environmental changes, The sound of one side can be customized.

예를 들면, 단계 241에 의해 공사 현장의 소음 또는 자동차 소음으로 유사 데이터가 매칭되는 경우, 단계 242는 소음에 대한 볼륨을 낮추는 밸런스를 조절하여 사용자에게 제공할 수 있다. 또한, 단계 251에 의해 사용자와 주변 사람의 목소리가 “안녕” 또는 “오랜만이야”와 같은 유사 데이터로 매칭되는 경우, 단계 252는 주변 소음보다 매칭된 유사 데이터의 증폭값, 볼륨 및 주파수를 높이는 밸런스를 조절하여 보다 정확히 사용자에게 정보가 전달되도록 제공할 수 있다. For example, if similar data is matched with noise of a construction site or automobile noise in step 241, step 242 may adjust a balance for lowering the volume of noise and provide it to the user. In addition, when the voices of the user and the surrounding people are matched with similar data such as "Goodbye" or "It's been a while" in step 251, step 252 is a balance that increases the amplification value, volume, and frequency of the matched similar data rather than the ambient noise. It can be provided so that information is delivered to the user more accurately by adjusting.

이 때, 단계 242 및 단계 252 각각은 자연어 또는 비자연어에 서로 다른 제어 파라미터 값을 적용하는 것을 특징으로 한다. 보다 상세하게는, 동일하게 볼륨을 높이는 제어 파라미터를 적용하더라도, 자연어에 적용되는 제어 파라미터가 비자연어에 적용되는 제어 파라미터에 비해 더 높을 수 있다. In this case, steps 242 and 252 are characterized in that different control parameter values are applied to natural or non-natural languages. In more detail, even if the same control parameter for increasing the volume is applied, the control parameter applied to the natural language may be higher than the control parameter applied to the non-natural language.

이후에, 단계 243 및 단계 253에서, 매칭된 유사 데이터에 따른 특정된 자연어 또는 비자연어에 대한 응답으로 피드백을 제공할 수 있다. Thereafter, in steps 243 and 253, feedback may be provided in response to a specified natural language or non-natural language according to the matched similar data.

단계 243 및 단계 253은 인공지능(Artificial Intelligence; AI)에 기반하여 소리 데이터에 대한 유사한 단어 및 문장의 유사 데이터가 매칭되는 경우, 사용자의 질문에 대한 응답으로 단어 및 문장의 피드백을 추출하여 음성으로 전달할 수 있다. Steps 243 and 253 are based on artificial intelligence (AI), when similar data of similar words and sentences with respect to sound data are matched, extracting word and sentence feedback as a response to the user's question, I can deliver.

예를 들면, 자동차 소음으로 유사 데이터가 매칭되는 경우에, 단계 243은 “주의하세요”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있으며, 사용자에게 익숙하지 않은 새로운 소음으로 유사 데이터가 매칭되는 경우에는 “새로운 소리입니다” 또는 “새로운 환경입니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. 또한, “오늘 날씨는 어때?”의 유사 데이터가 매칭되는 경우에, 단계 253은 “오늘 날씨는 맑습니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있으며, “배고파”와 같은 유사 데이터가 매칭되는 경우에는 “근처 음식점은 OOO가 있습니다”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다.For example, if similar data is matched by car noise, step 243 may provide a voice message notification such as “Please be careful” to the user, and if similar data is matched with a new noise unfamiliar to the user, Voice message notifications such as "This is a new sound" or "This is a new environment" can be provided to the user. In addition, when similar data of “how is the weather today?” are matched, step 253 may provide a voice message notification such as “weather is sunny” to the user, and similar data such as “hungry” are matched. In this case, a voice message notification such as “the nearby restaurant has OOO” can be provided to the user.

단계 241, 단계 242 및 단계 243의 비자연어 영역에서, 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법은 소음에 대해서는 제어 파라미터를 설정하여 사용자에게 적합한 소리로 제공하나, 위협적인 소리 또는 새로운 소리에 대해서는 “주의하세요” 또는 “새로운 소리입니다”와 같은 음성 메시지 알림을 피드백으로 제공할 수 있다.In the non-natural language areas of steps 241, 242, and 243, the operation method of the smart hearing device according to an embodiment of the present invention sets a control parameter for noise and provides a sound suitable to the user, but threatening sound or new sound You can provide feedback with voice message notifications, such as "be careful" or "this is a new sound."

마찬가지로, 단계 251, 단계 252 및 단계 253의 자연어 영역에서, 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법은 사용자 간의 대화 소리에 대해서는 제어 파라미터를 설정하여 사용자에게 적합한 소리로 제공하나, 사용자의 질문에 대해서는 그에 상응하는 답변을 피드백으로 제공할 수 있다. 이 때, 본 발명의 실시예에 따른 스마트 히어링 디바이스의 동작 방법은 인공지능(Artificial Intelligence; AI)에 기반하여 자연어인 사용자의 질문에 적합한 답변을 추출할 수 있다. Similarly, in the natural language domain of steps 251, 252, and 253, the operation method of the smart hearing device according to an embodiment of the present invention sets a control parameter for the conversation sound between users and provides the sound suitable to the user. For questions, corresponding answers can be provided as feedback. In this case, the method of operating the smart hearing device according to the embodiment of the present invention may extract an appropriate answer to a user's question in a natural language based on artificial intelligence (AI).

도 3a 및 도 3b는 본 발명의 실시예에 따른 자연어 또는 비자연어를 구분하여 피드백을 제공하는 예를 설명하기 위해 도시한 것이다.3A and 3B are diagrams for explaining an example of providing feedback by classifying natural or non-natural languages according to an embodiment of the present invention.

보다 상세하게는, 도 3a는 본 발명의 실시예에 따른 자연어를 판단하여 피드백을 제공하는 예를 설명하기 위해 도시한 것이며, 도 3b는 본 발명의 실시예에 따른 비자연어를 판단하여 피드백을 제공하는 예를 설명하기 위해 도시한 것이다.In more detail, FIG. 3A is a diagram illustrating an example of determining a natural language according to an embodiment of the present invention and providing feedback, and FIG. 3B is a diagram illustrating a non-natural language according to an embodiment of the present invention and providing feedback. It is shown to illustrate an example.

도 3a를 참조하면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 일측에 형성된 제1 마이크 및 제2 마이크로부터 “안녕하세요”의 소리 데이터를 감지할 수 있다. 이 때, “안녕하세요”의 소리 데이터는 도 3a에 도시된 바와 같은 시간 - 음량 그래프 및 주파수 - 음량 그래프에서 특정 패턴을 나타내며, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 소리 데이터에 대한 디지털 흐름과 데이터베이스에 기 저장된 그래프 패턴을 비교하여 소리 데이터를 자연어로 판단할 수 있다.Referring to FIG. 3A, the smart hearing device according to an embodiment of the present invention may detect sound data of “hello” from a first microphone and a second microphone formed at one side. At this time, the sound data of “Hello” represents a specific pattern in the time-volume graph and frequency-volume graph as shown in FIG. 3A, and the smart hearing device according to an embodiment of the present invention provides a digital flow and Sound data can be determined in natural language by comparing graph patterns previously stored in the database.

자연어의 판단 이후에, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 자연어에 대한 유사 데이터를 매칭한다. 예를 들면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 감지된 “안녕하세요”에 근접하는 유사 데이터를 매칭하고자 하며, ‘안녕’, ‘안녕히시오’, ‘안녕하시’와 같은 데이터 중에서 “안녕하세요”의 소리 데이터와 유사한 ‘안녕하세요’의 유사 데이터를 매칭할 수 있다.After determining the natural language, the smart hearing device according to the embodiment of the present invention matches similar data for the natural language. For example, the smart hearing device according to an embodiment of the present invention attempts to match similar data close to the sensed “hello”, and “hello” among data such as “hello”, “hello”, and “hello”. Similar data of'Hello' similar to the sound data of may be matched.

유사 데이터의 매칭에 따라, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 자연어에 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 제어 파라미터를 설정하며, “안녕하세요”의 소리 데이터에 대한 응답으로 피드백을 추출하여 소리로 사용자에게 제공할 수 있다. 예를 들면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 “안녕하세요”의 소리 데이터에 대한 피드백으로 “네, 안녕하세요”, “오랜만이네요”, “무엇을 도와드릴까요?”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. According to the matching of similar data, the smart hearing device according to an embodiment of the present invention sets at least one or more control parameters of amplification value change, volume control, and frequency control in natural language, and in response to the sound data of “Hello”. Feedback can be extracted and provided to the user through sound. For example, the smart hearing device according to an embodiment of the present invention provides voice message notifications such as "Yes, hello", "It's been a while", and "What can I do for you?" as feedback on sound data of "Hello". Can be provided to the user.

도 3b를 참조하면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 일측에 형성된 제1 마이크 및 제2 마이크로부터 “콜록 콜록”의 소리 데이터를 감지할 수 있다. 이 때, “콜록 콜록”의 소리 데이터는 도 3b에 도시된 바와 같은 시간 - 음량 그래프 및 주파수 - 음량 그래프에서 특정 패턴을 나타내며, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 소리 데이터에 대한 디지털 흐름과 데이터베이스에 기 저장된 그래프 패턴을 비교하여 소리 데이터를 비자연어로 판단할 수 있다. 도 3a 및 도 3b에 도시된 바와 같이, 자연어 및 비자연어는 시간 - 음량 그래프 및 주파수 - 음량 그래프에서 서로 다른 그래프 패턴을 나타내는 것을 확인할 수 있으며, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 이러한 그래프 패턴의 차이로 자연어 또는 비자연어를 구분 및 판단할 수 있게 된다.Referring to FIG. 3B, the smart hearing device according to an exemplary embodiment of the present invention may detect sound data of a “colog call” from a first microphone and a second microphone formed at one side. At this time, the sound data of the “coloc call” represents a specific pattern in the time-volume graph and frequency-volume graph as shown in FIG. 3B, and the smart hearing device according to the embodiment of the present invention is a digital flow for sound data. The sound data can be determined in an unnatural language by comparing the graph pattern previously stored in the database. 3A and 3B, it can be seen that natural language and non-natural language represent different graph patterns in the time-volume graph and frequency-volume graph, and the smart hearing device according to the embodiment of the present invention is such a graph It is possible to distinguish and judge natural or non-natural languages by the difference in patterns.

비자연어의 판단 이후에, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 비자연어에 대한 유사 데이터를 매칭한다. 예를 들면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 감지된 “콜록 콜록”에 유사한 데이터를 매칭하고자 하며, ‘콜’, ‘코올’, ‘탁탁’과 같은 데이터 중에서 “콜록 콜록”의 소리 데이터와 유사한 ‘콜록 콜록’의 유사 데이터를 매칭할 수 있다.After determining the non-natural language, the smart hearing device according to the embodiment of the present invention matches similar data for the non-natural language. For example, the smart hearing device according to an embodiment of the present invention attempts to match similar data to the sensed “colok colok”, and the sound of “coloco coloc” among data such as “call”, “cool” and “takk” It is possible to match similar data of'coloc coloc' similar to data.

유사 데이터의 매칭에 따라, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 비자연어에 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 제어 파라미터를 설정하며, “콜록 콜록”의 소리 데이터에 대한 응답으로 피드백을 추출하여 소리로 사용자에게 제공할 수 있다. 예를 들면, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 “콜록 콜록”의 소리 데이터에 대한 피드백으로 “근처 약국을 알려드릴게요”, “감기에 걸리셨나봐요”, “따뜻한 차를 마시세요”, “괜찮으세요?”와 같은 음성 메시지 알림을 사용자에게 제공할 수 있다. According to the matching of similar data, the smart hearing device according to an embodiment of the present invention sets at least one or more control parameters of amplification value change, volume control, and frequency control in an unnatural language, and Feedback can be extracted as a response and provided to the user through sound. For example, in the smart hearing device according to an embodiment of the present invention, "I will inform you of the nearby pharmacy", "I think you have a cold", "Drink a hot tea", and "I will inform you of the nearby pharmacy" with feedback on the sound data of the "Kolok Kolok" You can provide a voice message notification to the user, such as "Are you okay?"

도 4a 및 도 4b는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 실시 예를 도시한 것이다.4A and 4B illustrate an embodiment of a smart hearing device according to an embodiment of the present invention.

도 4a 및 도 4b에 도시된 바와 같이, 본 발명의 실시예에 따른 스마트 히어링 디바이스는 사용자의 좌측 귀와 우측 귀 각각에 착용되도록 2개가 한 쌍일 수 있다.4A and 4B, the smart hearing device according to the embodiment of the present invention may be a pair of two to be worn on each of the user's left and right ears.

이하에서 설명할 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 앞서 도 1 내지 도 3b를 통해 설명한 본 발명의 실시예에 따른 스마트 히어링 디바이스와 동일한 기능을 포함한다. The first smart hearing device 300 and the second smart hearing device 400 to be described below include the same functions as the smart hearing device according to the embodiment of the present invention described with reference to FIGS. 1 to 3B.

도 4a를 참조하면, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300)는 제1 마이크(301), 제2 마이크(302) 및 온/오프 스위치(303)를 포함하고, 제2 스마트 히어링 디바이스(400)는 제3 마이크(401), 제4 마이크(402) 및 온/오프 스위치(403)를 포함한다. 제1 스마트 히어링 디바이스(300)는 사용자의 좌측 귀에 착용되고, 제2 스마트 히어링 디바이스(400)는 사용자의 우측 귀에 착용되는 것으로 도시하였으나, 스마트 히어링 디바이스가 착용되는 위치 및 형태는 이에 제한하지 않는다. 4A, the first smart hearing device 300 according to the embodiment of the present invention includes a first microphone 301, a second microphone 302, and an on/off switch 303, and a second smart hearing device 300 The hearing device 400 includes a third microphone 401, a fourth microphone 402 and an on/off switch 403. Although the first smart hearing device 300 is worn on the left ear of the user, and the second smart hearing device 400 is worn on the right ear of the user, the location and shape of the smart hearing device are not limited thereto.

이 때, 제1 마이크(301) 및 제3 마이크(401)는 사용자의 목소리 위주의 음성 신호를 수신하기 위해 사용자의 입 부근에 인접하게 위치할 수 있으며, 온/오프 스위치(303, 403)의 아래 쪽에 위치하여 제2 마이크(302) 및 제4 마이크(402)에 비해 상대적으로 사용자의 입에 근접한 것을 특징으로 한다.At this time, the first microphone 301 and the third microphone 401 may be positioned adjacent to the user's mouth in order to receive a voice signal focused on the user's voice, and the on/off switches 303 and 403 It is located at the lower side and is characterized in that it is relatively close to the user's mouth compared to the second microphone 302 and the fourth microphone 402.

또한, 제2 마이크(302) 및 제4 마이크(402)는 사용자의 위치에 따른 주변 소음 위주의 소음 신호를 수신하기 위해 사용자의 입에서 가능한 멀리 위치하며, 온/오프 스위치(303, 403)의 위쪽에 위치하여 제1 마이크(301) 및 제3 마이크(401)에 비해 상대적으로 사용자의 입에서 멀리 떨어져 위치한 것을 특징으로 한다.In addition, the second microphone 302 and the fourth microphone 402 are located as far from the user's mouth as possible in order to receive a noise signal focusing on ambient noise according to the user's position, and the on/off switches 303 and 403 It is located above and is characterized in that it is located relatively far from the user's mouth compared to the first microphone 301 and the third microphone 401.

나아가, 제1 마이크(301) 및 제2 마이크(302), 그리고 제3 마이크(401) 및 제4 마이크(402)의 공구(또는 구멍)가 향하는 방향은 동일한 것을 특징으로 하며, 이는 균일한 음성 신호 및 소음 신호를 각각 수집하고, 그에 따른 적정 소음을 제거하기 위함이다.Further, the first microphone 301 and the second microphone 302, and the third microphone 401 and the fourth microphone 402 is characterized in that the direction of the tool (or hole) is the same, which is a uniform voice It is to collect signals and noise signals, respectively, and to remove appropriate noise accordingly.

도 4a에 도시된 바와 같이, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 위치가 서로 다른 두 개의 마이크(301, 302와 401, 402)를 포함하며, 소프트웨어적으로 제1 마이크(301) 및 제3 마이크(401)를 메인으로 세팅하고, 제2 마이크(302) 및 제4 마이크(402)를 2차 입력 소스로 적용하여 서로 다른 음성 신호 및 소음 신호를 균일하게 수집할 수 있다. 4A, the first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention have two microphones 301, 302 and 401, 402 having different positions. Including, by software setting the first microphone 301 and the third microphone 401 as main, and applying the second microphone 302 and the fourth microphone 402 as secondary input sources, different voice signals And a noise signal can be uniformly collected.

이 때, 제1 스마트 히어링 디바이스(300)의 제1 마이크(301)와 제2 스마트 히어링 디바이스(400)의 제3 마이크(401)는 서로 페어링되고, 제1 스마트 히어링 디바이스(300)의 제2 마이크(302)와 제2 스마트 히어링 디바이스(400)의 제4 마이크(402)는 서로 페어링되는 것을 특징으로 하며, 어느 하나의 마이크에 적용된 설정에 따라 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정될 수 있다.At this time, the first microphone 301 of the first smart hearing device 300 and the third microphone 401 of the second smart hearing device 400 are paired with each other, and the second microphone 401 of the first smart hearing device 300 The microphone 302 and the fourth microphone 402 of the second smart hearing device 400 are paired with each other, and a microphone paired with any one microphone may also be automatically set according to a setting applied to any one microphone. I can.

예를 들면, 제어 파라미터에 의해 제1 마이크(301)의 볼륨이 일정 값으로 업(up)되는 경우, 페어링된 제3 마이크(401)의 볼륨 또한 일정 값으로 자동 업(up) 조절이 가능하다. 또 다른 예로, 제1 스마트 히어링 디바이스(300)의 제2 마이크(302) 전원이 온(on)되는 경우, 페어링된 제2 스마트 히어링 디바이스(400)의 제4 마이크(402) 전원 또한 자동으로 온(on)될 수 있다. For example, when the volume of the first microphone 301 is increased to a predetermined value by the control parameter, the volume of the paired third microphone 401 can also be automatically adjusted to a predetermined value. . As another example, when the power of the second microphone 302 of the first smart hearing device 300 is turned on, the power of the fourth microphone 402 of the paired second smart hearing device 400 is also automatically turned on. can be (on).

도 4a를 참조하면, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 온/오프 스위치(303, 403)를 포함하며, 온/오프 스위치(303, 403)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)의 전원을 온(on) 또는 오프(off)한다. 예를 들면, 사용자가 스위치 형태의 온/오프 스위치(303, 403)를 터치, 푸시 또는 길게 누르면 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 온(on) 또는 오프(off)될 수 있다. 이 때, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 중 적어도 어느 하나가 온(on) 또는 오프(off)되는 경우, 페어링된 다른 한 쪽의 스마트 히어링 디바이스 또한 동일하게 온(on) 또는 오프(off)될 수 있다. 4A, the first smart hearing device 300 and the second smart hearing device 400 include on/off switches 303 and 403, and the on/off switches 303 and 403 are the first smart hearing devices. Powers of the hearing device 300 and the second smart hearing device 400 are turned on or off. For example, when the user touches, pushes, or presses the switch-type on/off switches 303 and 403 for a long time, the first smart hearing device 300 and the second smart hearing device 400 are turned on or off ( off). At this time, when at least one of the first smart hearing device 300 and the second smart hearing device 400 is turned on or off, the other paired smart hearing device is also turned on in the same manner. It can be (on) or off (off).

도 4b를 참조하면, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 충전모듈(305, 405) 및 스피커(304, 404)를 포함한다.Referring to FIG. 4B, the first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention include charging modules 305 and 405 and speakers 304 and 404.

본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 충전식 디바이스로, 충전모듈(Charging Terminals, 305, 405)을 포함할 수 있다.The first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention are rechargeable devices, and may include charging terminals 305 and 405.

예를 들면, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 충전식 리튬 이온 폴리머 배터리(Li-ion Polymer Battery) 및 모바일 장치의 배터리 미터(Battery Meter)를 포함할 수 있으며, 충전모듈(305, 405)을 통해 배터리를 충전할 수 있다. For example, the first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention include a rechargeable Li-ion Polymer Battery and a battery meter of a mobile device. ) May be included, and the battery may be charged through the charging modules 305 and 405.

또한, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 스피커(304, 404)를 통해 디지털 신호에서 아날로그 신호(음향 에너지)로 변환된 소리를 제공할 수 있다.In addition, the first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention provide sound converted from a digital signal to an analog signal (sound energy) through the speakers 304 and 404. can do.

예를 들면, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 제1 마이크(301), 제2 마이크(302), 제3 마이크(401), 제4 마이크(402)로부터 수집된 음성 신호 및 소음 신호에 분석 결과에 관련된 정보에 따른 제1 제어 파라미터 및 제2 제어 파라미터를 설정하며, 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스가 조절된 디지털 신호를 아날로그 신호로 변환시켜 스피커(304, 404)를 통해 사용자에게 소리로 제공할 수 있다. For example, the first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention include a first microphone 301, a second microphone 302, a third microphone 401, Set a first control parameter and a second control parameter according to information related to the analysis result in the voice signal and noise signal collected from the fourth microphone 402, and balance at least one of amplification value change, volume control, and frequency control The adjusted digital signal may be converted into an analog signal and provided as sound to a user through the speakers 304 and 404.

도 5, 도 6a 및 도 6b는 본 발명의 실시예에 따른 스마트 히어링 디바이스의 적용 예를 도시한 것이다. 5, 6A, and 6B illustrate examples of application of a smart hearing device according to an embodiment of the present invention.

보다 상세하게는, 도 5는 본 발명의 실시예에 따른 스마트 히어링 디바이스를 착용한 사용자를 상면에서 바라본 예를 도시한 것이고, 도 6a은 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스를 착용한 사용자를 좌측에서 바라본 예를 도시한 것이며, 도 6b는 본 발명의 실시예에 따른 제2 스마트 히어링 디바이스를 착용한 사용자를 우측에서 바라본 예를 도시한 것이다.More specifically, FIG. 5 shows an example of a user wearing a smart hearing device according to an embodiment of the present invention as viewed from the top, and FIG. 6A is a first smart hearing device according to an embodiment of the present invention. An example of a user viewed from the left is shown, and FIG. 6B illustrates an example of a user wearing a second smart hearing device according to an embodiment of the present invention viewed from the right.

도 5를 참조하면, 사용자(10)는 좌측 귀에 제1 스마트 히어링 디바이스(300)를 착용하고, 우측 귀에 제2 스마트 히어링 디바이스(400)를 착용한다. 사용자(10)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)를 모두 착용함으로써, 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화를 보다 입체적으로 인지할 수 있으며, 맞춤형 보청 서비스를 받을 수 있다. Referring to FIG. 5, the user 10 wears the first smart hearing device 300 on the left ear and the second smart hearing device 400 on the right ear. By wearing both the first smart hearing device 300 and the second smart hearing device 400, the user 10 can perceive environmental changes and noise changes according to the sound direction of the left and right in a more three-dimensional manner, and can be customized. Hearing aid services are available.

도 6a를 참조하면, 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300)는 사용자(10)의 좌측 귀에 장착되며, 제1 마이크(301) 및 제2 마이크(302)는 사용자의 입을 기준으로 서로 다른 거리에 위치할 수 있다. 6A, the first smart hearing device 300 according to an embodiment of the present invention is mounted on the left ear of the user 10, and the first microphone 301 and the second microphone 302 are based on the user's mouth. It can be located at different distances.

예를 들면, 제1 마이크(301)는 제2 마이크(302)에 비해 사용자의 입 부근에 인접하게 위치하며, 사용자의 목소리 위주의 음성 신호를 수신할 수 있다. 반면, 제2 마이크(302)는 제1 마이크(301)에 비해 사용자의 입에서 가능한 멀리 위치하며, 사용자의 위치에 따른 주변 소음 위주의 소음 신호를 수신할 수 있다. For example, the first microphone 301 is positioned closer to the user's mouth than the second microphone 302 and may receive a voice signal focused on the user's voice. On the other hand, the second microphone 302 is positioned as far from the user's mouth as possible compared to the first microphone 301, and may receive a noise signal mainly for ambient noise according to the user's location.

이 때, 도 6a에 도시된 바와 같이, 제1 마이크(301) 및 제2 마이크(302)는 온/오프 스위치(303)를 기준으로 사용자의 입에 근접하거나, 멀리 위치한 것을 확인할 수 있다. In this case, as shown in FIG. 6A, it can be confirmed that the first microphone 301 and the second microphone 302 are located near or far from the user's mouth based on the on/off switch 303.

제1 마이크(301) 및 제2 마이크(302)는 본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 내 서로 다른 위치에 포함되나, 제1 마이크(301) 및 제2 마이크(302)의 공구(또는 구멍)가 향하는 방향은 균일한 음성 신호 및 소음 신호를 수집하고, 그에 따른 적정 소음 제거를 위해 동일한 것을 특징으로 한다.The first microphone 301 and the second microphone 302 are included in different locations in the first smart hearing device 300 according to the embodiment of the present invention, but the first microphone 301 and the second microphone 302 The direction in which the tool (or hole) faces is characterized in that it collects a uniform voice signal and noise signal, and accordingly is the same for proper noise reduction.

도 6b를 참조하면, 본 발명의 실시예에 따른 제2 스마트 히어링 디바이스(400)는 사용자(10)의 우측 귀에 장착되며, 제3 마이크(401) 및 제4 마이크(402)는 사용자의 입을 기준으로 서로 다른 거리에 위치할 수 있다. 6B, a second smart hearing device 400 according to an embodiment of the present invention is mounted on the right ear of the user 10, and the third microphone 401 and the fourth microphone 402 are based on the user's mouth. It can be located at different distances.

예를 들면, 제3 마이크(401)는 제4 마이크(402)에 비해 사용자의 입 부근에 인접하게 위치하며, 사용자의 목소리 위주의 음성 신호를 수신할 수 있다. 반면, 제4 마이크(402)는 제3 마이크(401)에 비해 사용자의 입에서 가능한 멀리 위치하며, 사용자의 위치에 따른 주변 소음 위주의 소음 신호를 수신할 수 있다. For example, the third microphone 401 is positioned closer to the user's mouth than the fourth microphone 402 and may receive a voice signal focused on the user's voice. On the other hand, the fourth microphone 402 is located as far from the user's mouth as possible compared to the third microphone 401, and may receive a noise signal focusing on ambient noise according to the user's location.

이 때, 도 6b에 도시된 바와 같이, 제3 마이크(401) 및 제4 마이크(402)는 온/오프 스위치(403)를 기준으로 사용자의 입에 근접하거나, 멀리 위치한 것을 확인할 수 있다. In this case, as shown in FIG. 6B, it can be confirmed that the third microphone 401 and the fourth microphone 402 are located near or far from the user's mouth based on the on/off switch 403.

제3 마이크(401) 및 제4 마이크(402)는 본 발명의 실시예에 따른 제2 스마트 히어링 디바이스(400) 내 서로 다른 위치에 포함되나, 제3 마이크(401) 및 제4 마이크(402)의 공구(또는 구멍)가 향하는 방향은 균일한 음성 신호 및 소음 신호를 수집하고, 그에 따른 적정 소음 제거를 위해 동일한 것을 특징으로 한다.The third microphone 401 and the fourth microphone 402 are included in different positions in the second smart hearing device 400 according to the embodiment of the present invention, but the third microphone 401 and the fourth microphone 402 The direction in which the tool (or hole) faces is characterized in that it collects a uniform voice signal and noise signal, and accordingly is the same for proper noise reduction.

도 7은 본 발명의 실시예에 따른 인공지능 히어링 시스템의 구성을 도시한 것이다.7 illustrates the configuration of an artificial intelligence hearing system according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 인공지능 히어링 시스템은 일측에 형성된 제1 스마트 히어링 디바이스(300) 및 타측에 형성된 제2 스마트 히어링 디바이스(400)를 포함하며, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)를 제어하는 모바일 디바이스(500)를 포함한다. 또한, 본 발명의 실시예에 따른 인공지능 히어링 시스템은 외부 서버(600)를 더 포함할 수 있다. Referring to FIG. 7, the artificial intelligence hearing system according to an embodiment of the present invention includes a first smart hearing device 300 formed on one side and a second smart hearing device 400 formed on the other side, and the first smart hearing device 300 and a mobile device 500 that controls the second smart hearing device 400. In addition, the artificial intelligence hearing system according to an embodiment of the present invention may further include an external server 600.

제1 스마트 히어링 디바이스(300)는 일측에 형성된 제1 마이크 및 제2 마이크로부터 수신되는 음성 신호 및 소음 신호를 포함하는 제1 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 유사 데이터의 매칭으로 인한 제1 제어 파라미터를 설정하여 일측의 소리를 제공한다. 또한, 제2 스마트 히어링 디바이스(400)는 타측에 형성된 제3 마이크 및 제4 마이크롤부터 수신되는 음성 신호 및 소음 신호를 포함하는 제2 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 상기 유사 데이터의 매칭으로 인한 제2 제어 파라미터를 설정하여 타측의 소리를 제공한다.The first smart hearing device 300 determines a natural language or an unnatural language for the first sound data including a voice signal and a noise signal received from a first microphone and a second microphone formed on one side, and the determined natural or unnatural language The sound of one side is provided by setting a first control parameter due to matching of similar data to. In addition, the second smart hearing device 400 determines a natural language or an unnatural language for the second sound data including a voice signal and a noise signal received from the third microphone and the fourth microphone formed on the other side, and the determined natural language Alternatively, the sound of the other side is provided by setting a second control parameter due to matching of the similar data with an unnatural language.

제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 사용자의 입 부근에 위치하는 제1 마이크 및 제3 마이크를 포함하고, 사용자의 입을 기준으로 이격거리에 위치된 제2 마이크 및 제4 마이크를 포함할 수 있다. 이 때, 제1 마이크 및 제3 마이크는 일측 및 타측에서 사용자의 음성 신호를 수집하고, 제2 마이크 및 제4 마이크는 일측의 소음 신호 및 타측의 소음 신호를 수집할 수 있다. The first smart hearing device 300 and the second smart hearing device 400 include a first microphone and a third microphone positioned near the user's mouth, and a second microphone positioned at a distance from the user's mouth, and It may include a fourth microphone. In this case, the first microphone and the third microphone may collect a user's voice signal from one side and the other side, and the second microphone and the fourth microphone may collect a noise signal from one side and a noise signal from the other side.

보다 상세하게는, 제1 스마트 히어링 디바이스(300)는 사용자의 좌측 귀에 장착될 수 있으며, 사용자의 입 부근에 위치하는 제1 마이크를 통해 좌측에서의 사용자의 음성 신호를 수신하고, 사용자의 입을 기준으로 이격거리에 위치된 제2 마이크를 통해 좌측에서의 소음 신호를 수신할 수 있다. 또한, 제2 스마트 히어링 디바이스(400)는 사용자의 우측 귀에 장착될 수 있으며, 사용자의 입 부근에 위치하는 제3 마이크를 통해 우측에서의 사용자의 음성 신호를 수신하고, 사용자의 입을 기준으로 이격거리에 위치된 제4 마이크를 통해 우측에서의 소음 신호를 수신할 수 있다. More specifically, the first smart hearing device 300 may be mounted on the user's left ear, receives the user's voice signal from the left through the first microphone located near the user's mouth, and is based on the user's mouth. It is possible to receive a noise signal from the left through the second microphone located at a distance. In addition, the second smart hearing device 400 may be mounted on the user's right ear, receives the user's voice signal from the right through a third microphone located near the user's mouth, and provides a separation distance based on the user's mouth. It is possible to receive a noise signal from the right through the fourth microphone located at.

이 때, 제1 스마트 히어링 디바이스(300)의 제1 마이크와 제2 스마트 히어링 디바이스(400)의 제3 마이크, 및 제1 스마트 히어링 디바이스(300)의 제2 마이크와 제2 스마트 히어링 디바이스(400)의 제4 마이크 각각은 서로 페어링되는 것을 특징으로 하며, 어느 하나의 마이크에 적용된 설정에 따라 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정될 수 있다. 예를 들면, 제1 제어 파라미터에 의해 제1 마이크의 볼륨이 조절되는 경우, 페어링된 제3 마이크의 볼륨 또한 자동 조절이 가능하다. 또 다른 예로, 제1 스마트 히어링 디바이스(300)의 제2 마이크 전원이 온(on)되는 경우, 페어링된 제2 스마트 히어링 디바이스(400)의 제4 마이크 전원 또한 자동으로 온(on)될 수 있다. In this case, the first microphone of the first smart hearing device 300 and the third microphone of the second smart hearing device 400, and the second microphone and the second smart hearing device 400 of the first smart hearing device 300 Each of the fourth microphones of) is characterized in that they are paired with each other, and a microphone paired with any one microphone may also be automatically set according to a setting applied to any one microphone. For example, when the volume of the first microphone is adjusted by the first control parameter, the volume of the paired third microphone may also be automatically adjusted. As another example, when the power of the second microphone of the first smart hearing device 300 is turned on, the power of the fourth microphone of the paired second smart hearing device 400 may also be automatically turned on. .

제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각은 사용자의 좌측 청력 데이터 및 우측 청력 데이터에 기반하여, 서로 다른 파라미터 값의 제1 제어 파라미터 및 제2 제어 파라미터를 설정할 수 있다. Each of the first smart hearing device 300 and the second smart hearing device 400 may set a first control parameter and a second control parameter of different parameter values based on the user's left hearing data and right hearing data. .

실시 예로, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각은 보청기를 사용하는 사용자의 좌측 및 우측에 대한 청력 데이터(Personal Hearing Profile)를 포함할 수 있다. 예를 들면, 사용자의 좌측과 우측의 청력 데이터가 상이할 수 있으므로, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각은 사용자가 선호하는 볼륨, 인지 가능한 특정 볼륨, 특정 주파수와, 이질감을 느끼지 않을 정도의 증폭값, 볼륨 및 주파수 범위를 포함하는 사용자 맞춤형의 청력 데이터를 포함할 수 있다. 이 때, 사용자의 청력 데이터는 모바일 디바이스(500) 및 외부 서버(600)에도 저장되어 유지될 수 있다. As an example, each of the first smart hearing device 300 and the second smart hearing device 400 may include a personal hearing profile for left and right sides of a user who uses a hearing aid. For example, since the user's left and right hearing data may be different, each of the first smart hearing device 300 and the second smart hearing device 400 has a volume preferred by the user, a specific recognizable volume, and a specific frequency. Wow, it may include user-customized hearing data including an amplification value, a volume, and a frequency range so as not to feel a sense of difference. In this case, the user's hearing data may be stored and maintained in the mobile device 500 and the external server 600.

다만, 상기 청력 데이터는 증폭값, 볼륨 및 주파수 등의 항목 또는 수치값에 한정되지 않는다. 예를 들면, 상기 청력 데이터는 작은 소리는 크게 증폭해주고 큰 소리는 작게 줄여주는 비선형 압축 정보, 소리가 들리는 방향을 정확히 잡아낼 수 있는 방향성 정보, 마이크로 수신된 소리를 증폭해 다른 잡음 없이 잘 들을 수 있도록 도와주는 피드백 정보 및 소음을 줄여주는 소음 제거 정보 중 적어도 어느 하나 이상의 정보에 대한 사용자의 선호도 및 수치값을 더 포함할 수 있다.However, the hearing data is not limited to items or numerical values such as amplification value, volume, and frequency. For example, the hearing data is nonlinear compression information that amplifies small sounds large and reduces loud sounds small, directional information that accurately detects the direction in which the sound is heard, and amplifies the received sound by a microphone so that it can be heard without other noise. The user's preference and numerical values for at least one or more of information for helping feedback and noise reduction information for reducing noise may be further included.

본 발명의 실시예에 따른 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 사용자의 청력 데이터와 자연어 또는 비자연어로 판단된 유사 데이터에 대한 결과 정보에 기초하여, 환경 변화 및 소음 변화에 따른 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 제1 제어 파라미터 및 제2 파라미터를 설정하여 좌측 및 우측에서의 맞춤형 보청 서비스를 제공할 수 있다. The first smart hearing device 300 and the second smart hearing device 400 according to an embodiment of the present invention are based on the user's hearing data and the result information on the similar data determined in natural or non-natural language. At least one of a first control parameter and a second parameter of an amplification value change according to a noise change, a volume control, and a frequency control may be set to provide customized hearing aid services on the left and right.

실시 예로, 제1 스마트 히어링 디바이스(300)는 제1 마이크 및 제2 마이크로부터 수신되는 디지털 신호의 음성 신호 및 소음 신호의 소리 데이터를 분석하여 자연어 또는 비자연어를 판단하고, 판단 결과에 따라 매칭된 유사 데이터에 제1 제어 파라미터를 설정하여 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스를 조절하며, 조절된 신호 및 피드백에 대한 디지털 신호를 아날로그 신호로 변환하여 사용자에게 좌측의 소리로 전달할 수 있다. As an example, the first smart hearing device 300 determines natural or non-natural language by analyzing sound data of a digital signal received from a first microphone and a second microphone, and a noise signal, and matched according to the determination result. By setting the first control parameter in the similar data, the balance of at least one of the amplification value change, volume control, and frequency control is adjusted, and the digital signal for the adjusted signal and feedback is converted into an analog signal to the user as the sound on the left. I can deliver.

다른 예로, 제2 스마트 히어링 디바이스(400)는 제3 마이크 및 제4 마이크로부터 수신되는 디지털 신호의 음성 신호 및 소음 신호의 소리 데이터를 분석하여 자연어 또는 비자연어를 판단하고, 판단 결과에 따라 매칭된 유사 데이터에 제2 제어 파라미터를 설정하여 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스를 조절하며, 조절된 신호 및 피드백에 대한 디지털 신호를 아날로그 신호로 변환하여 사용자에게 우측의 소리로 전달할 수 있다. As another example, the second smart hearing device 400 determines natural language or non-natural language by analyzing sound data of a digital signal received from a third microphone and a fourth microphone, and a noise signal, and matched according to the determination result. By setting the second control parameter in the similar data, the balance of at least one of the amplification value change, volume control, and frequency control is adjusted, and the digital signal for the adjusted signal and feedback is converted into an analog signal to the user as the sound on the right. I can deliver.

예를 들면, 제1 마이크, 제2 마이크, 제3 마이크 및 제4 마이크로부터 수신된 소리 데이터에 따른 증폭값, 볼륨 및 주파수 중 적어도 어느 하나 이상이 사용자가 기 설정하거나, 선호하는 기준 범위를 벗어날 수 있다. 이는 사용자가 위치하는 환경 변화에 따른 요인, 사용자의 음성 변화에 따른 요인, 기계적 오류의 요인 및 자연어 또는 비자연어에 의한 높낮이 요인 중 어느 하나에 의한 것 수 있다. 이에 따라서, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 소리 데이터에 제1 제어 파라미터 및 제2 파라미터를 적용하여 소리 데이터에 대한 증폭값, 볼륨 및 주파수 중 적어도 어느 하나 이상의 밸런스를 조절하며, 조절된 밸런스에 따른 디지털 신호를 아날로그 신호(음향 에너지)로 변환시켜 소리로 사용자에게 제공할 수 있다. For example, at least one or more of amplification value, volume, and frequency according to sound data received from a first microphone, a second microphone, a third microphone, and a fourth microphone is out of a preset or preferred reference range by the user. I can. This may be due to any one of a factor according to a change in the environment in which the user is located, a factor according to a change in the user's voice, a factor of a mechanical error, and a height factor due to a natural or unnatural language. Accordingly, the first smart hearing device 300 and the second smart hearing device 400 apply the first control parameter and the second parameter to the sound data to provide at least one of an amplification value, a volume, and a frequency for the sound data. The balance is adjusted, and a digital signal according to the adjusted balance can be converted into an analog signal (sound energy) and provided to the user as sound.

즉, 본 발명의 실시예에 따른 인공지능 히어링 시스템의 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)는 사용자의 환경 변화 및 소음 변화에 따라 제1 마이크, 제2 마이크, 제3 마이크 및 제4 마이크로부터 수신된 음성 신호 및 소음 신호를 포함하는 소리 데이터를 분석하여 자연어 또는 비자연어로 판단하고, 매칭되는 유사 데이터에 대한 제1 제어 파라미터 및 제2 제어 파라미터를 설정함으로써, 사용자가 별도로 볼륨을 조절하거나, 주파수를 조절하지 않아도 변화하는 상황에 최적화되는 보청 서비스를 제공할 수 있으며, 보청기 사용의 편의성을 향상시킬 수 있다.In other words, the first smart hearing device 300 and the second smart hearing device 400 of the artificial intelligence hearing system according to the embodiment of the present invention are used as the first microphone, the second microphone, and the second microphone according to changes in the environment and noise of the user. 3 By analyzing sound data including voice signals and noise signals received from the microphone and the fourth microphone to determine natural or non-natural language, and by setting the first control parameter and the second control parameter for matching similar data, the user It is possible to provide a hearing aid service optimized for changing situations without separately adjusting the volume or adjusting the frequency, and improving the convenience of using the hearing aid.

또한, 즉, 본 발명의 실시예에 따른 인공지능 히어링 시스템의 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각은 사용자에게 맞춤형으로 좌측의 소리 및 우측의 소리를 제공하며, 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화를 입체적으로 인지하도록 제공할 수 있다. In other words, each of the first smart hearing device 300 and the second smart hearing device 400 of the artificial intelligence hearing system according to the embodiment of the present invention provides a user with a left sound and a right sound customized, It is possible to provide three-dimensional recognition of environmental changes and noise changes according to the sound direction of the left and right sides.

모바일 디바이스(500)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)를 제어한다. The mobile device 500 controls the first smart hearing device 300 and the second smart hearing device 400.

도 7에 도시된 바와 같이, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)와 모바일 디바이스(500)는 근거리 무선 통신 모듈인 블루투스(Bluetooth) 통신으로 데이터를 송수신할 수 있다. 예를 들면, 모바일 디바이스(500)는 블루투스 통신을 통해 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)로부터 음성 신호 및 소음 신호를 포함하는 소리 데이터, 자연어 또는 비자연어로 판단된 판단 결과, 유사 데이터 및 피드백에 관련된 정보를 수신할 수 있다. As shown in FIG. 7, the first smart hearing device 300, the second smart hearing device 400, and the mobile device 500 may transmit and receive data through Bluetooth communication, which is a short-range wireless communication module. For example, the mobile device 500 may determine sound data including a voice signal and a noise signal from the first smart hearing device 300 and the second smart hearing device 400 through Bluetooth communication, natural language or non-natural language. As a result of the determination, similar data and information related to feedback may be received.

이후, 모바일 디바이스(500)는 Ethernet/3G, 4G, 5G의 무선 데이터 통신을 통해 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)로부터 수신된 정보를 외부 서버(600)로 전송할 수 있다. Thereafter, the mobile device 500 transmits the information received from the first smart hearing device 300 and the second smart hearing device 400 to the external server 600 through wireless data communication of Ethernet/3G, 4G, and 5G. I can.

이 때, 모바일 디바이스(500)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)를 사용하는 사용자가 소지하는 단말 장치로, PC(personal computer), 노트북 컴퓨터(laptop computer), 스마트폰(smart phone), 태블릿(tablet) 및 웨어러블 컴퓨터(wearable computer) 중 적어도 어느 하나일 수 있으며, 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다. 또한, 모바일 디바이스(500)는 모바일 디바이스 내에 다운로드되어 설치된 어플리케이션(Application)을 일컫을 수 있다. In this case, the mobile device 500 is a terminal device possessed by a user who uses the first smart hearing device 300 and the second smart hearing device 400, and includes a personal computer (PC), a laptop computer, and It may be at least one of a smart phone, a tablet, and a wearable computer, and services such as configuring a service screen, inputting data, transmitting and receiving data, and storing data under the control of a web/mobile site or a dedicated application. You can perform the entire operation. In addition, the mobile device 500 may refer to an application downloaded and installed in the mobile device.

실시예에 따라서, 모바일 디바이스(500)는 디스플레이부(미도시)를 통해 다수의 영역들 각각에 위치하는 다수의 아이템들을 포함하는 화면을 표시할 수 있으며, 햅틱(haptic) 접촉 또는 택틸(tactile) 접촉에 기초하여 사용자로부터의 입력을 받아들이는 터치-감지 표면, 센서 또는 센서 집합에 기초하여 기능과 관련된 적어도 하나 이상의 아이템을 포함하는 또 다른 화면을 표시할 수 있다. 또한, 모바일 디바이스(500)는 키보드, 터치 디스플레이, 다이얼, 슬라이더 스위치, 조이스틱, 마우스 등의 입력부(미도시)를 통해 사용자의 선택 입력을 수신할 수 있으며, 오디오 모듈, 스피커 모듈 및 진동 모듈을 포함하는 출력부(미도시)를 통해 맞춤형 보청 서비스에 관련된 정보를 출력할 수도 있다.Depending on the embodiment, the mobile device 500 may display a screen including a plurality of items located in each of a plurality of areas through a display unit (not shown), and may be haptic contact or tactile. Another screen including at least one item related to a function may be displayed based on a touch-sensitive surface, a sensor, or a set of sensors that accepts an input from a user based on a contact. In addition, the mobile device 500 may receive a user's selection input through an input unit (not shown) such as a keyboard, a touch display, a dial, a slider switch, a joystick, and a mouse, and includes an audio module, a speaker module, and a vibration module. Information related to a customized hearing aid service may be output through an output unit (not shown).

모바일 디바이스(500)는 각각의 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)와 연동되어 사용자의 청력을 테스트하기 위한 화면과, 그에 따른 각종 리포트에 관련된 정보를 제공할 수 있다. 이 때, 상기 리포트는 시간에 따른 맞춤형 보청 서비스에 대한 히스토리(history) 지표 또는 기록일 수 있다. The mobile device 500 may be interlocked with each of the first smart hearing device 300 and the second smart hearing device 400 to provide a screen for testing the user's hearing and information related to various reports according thereto. . In this case, the report may be a history index or record for a customized hearing aid service over time.

또한, 모바일 디바이스(500)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)로부터 음성 신호 및 소음 신호를 포함하는 소리 데이터, 자연어 또는 비자연어로 판단된 판단 결과, 유사 데이터 및 피드백에 관련된 정보를 데이터베이스화할 수도 있다. In addition, the mobile device 500 includes sound data including voice signals and noise signals from the first smart hearing device 300 and the second smart hearing device 400, a determination result determined in natural or non-natural languages, similar data, and Information related to feedback can also be databaseized.

또한, 모바일 디바이스(500)는 사용자의 선택 입력에 따라 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각의 전원을 온(on) 또는 오프(off)할 수 있으며, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)의 증폭값, 볼륨 및 주파수 등의 수치를 수동으로 제어할 수도 있다. In addition, the mobile device 500 may turn on or off the power of each of the first smart hearing device 300 and the second smart hearing device 400 according to a user's selection input, and the first Numerical values such as an amplification value, volume, and frequency of the smart hearing device 300 and the second smart hearing device 400 may be manually controlled.

또한, 모바일 디바이스(500)는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400) 각각에 부여되는 일련번호 또는 디바이스 정보와 페어링된 것으로, 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)의 배터리 관리, 분실 관리, 고장 관리를 수행할 수 있다. In addition, the mobile device 500 is paired with a serial number or device information assigned to each of the first smart hearing device 300 and the second smart hearing device 400, and the first smart hearing device 300 and the second Battery management, loss management, and failure management of the smart hearing device 400 may be performed.

외부 서버(600)는 사용자 정보와, 사용자 정보에 따른 청력 데이터 및 사용자가 선호하는 증폭값, 볼륨 및 주파수 등의 적정 범위를 수치화하여 저장하며, 사용자 정보에 대응하는 제1 스마트 히어링 디바이스(300), 제2 스마트 히어링 디바이스(400) 및 모바일 디바이스(500)를 매칭시켜 데이터베이스화할 수 있다. 예를 들면, 외부 서버(600)는 기 설정된 시간 간격으로 모바일 디바이스(500)를 통해 수신되는 제1 스마트 히어링 디바이스(300) 및 제2 스마트 히어링 디바이스(400)에 의한 소리 데이터, 자연어 또는 비자연어로 판단된 판단 결과, 유사 데이터 및 피드백에 관련된 정보를 데이터베이스화할 수 있다. The external server 600 numerically stores and stores user information, hearing data according to the user information, and an appropriate range of the user's preferred amplification value, volume, and frequency, and the first smart hearing device 300 corresponding to the user information , The second smart hearing device 400 and the mobile device 500 may be matched to form a database. For example, the external server 600 includes sound data, natural language or non-natural language by the first smart hearing device 300 and the second smart hearing device 400 received through the mobile device 500 at preset time intervals. As a result of the determination determined as, similar data and information related to feedback may be converted into a database.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

100, 300, 400: 스마트 히어링 디바이스
301: 제1 마이크
302: 제2 마이크
303, 403: 온/오프 스위치
304, 404: 스피커
305, 405: 충전모듈
401: 제3 마이크
402: 제4 마이크
500: 모바일 디바이스
600: 외부 서버
100, 300, 400: smart hearing device
301: first microphone
302: second microphone
303, 403: on/off switch
304, 404: speaker
305, 405: charging module
401: third microphone
402: fourth microphone
500: mobile device
600: external server

Claims (16)

일측에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호의 소리 데이터를 수신하는 수신부;
상기 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 상기 소리 데이터에 대한 자연어 또는 비자연어를 판단하는 판단부;
자연어 영역 및 비자연어 영역을 포함하는 데이터베이스를 기반으로, 상기 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭하는 처리부; 및
상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공하는 제공부
를 포함하고,
상기 제1 마이크는
사용자의 입 부근에 위치하여 상기 사용자의 음성 신호를 수집하며,
상기 제2 마이크는
상기 사용자의 입을 기준으로 이격거리에 위치하여 소음 신호를 수집하고,
상기 제1 마이크와 다른 스마트 히어링 디바이스에서 상기 사용자의 음성 신호를 수집하는 제3 마이크는
서로 페어링되며, 어느 하나의 마이크에 적용된 설정에 따라 상기 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정되고,
상기 제2 마이크와 상기 다른 스마트 히어링 디바이스에서 소음 신호를 수집하는 제4 마이크는
서로 페어링되며, 상기 제2 마이크와 상기 제4 마이크 중 어느 하나의 마이크에 적용된 설정에 따라 상기 제2 마이크와 상기 제4 마이크 중 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정되는 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
A receiver configured to receive sound data of a voice signal and a noise signal from a first microphone and a second microphone formed at one side;
A determination unit for determining a natural or non-natural language for the sound data by comparing the digital flow of the sound data with a previously stored graph pattern;
A processing unit that matches similar data for the determined natural language or non-natural language based on a database including a natural language region and an unnatural language region; And
A providing unit that sets a control parameter in a specified natural language or non-natural language according to the matched similar data and provides the converted sound to the user
Including,
The first microphone
It is located near the user's mouth and collects the user's voice signal,
The second microphone
Located at a distance from the user's mouth to collect noise signals,
A third microphone for collecting the user's voice signal from a smart hearing device different from the first microphone
They are paired with each other, and the microphone paired with any one of the microphones is also automatically set according to the settings applied to any one of the microphones,
The second microphone and a fourth microphone collecting a noise signal from the other smart hearing device
The second microphone and the fourth microphone are paired with each other, and a microphone paired with any one of the second microphone and the fourth microphone is also automatically set according to a setting applied to one of the second microphone and the fourth microphone. Smart hearing device to distinguish.
제1항에 있어서,
상기 매칭된 유사 데이터에 따른 상기 특정된 자연어 또는 비자연어에 대한 응답으로 피드백을 제공하는 피드백 전달부
를 더 포함하는 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 1,
Feedback delivery unit for providing feedback in response to the specified natural language or non-natural language according to the matched similar data
Smart hearing device for distinguishing a natural language or non-natural language further comprising a.
제1항에 있어서,
상기 수신부는
서로 다른 위치에 형성된 상기 제1 마이크 및 상기 제2 마이크로부터 상기 음성 신호 및 상기 소음 신호를 감지하며, 상기 음성 신호 및 상기 소음 신호를 디지털로 전환하여 상기 소리 데이터로 수신하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 1,
The receiver
The voice signal and the noise signal are sensed from the first microphone and the second microphone formed at different positions, and the voice signal and the noise signal are converted to digital and received as the sound data. Smart hearing device to distinguish.
제3항에 있어서,
상기 판단부는
디지털로 전환된 상기 소리 데이터의 디지털 흐름과 기 저장된 시간에 대한 음량 그래프 및 주파수에 대한 음량 그래프의 그래프 패턴을 비교하며, 그래프의 값들에서 특정 패턴을 나타내는 자연어 또는 비자연어를 판단하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 3,
The determination unit
A natural language or visa that compares the digital flow of the digitally converted sound data with a graph pattern of a volume graph for a pre-stored time and a volume graph for a frequency, and determines a natural or non-natural language representing a specific pattern from the values of the graph Smart hearing device that distinguishes salmon.
제1항에 있어서,
상기 처리부는
상기 데이터베이스를 기반으로, 자연어로 판단된 상기 소리 데이터에 유사한 단어 및 문장의 유사 데이터를 매칭하거나, 비자연어로 판단된 상기 소리 데이터에 유사한 환경 소음, 노이즈(잡음) 및 새로운 소리의 유사 데이터를 매칭하는 것을 특징으로 하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 1,
The processing unit
Based on the database, similar data of similar words and sentences are matched with the sound data determined in natural language, or similar environmental noise, noise (noise) and similar data of new sound are matched with the sound data determined in non-natural language. A smart hearing device that distinguishes between natural or non-natural languages.
제5항에 있어서,
상기 제공부는
사용자의 청력 데이터와 상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 기초하여 환경 변화에 따른 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 상기 제어 파라미터를 설정하여 사용자 맞춤형으로 일측의 소리를 제공하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 5,
The provision unit
Based on the user's hearing data and the matched similar data, at least one of the amplification value change according to the environment change, volume control, and frequency control is set based on the specified natural language or non-natural language. A smart hearing device that provides sound and distinguishes between natural or unnatural language.
제6항에 있어서,
상기 제공부는
상기 제1 마이크 및 상기 제2 마이크로부터 수신되는 디지털 신호의 상기 소리 데이터에 상기 제어 파라미터를 설정하여 증폭값 변화, 볼륨 조절 및 주파수 조절 중 적어도 어느 하나 이상의 밸런스를 조절하고, 상기 조절된 신호에 대한 디지털 신호를 아날로그 신호로 변환하여 상기 사용자에게 일측의 소리를 제공하는 것을 특징으로 하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 6,
The provision unit
By setting the control parameter in the sound data of the digital signal received from the first microphone and the second microphone to adjust at least one or more of amplification value change, volume control, and frequency control, the adjusted signal is A smart hearing device for distinguishing natural or non-natural languages, characterized in that converting a digital signal into an analog signal and providing a sound of one side to the user.
제2항에 있어서,
상기 피드백 전달부는
상기 처리부를 통해 자연어 또는 비자연어로 판단된 상기 소리 데이터에 유사한 단어 및 문장의 상기 유사 데이터가 매칭되는 경우, 상기 유사 데이터에 대한 응답으로 단어 및 문장의 피드백을 제공하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 2,
The feedback transmission unit
When the similar data of similar words and sentences are matched with the sound data determined in natural or non-natural languages through the processing unit, the natural language or non-natural language is distinguished by providing feedback of words and sentences in response to the similar data. Smart hearing device.
제8항에 있어서,
상기 피드백 전달부는
인공지능(Artificial Intelligence; AI)에 기반하여 상기 소리 데이터에 대한 유사한 단어 및 문장의 상기 유사 데이터가 매칭되는 경우, 상기 사용자의 목소리로 인한 질문에 대한 응답으로 단어 및 문장의 피드백을 추출하여 음성 메시지로 전달하는 것을 특징으로 하는, 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스.
The method of claim 8,
The feedback transmission unit
When the similar data of similar words and sentences with the sound data are matched based on artificial intelligence (AI), feedback of words and sentences is extracted in response to a question from the user's voice, and a voice message A smart hearing device that distinguishes between natural or non-natural languages, characterized in that it is transmitted to.
일측에 형성된 제1 마이크 및 제2 마이크로부터 수신되는 음성 신호 및 소음 신호를 포함하는 제1 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 유사 데이터의 매칭으로 인한 제1 제어 파라미터를 설정하여 일측의 소리를 제공하는 제1 스마트 히어링 디바이스;
타측에 형성된 제3 마이크 및 제4 마이크로부터 수신되는 음성 신호 및 소음 신호를 포함하는 제2 소리 데이터에 대한 자연어 또는 비자연어를 판단하며, 판단된 자연어 또는 비자연어에 대한 상기 유사 데이터의 매칭으로 인한 제2 제어 파라미터를 설정하여 타측의 소리를 제공하는 제2 스마트 히어링 디바이스; 및
상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스를 제어하는 모바일 디바이스
를 포함하고,
상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은
사용자의 입 부근에 위치하는 상기 제1 마이크 및 상기 제3 마이크를 포함하고, 상기 사용자의 입을 기준으로 이격거리에 위치된 상기 제2 마이크 및 상기 제4 마이크를 포함하며,
상기 제1 마이크 및 상기 제3 마이크는
일측 및 타측에서 사용자의 음성 신호를 수집하고,
상기 제2 마이크 및 상기 제4 마이크는
일측의 소음 신호 및 타측의 소음 신호를 수집하며,
상기 제1 마이크와 상기 제3 마이크, 그리고 상기 제2 마이크와 상기 제4 마이크 각각은 서로 페어링되며, 어느 하나의 마이크에 적용된 설정에 따라 상기 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정되는 인공지능 히어링 시스템.
A natural language or non-natural language is determined for the first sound data including a voice signal and a noise signal received from the first microphone and the second microphone formed on one side, and a reduction due to matching of similar data to the determined natural language or non-natural language 1 A first smart hearing device that sets a control parameter to provide a sound of one side;
A natural language or non-natural language is determined for the second sound data including a voice signal and a noise signal received from the third microphone and the fourth microphone formed on the other side, and the similar data is matched with the determined natural language or non-natural language. A second smart hearing device configured to set a second control parameter to provide sound from the other side; And
A mobile device that controls the first smart hearing device and the second smart hearing device
Including,
Each of the first smart hearing device and the second smart hearing device
The first microphone and the third microphone positioned near the user's mouth, and the second microphone and the fourth microphone positioned at a distance from the user's mouth,
The first microphone and the third microphone
One side and the other side collect the user's voice signal,
The second microphone and the fourth microphone
Collecting the noise signal of one side and the noise signal of the other side,
The first microphone and the third microphone, and each of the second microphone and the fourth microphone are paired with each other, and the microphone paired with the one microphone is also automatically set according to the setting applied to the one microphone. Hearing system.
삭제delete 제10항에 있어서,
상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은
사용자에게 맞춤형 일측의 소리 및 타측의 소리를 각기 제공하여 좌측 및 우측의 소리 방향성에 따른 환경 변화와 소음 변화를 입체적으로 인지하도록 제공하는, 인공지능 히어링 시스템.
The method of claim 10,
Each of the first smart hearing device and the second smart hearing device
An artificial intelligence hearing system that provides a customized sound of one side and the sound of the other side to the user to perceive environmental changes and noise changes according to the sound direction of the left and right sides in three dimensions.
제10항에 있어서,
상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각은
사용자의 좌측 청력 데이터 및 우측 청력 데이터에 기반하여, 서로 다른 파라미터 값의 상기 제1 제어 파라미터 및 상기 제2 제어 파라미터를 설정하는 것을 특징으로 하는, 인공지능 히어링 시스템.
The method of claim 10,
Each of the first smart hearing device and the second smart hearing device
The artificial intelligence hearing system, characterized in that the first control parameter and the second control parameter of different parameter values are set based on the user's left hearing data and right hearing data.
제10항에 있어서,
상기 모바일 디바이스는
사용자의 선택 입력에 따라 상기 제1 스마트 히어링 디바이스 및 상기 제2 스마트 히어링 디바이스 각각의 전원 온(On)/오프(Off), 신호 수집 및 제어 파라미터 설정 중 어느 하나 이상을 제어하는, 인공지능 히어링 시스템.
The method of claim 10,
The mobile device is
An artificial intelligence hearing system that controls any one or more of power on/off, signal collection and control parameter setting of each of the first smart hearing device and the second smart hearing device according to a user's selection input .
자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스의 동작 방법에 있어서,
일측에 형성된 제1 마이크 및 제2 마이크로부터 음성 신호 및 소음 신호의 소리 데이터를 수신하는 단계;
상기 소리 데이터의 디지털 흐름과 기 저장된 그래프 패턴을 비교하여 상기 소리 데이터에 대한 자연어 또는 비자연어를 판단하는 단계;
자연어 영역 및 비자연어 영역을 포함하는 데이터베이스를 기반으로, 상기 판단된 자연어 또는 비자연어에 대한 유사 데이터를 매칭하는 단계; 및
상기 매칭된 유사 데이터에 따라 특정된 자연어 또는 비자연어에 제어 파라미터를 설정하여 변환되는 일측의 소리를 사용자에게 제공하는 단계
를 포함하고,
상기 제1 마이크는
상기 사용자의 입 부근에 위치하여 상기 사용자의 음성 신호를 수집하며,
상기 제2 마이크는
상기 사용자의 입을 기준으로 이격거리에 위치하여 소음 신호를 수집하고,
상기 제1 마이크와 다른 스마트 히어링 디바이스에서 상기 사용자의 음성 신호를 수집하는 제3 마이크는
서로 페어링되며, 어느 하나의 마이크에 적용된 설정에 따라 상기 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정되고,
상기 제2 마이크와 상기 다른 스마트 히어링 디바이스에서 소음 신호를 수집하는 제4 마이크는
서로 페어링되며, 상기 제2 마이크와 상기 제4 마이크 중 어느 하나의 마이크에 적용된 설정에 따라 상기 제2 마이크와 상기 제4 마이크 중 어느 하나의 마이크와 페어링된 마이크 또한 자동 설정되는 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스의 동작 방법.
In the operating method of a smart hearing device for distinguishing natural or non-natural languages,
Receiving sound data of a voice signal and a noise signal from a first microphone and a second microphone formed at one side;
Comparing the digital flow of the sound data with a previously stored graph pattern to determine a natural language or an unnatural language for the sound data;
Matching similar data for the determined natural language or non-natural language based on a database including a natural language region and an unnatural language region; And
Setting a control parameter in a specified natural or non-natural language according to the matched similar data to provide a converted sound to a user
Including,
The first microphone
Located near the user's mouth to collect the user's voice signal,
The second microphone
Located at a distance from the user's mouth to collect noise signals,
A third microphone for collecting the user's voice signal from a smart hearing device different from the first microphone
They are paired with each other, and the microphone paired with any one of the microphones is also automatically set according to the settings applied to any one of the microphones,
The second microphone and a fourth microphone collecting a noise signal from the other smart hearing device
The second microphone and the fourth microphone are paired with each other, and a microphone paired with any one of the second microphone and the fourth microphone is also automatically set according to a setting applied to one of the second microphone and the fourth microphone. How to distinguish smart hearing devices.
제15항에 있어서,
상기 매칭된 유사 데이터에 따른 상기 특정된 자연어 또는 비자연어에 대한 응답으로 피드백을 제공하는 단계
를 더 포함하는 자연어 또는 비자연어를 구분하는 스마트 히어링 디바이스의 동작 방법.
The method of claim 15,
Providing feedback in response to the specified natural language or non-natural language according to the matched similar data
A method of operating a smart hearing device for distinguishing natural or non-natural languages further comprising a.
KR1020190041525A 2019-04-09 2019-04-09 Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system KR102156570B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190041525A KR102156570B1 (en) 2019-04-09 2019-04-09 Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190041525A KR102156570B1 (en) 2019-04-09 2019-04-09 Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system

Publications (1)

Publication Number Publication Date
KR102156570B1 true KR102156570B1 (en) 2020-09-16

Family

ID=72669651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190041525A KR102156570B1 (en) 2019-04-09 2019-04-09 Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system

Country Status (1)

Country Link
KR (1) KR102156570B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220322015A1 (en) * 2020-09-09 2022-10-06 Olive Union, Inc. Smart hearing device for distinguishing natural language or non-natural language, artificial intelligence hearing system, and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007507119A (en) * 2003-06-24 2007-03-22 ジーエヌ リザウンド エー/エス Binaural hearing aid system with matched acoustic processing
KR101773046B1 (en) * 2016-04-05 2017-08-30 김재환 Sound device and method for controlling the same
KR20180118914A (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 An audio device and method for controlling the same
KR101903374B1 (en) * 2017-09-01 2018-11-22 올리브유니온(주) Adaptive smart hearing device and system according to environmental changes and noise, and the method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007507119A (en) * 2003-06-24 2007-03-22 ジーエヌ リザウンド エー/エス Binaural hearing aid system with matched acoustic processing
KR101773046B1 (en) * 2016-04-05 2017-08-30 김재환 Sound device and method for controlling the same
KR20180118914A (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 An audio device and method for controlling the same
KR101903374B1 (en) * 2017-09-01 2018-11-22 올리브유니온(주) Adaptive smart hearing device and system according to environmental changes and noise, and the method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220322015A1 (en) * 2020-09-09 2022-10-06 Olive Union, Inc. Smart hearing device for distinguishing natural language or non-natural language, artificial intelligence hearing system, and method thereof
US11736871B2 (en) * 2020-09-09 2023-08-22 Olive Union, Inc. Smart hearing device for distinguishing natural language or non-natural language, artificial intelligence hearing system, and method thereof

Similar Documents

Publication Publication Date Title
US11705878B2 (en) Intelligent audio output devices
US10674289B2 (en) Hearing aid having an adaptive classifier
US10390152B2 (en) Hearing aid having a classifier
KR102151433B1 (en) Adaptive solid hearing system according to environmental changes and noise changes, and the method thereof
KR101903374B1 (en) Adaptive smart hearing device and system according to environmental changes and noise, and the method thereof
DK2603018T3 (en) Hearing aid with speech activity recognition and method for operating a hearing aid
AU2013398554A1 (en) Hearing aid having a classifier
US10129662B2 (en) Hearing aid having a classifier for classifying auditory environments and sharing settings
KR102156570B1 (en) Smart hearing device for distinguishing non-natural language or natural language and the method thereof, and artificial intelligence hearing system
JP6290827B2 (en) Method for processing an audio signal and a hearing aid system
US11736871B2 (en) Smart hearing device for distinguishing natural language or non-natural language, artificial intelligence hearing system, and method thereof
US10506327B2 (en) Ambient environmental sound field manipulation based on user defined voice and audio recognition pattern analysis system and method
EP4340395A1 (en) A hearing aid comprising a voice control interface
CN117059115A (en) Voice enhancement method, device, system, storage medium and hearing aid earphone
KR20200036083A (en) Voice amplfying system through neural network

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant