KR20190136731A - The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors - Google Patents

The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors Download PDF

Info

Publication number
KR20190136731A
KR20190136731A KR1020180062809A KR20180062809A KR20190136731A KR 20190136731 A KR20190136731 A KR 20190136731A KR 1020180062809 A KR1020180062809 A KR 1020180062809A KR 20180062809 A KR20180062809 A KR 20180062809A KR 20190136731 A KR20190136731 A KR 20190136731A
Authority
KR
South Korea
Prior art keywords
unit
sensor
data
articulation
speaker
Prior art date
Application number
KR1020180062809A
Other languages
Korean (ko)
Other versions
KR102071421B1 (en
Inventor
이우기
권헌도
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020180062809A priority Critical patent/KR102071421B1/en
Publication of KR20190136731A publication Critical patent/KR20190136731A/en
Application granted granted Critical
Publication of KR102071421B1 publication Critical patent/KR102071421B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • A61N1/0541Cochlear electrodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36036Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
    • A61N1/36038Cochlear stimulation

Abstract

The present invention relates to an apparatus and a system, which recognize physical characteristics of articulators of a head and neck part of a speaker in accordance with a utterance intention of the speaker through a sensor of the head and neck part including an oral tongue sensor, and forms the same in a signal to efficiently transmit the same to a speaker or listener who has a limit for hearing sound due to environmental or physical obstacle factors. The system of the present invention comprises: a sensor unit (100) adjacent to one surface of a head and neck part of a speaker (10) and measuring physical characteristics of articulators; a data analysis unit (200) for recognizing one or more utterance features (220) of the speaker on the basis of a position (210) of the sensor unit and the measured physical characteristics of the articulators; a data conversion unit (300) for converting the position (210) of at least one sensor unit and the utterance features (220) into voice data (310); and a data expression unit (500) for expressing the voice data (310) to the outside in at least one form of a sound wave (510), a vibration wave (520), and a hearing-electrical stimulation (530). The data expression unit (500) includes an electric sound device (1000) for providing the voice data (310) for one or more of a speaker and a listener.

Description

청음 향상을 위한 두경부 물리 특성 기반 복합시스템 {The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors } The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors}

본 발명은 센서를 통해 구강설을 포함한 두경부의 조음기관의 물리 특성을 인지하고, 이를 통해 발화 의도를 파악하여, 이를 신호화하여 환경적 내지 신체적 장애 요인으로 인해 청음에 제한이 있는 화자 내지 청자에게 효율적으로 전달하는 장치 및 시스템에 관한 것이다.The present invention recognizes the physical characteristics of the articulatory organs of the head and neck, including the oral cavity through the sensor, grasps the intention of ignition through this, and signals the signal to speakers or listeners who are limited in hearing due to environmental or physical obstacles. An apparatus and system for efficiently delivering the present invention.

조음기관에서 생성되는 음성은 언어학적 정보전달인 의사소통을 위한 경우에는 발화 혹은 언어음으로 불리며 비언어학적인 경우에는 발성으로 불린다. 음성의 생성에 관여하는 인체의 주요한 구조물을 신경계통과 호흡기계통이다.Voices produced by articulation organs are called speech or linguistic sounds for the communication of linguistic information, and speech in non-verbal cases. The major structures of the human body that are involved in the production of voice are the nervous system and respiratory system.

신경계통은 중추신경계와 말초신경계가 관여하는데 중추신경 중 뇌간에는 언어의 생성에 필요한 두개골 혹은 뇌신경 세포핵이 위치하며 소뇌는 동작에 대한 근육의 제어를 정밀하게 조율하는 기능이 있으며, 대뇌의 반구는 언어기능에 지배적인 역할을 한다. 언어음 생성을 위해 관여하는 두개골 신경에는 턱의 움직임을 관여하는 제 5 뇌신경, 입술운동에 관여하는 제 7 뇌신경, 인두 및 후두의 운동에 관여하는 제 10 뇌신경, 인두의 운동에 관여하는 제 11 뇌신경, 그리고 혀의 운동에 관여하는 제 12 신경 등이 있다. 말초신경 중에는 특히 미주신경에서 분지되는 상후두신경과 반회후두신경이 후두운동에 직접 관여하게 된다.The nervous system is involved in the central nervous system and the peripheral nervous system. In the central nervous system, the cranial or cranial cell nuclei are located in the brain stem, and the cerebellum has the function of precisely controlling the muscle control for movement. Play a dominant role in function The cranial nerve involved in speech production includes the fifth cranial nerve involved in jaw movement, the seventh cranial nerve involved in lip movement, the tenth cranial nerve involved in pharynx and larynx, and the eleventh cranial nerve involved in pharyngeal movement. And the 12th nerve involved in the movement of the tongue. Among the peripheral nerves, especially the laryngeal nerves and the recurrent laryngeal nerves branched from the vagus nerve are directly involved in larynx movement.

또한 언어음은 하부 호흡기계, 후두와 성도가 상호 밀접하게 작용하여 생성된다. 성대는 음성의 근원으로, 폐로부터 송출되는 호기의 흐름이 성대를 진동시키고 발성 시 호기조절은 소리 에너지를 적절히 능률적으로 공급한다. Speech is also produced by the lower respiratory tract, the larynx, and the vocal tract. The vocal cords are the source of voice, and the flow of exhalation from the lungs causes the vocal cords to vibrate and exhalation control provides efficient sound energy.

성대가 적당히 긴장하여 폐쇄되면 호기(호흡기류)에 의해 성대가 진동하고 성문을 일정한 주기로 개폐시켜 성문을 통과하는 호흡기류를 단속하는데 이 호흡기류의 단속으로 인해 음성이 형성된다.When the vocal cords are properly tensioned and closed, the vocal cords vibrate by exhalation (breathing airflow) and the gates are opened and closed at regular intervals to control the respiratory air passage through the gates.

사람이 의사소통을 목적으로 말을 사용하기 위해서는 여러 가지 생리적인 과정을 거쳐야 한다. 조음과정은 발성된 소리가 공명과정을 거쳐 증폭 및 보완된 후, 말소리의 단위인 음소를 형성해 가는 과정을 의미한다. 조음기관으로는 혀가 가장 중요하게 생각되지만, 실제로 음소를 만드는 데는 혀뿐 아니라 구강 및 안면의 여러 가지 구조들이 관여한다. 이러한 조음기관에는 혀, 입술, 여린입천장(연구개, soft palate), 턱 등과 같이 움직일 수 있는 구조와 치아나 굳은입천장(경구개, hard palate)과 같이 움직일 수 없는 구조들이 포함된다. 이러한 조음기관들이 공기의 흐름을 막거나 제약하여 자음과 모음을 형성하게 되는 것이다.In order for a person to use a horse for communication, it must go through several physiological processes. The articulation process refers to a process of forming phonemes, which are units of speech sounds, after the sound is amplified and supplemented through the resonance process. The tongue is considered to be the most important articulator, but actually the phoneme involves not only the tongue but also various structures of the mouth and face. These articulators include movable structures such as the tongue, lips, soft palate, jaws, and immovable structures such as teeth or hard palates. These articulators block or restrict the flow of air to form consonants and vowels.

첫 번째 조음기관으로 혀는 그 부위들이 뚜렷한 경계선을 나타내지 않기 때문에 구별하는 것이 쉽지는 않으나 기능적인 측면에서 혀의 외부구조를 구별하는 것은 정상적인 조음뿐 아니라 병리적인 조음을 이해하는데 도움이 된다. 혀는 앞에서부터 혀끝(apex, tip), 혀날(blade), 혀등(dorsum), 혀몸통(body), 그리고 혀뿌리(root)로 나눌 수 있다. 혀끝을 우리가 혀를 뾰족하게 내밀거나 음절의 첫소리로 오는 /ㄹ/(예: “라라라”)를 조음할 때 사용되는 부위이고, 혀날은 잇몸소리(치조음 alveolar sounds)와 같은 입의 앞쪽에서 만드는 음소들을 조음할 때 주로 사용되며, 혀등은 여린입천장소리(연구개음 velar sounds)와 같은 뒷소리 음소들을 조음할 때 주로 사용되는 혀의 부분이다. It is not easy to distinguish the tongue as the first articulator because its parts do not show distinct boundaries, but in terms of function, it is helpful to understand pathological articulation as well as normal articulation. The tongue can be divided from the front into the apex (tip), the blade (blade), the dorsum, the body of the tongue, and the root of the tongue (root). The tip of the tongue is the part that is used when we point out the tongue or articulate / d / (such as “La La La”), which is the first sound of the syllable, and the tongue is made from the front of the mouth, such as the alveolar sounds. It is mainly used to articulate phonemes, and the tongue is the part of the tongue that is commonly used to articulate back sounds such as velar sounds.

두 번째로 조음기관으로 입술은 입의 입구를 이루는 부분으로 두경부 표정이나 조음에 중요한 기능을 한다. 특히 여러 가지 모음들은 혀의 움직임뿐만 아니라 입술의 모양에 의하여 음소가 구별되며, 두입술자음(양순자음 bilabial sound)들은 입술이 닫혀져야만 발음될 수 있다. 입술의 모양은 주변의 근육들에 의하여 변형된다. 예를 들어, 입술 주변을 둘러싸고 있는 입둘레근(구륜근 orbicularis oris muscle)은 입술을 다물거나 오므라들게 하여 두입술자음이나 /우/와 같은 원순모음들 발음하는 데 중요한 역할을 하며, 윗입술올림근(quadratus labii superior muscle)과 아랫입술내림근(quadrates labii inferior muscle)은 입술을 열게 한다. 또한, 입꼬리당김근(소근 risorius muscle)은 입술의 모서리를 잡아당겨 미소를 짓거나 입술을 수축시켜서 발음해야 하는 /이/와 같은 소리를 낼 때 중요한 역할을 한다.) Secondly, as an articulator, the lips form the mouth of the mouth, which plays an important role in the expression of the head and neck. In particular, the vowels are distinguished by phonemes as well as the movement of the tongue. The bilabial sounds can be pronounced only when the lips are closed. The shape of the lips is modified by the surrounding muscles. For example, the circumference of the mouth around the lips (orbicularis oris muscle) plays an important role in pronounced lip vowels such as head lip consonants and / right / by closing or pinching the lips. Quadratus labii superior muscle and quadrates labii inferior muscle open the lips. In addition, the risorius muscle plays an important role in pulling the corners of the lips and smiling or contracting the lips to make sounds like /.

세 번째 조음기관은 턱과 치아로 턱은 움직이지 않는 위턱(상악 maxilla)과 상하 및 좌우 운동을 하는 아래턱(하악 mandible)으로 구분된다. 이들 턱은 얼굴 뼈 중에서 가장 튼튼하고 큰 뼈로서 4쌍의 근육들에 의해서 움직인다. 아래턱의 움직임은 입안의 크기를 변화시키기 때문에 씹기뿐 아니라 모음산출에 있어서도 중요하다. The third articulator is divided into the jaw and teeth, the jaw does not move (upper maxilla) and the lower jaw (mandible) that moves up and down and left and right. These jaws are the strongest and largest of the facial bones and are driven by four pairs of muscles. The movement of the lower jaw changes the size of the mouth, which is important not only for chewing but also for vowel production.

네 번째 조음기관은 잇몸 및 굳은입천장으로 잇몸은 /ㄷ/나 /ㅅ/계열의 말소리들이 조음되는 부위이며 굳은 입천장은 잇몸 뒤의 단단하고 다소 편편한 부분으로 /ㅈ/계열의 소리들이 조음되는 부위이다. The fourth articulator is the gum and hard palate, the gum is the area where the / c / or / ㅅ / speech sounds are articulated, and the hard palate is the hard and rather flat area behind the gum, where the sound of the / // series is articulated. .

마지막 조음기관은 여린입천장으로 움직이는 조음기관으로 분류되는데, 이는 여린입천장의 근육들이 수축함으로써 연인두폐쇄를 이루고 그에 따라 입소리들(oral sounds)을 조음하기 때문이다. The last articulator is classified as an articulator that moves to the Yeongrin Palate, because the muscles of the Yeongrin Palate contract and form a closed lover's head and thus oral sounds.

<조음과정>Articulation

소리들 중에는 성대를 거친 호흡기류가 성도를 통과하는 과정에서 구강에서, 더 정확히 말하며 구강 통로의 중앙부에서 어떠한 방해(장애)를 받으면서 생성되는 것과, 이와는 달리 아무런 방해를 받지 않고 생성되는 것이 있다. 보통 전자를 자음(consonant) 후자를 모음(vowel)이라고 한다. Some of the sounds are generated by the vocal cords through the vocal tract in the oral cavity, more accurately speaking, with some obstruction in the central part of the oral passage, or otherwise without any interruption. The former is usually called the consonant vowel.

1) 자음의 조음1) consonant articulation

자음은 발성되는 방법과 위치에 따라 살펴보아야 하는데 국제음성기호표상에서 각 칸은 조음위치를, 각 줄은 조음방법을 각각 나타내고 있다. 우선 조음방법에 따라 분류해 본다면, 호흡기류가 중앙부에서 어떤 종류의 방해를 받아서 조음되는가에 따라서 다막음 소리와 덜막음 소리로 크게 나누어 볼 수 있다. Consonants should be examined according to how and where they are spoken. Each column represents the articulation position and each line represents the articulation method. First, if the classification according to the articulation method, depending on what kind of disturbed respiratory airflow in the central part can be divided into the sound of clogging and mute sound.

다막음 소리는 구강에서 기류를 완전히 막았다가 터트리면서 내는 소리이고, 덜막음 소리는 성도의 한 부분을 좁혀서 그 좁아진 통로로 기류를 통과시켜 내는 소리이다. Clogging sound is the sound that completely blocks and blows the airflow in the oral cavity. Clogging sound is the sound of narrowing a part of the saint and passing the airflow through the narrow passage.

다막음 소리는 다시 비강의 공명을 동반하고 나는 소리와 동반하지 않고 나는 소리로 나눌 수 있다. 성도의 일부를 완전히 막음과 동시에 연구개를 내려 비강 통로를 열고 비강의 공명을 동반하면서 내는 비강 다막음 소리(비강 폐쇄음, nasal stop)들이 전자에 속하며, 연구개를 올려 인두벽에 대고 비강 통로를 차단하여, 기류가 비강으로 통하는 것을 막은 상태로 내는 구강 다막음 소리(구강 폐쇄음, oral stop)들이 후자에 속한다. 구강 다막음 소리는 폐쇄의 길이와 방법에 따라서 폐쇄음(막음소리, stop) 혹은 파열음(터짐소리, plosive), 전동음(떨소리, trill), 탄설음(혹을 설탄음, flap/tap)으로 생각해 볼 수 있다. 그리고 덜막음 소리는 마찰음(갈이소리, fricative)과 접근음(approximant)으로 나누는데, 기류의 통로가 혀의 측면에 만들어지는 경우 이를 통틀어 설측음(lateral)이라고 한다. The sound of clogging can again be divided into nasal resonances and non-acoustic sounds. At the same time, the nasal stops (nasal stops), which are accompanied by the nasal passages and the nasal passages, are included in the former, and the nasal stops are raised against the pharyngeal wall. The latter are the oral blockage sounds (oral stops) that block and prevent airflow from reaching the nasal passages. Depending on the length and method of occlusion, oral clog sounds are considered to be closed (stop) or ruptured (plosive), electric (trill), and snowballs (or flap / tap). can see. The mute sound is divided into a fricative (approach) and an approach sound (approximant). When a passage of air flow is formed on the side of the tongue, it is called lateral sound.

또한 다막음과 덜막음의 조음방법을 복합적으로 사용하는 파찰음(터짐갈이, affricate)이 있으며, 마지막으로 알파벳으로는 /r/ 이나 /l/로 표현되나 국어의 경우 /ㄹ/로 표현되는 유음(liquid)과 국어에는 없지만 조음기관을 진동시켜서 소리를 말하는 전동음이 있다. In addition, there is a wave sound (affricate) that uses a combination of multi-block and unblocked articulation methods. Finally, it is expressed as / r / or / l / in the alphabet, but it is expressed as / ㄹ / in Korean. (liquid) and not in Korean, but there is an electric tone that vibrates the articulation organs.

조음위치에 따라 분류해보면, 양순음(bilabial)이란, 두 입술이 그 조음에 관계하는 소리를 지칭하는 것으로, 한국어의 /ㅂ ,ㅃ ,ㅍ, ㅁ/등이 이에 속한다. 현대 한국어(표준어)에 존재하는 양순음들은 모두 두 입술을 막아서 내는 소리들이지만, 두 입술의 간격을 좁혀서 그 사이로 기류를 마찰시켜 낼 수도 있으며(양순 마찰음) 두 입술을 떨어서 낼 수도 있다(양순 전동음). 순치음(labiodentals)이란 아랫입술과 윗니가 조음에 관계하는 소리를 지칭하는 것으로 한국어에는 존재하지 않는다. 한국어에는 순치음이 없지만, 영어에 있는[f, v]가 바로 이 순치음(순치 마찰음)에 속한다. 치음(dental)은 기류의 협착이나 폐쇄가 윗니의 뒷부분에서 일어나는 소리를 말하는데 이 사이에서 마찰이 이루어지기도 해서 치간음(interdental)이라고도 한다. 치경음(alveolar)은 윗잇몸 부근에서 기류의 협착이나 폐쇄가 일어나면서 나는 소리로 한국어의 /ㄷ, ㄸ, ㅌ, ㄴ, ㅆ, ㅅ/등이 이에 속한다. 한국어의 /ㅅ,ㅆ/는 치경 부분에서 기류의 협착이 이루어져 나는 소리로 영어의 /s, z/와 기류의 협착이 이루어지는 장소가 거의 비슷하다. Categorized according to the articulation position, the bilabial refers to the sound associated with the articulation of two lips, and the Korean / ㅂ, ㅃ, ㅍ, ㅁ / etc. belong to this. The Yangpyeon in modern Korean (standard) is a sound that blocks both lips, but it can also narrow the gap between the two lips, rubbing the airflow between them (sheep friction), and dropping both lips (sheep rolling) . Labiodentals refer to sounds related to articulation of the lower lip and upper teeth, and do not exist in Korean. There is no pure sound in Korean, but [f, v] in English belongs to this pure sound. Dental is the sound that occurs when the airflow narrows or closes at the back of the upper teeth, and is sometimes called interdental because of friction between them. Alveolar is a sound produced by the constriction or closure of air currents near the upper gums, and it belongs to the Korean ㄷ, ㄸ, ㅌ, ,, ㅆ, //. In Korean, / ㅆ, ㅆ / is the sound of air constriction in the alveolar region, and the location of constriction of / s and z / in English is almost similar.

경구개치경음(palatoalveolar)은 후치경음(postalveolar)이라고도 불리는데, 혀끝이나 혓날이 후치경부에 닿아서 나는 소리로 국어에는 존재하지 않지만, 영어나 불어에는 존재한다. 치경경구개음(alveolopalatal)은 전경구개음(prepalatal)이라고도 불리는데, 이 소리가 경구개의 앞쪽 즉 치경과 가까운 쪽에서 조음되기 때문이다. Palatoalveolar, also known as postalveolar, is the sound of the tip of the tongue or forearm touching the posterior neck, not in Korean, but in English or French. Alveolopalatal is also called prepalatal because it is articulated in front of the palatal or near the alveolar.

국어의 세 파찰음 /ㅈ, ㅊ, ㅉ/가 이에 속한다. 권설음(retroflex)은 혀끝이나 혀의 위 표면이 입천장에 닿거나 접근하여서 조음되는 여타의 설음들과는 달리 혀의 아래 표면이 입천장에 닿거나 접근하여서 조음된다는 점에서 뚜렷한 차이가 있다. 경구개음(palatal)은 혓몸이 경구개부에 닿거나 접근하여 조음되는 소리를 말한다. 연구개음(velar)은 혓몸이 연구개부에 닿거나 접근하여 조음되는 소리를 말한다. 국어의 폐쇄음/ㄱ, ㅋ, ㄲ/와 비음 /ㅇ/이 이에 속한다. 구개수음(uvular)은 혓몸이 연구개의 끝부분인 구개수에 닿거나 접근하여 조음되는 소리를 말한다. 인두음(pharyngeal)은 그 조음이 인두강에서 이루어지는 음을 지칭한다. 마지막으로 성문음(glottal)은 성대가 조음기관으로 사용되어 조음되는 소리를 지칭하며 우리말에는 음소로서 성문 무성 마찰음 /ㅎ/만이 존재한다.The three patters of the Korean language, / ㅈ, ㅊ and ㅉ /, belong to this. Retroflex differs from other tongues where the tip of the tongue or the upper surface of the tongue is articulated by touching or approaching the palate, and the lower surface of the tongue is articulated by touching or approaching the palate. A palatal sound refers to the sound that the body touches or approaches an oral palatal articulation. Velar is the sound that the body touches or approaches by the corpus. Korean closed sound / ㄱ, ㅋ, ㄲ / and nasal / ㅇ / belong to this. The palatal masturbation (uvular) refers to the sound articulated by the ear reaching or approaching the palate, the tip of the study palate. Pharyngeal refers to the sound that the articulation is made in the pharyngeal cavity. Lastly, the glottal refers to the sound that the vocal cords are used as an articulation organ, and there is only a voiceless vocal friction / ㅎ / as a phoneme in Korean.

2) 모음의 조음: 모음의 조음은 혀의 고저와 전후 위치, 그리고 입술의 모양 등 세가지가 가장 중요한 변수로 작용한다. 첫 번째 변수로, 혀의 고저에 의하여 모음의 개구도, 즉 입을 벌린 정도가 결정되는데, 입을 적게 벌리고 내는 소리를 폐모음(close vowel), 혹은 고모음(high vowel)이라고 하며, 입을 크게 버리고 내는 소리를 개모음(open vowel), 혹은 저모음(low vowel)이라고 한다. 그리고 고모음과 저모음의 사이에서 나는 소리를 중모음(mid vewel)이라고 하는데, 이중모음은 다시 입을 벌린 정도가 더 작은 중고모음(close-mid vowel), 혹은 반폐모음(half-close vewel)과 입을 벌린 정도가 더 큰 중저모음(open-mid vewel), 혹은 반개모음(half-open vewel)으로 세분할 수 있다. 두 번째 변수인 혀의 전후 위치란 사실 혀의 어느 부분이 가장 좁혀졌는가, 다시 말해서 혀의 어느 부분이 입천장과 가장 가까운가를 기준으로 앞뒤를 따지는 것이다. 2) Vowel Articulation: Vowel articulation is the three most important variables of the tongue height, front and back position, and the shape of the lips. In the first variable, the opening of the vowel, or the degree of opening of the vowel, is determined by the height of the tongue.The sound of opening the mouth less is called a close vowel, or a high vowel, and the sound of throwing away the mouth greatly. Is called open vowel, or low vowel. The sound between the high and low vowels is called the mid vowel, which is the close-mid vowel, or half-close vewel, with the mouth open again. It can be subdivided into larger open-mid vewels or half-open vewels. The second variable, the front and rear position of the tongue, is in fact determined based on which part of the tongue is the narrowest, that is, which part of the tongue is closest to the palate.

그 좁아진 부분이 혀의 앞쪽에 있는 모음을 전설모음(front vowel), 뒤쪽에 있는 모음을 후설모음(back vowel)이라고 하며, 그 중간쯤에 있는 모음을 중설모음(central vowel)이라고 한다. 마지막으로 모음의 조음에서 중요한 변수가 되는 것은 입술의 모양이다. 조음 시 입술이 동그랗게 모아져 앞으로 튀어나오는 모음을 원순모음(rounded vowel)이라고 하고, 그렇지 않은 모음을 평순모음(unrounded vowel)이라고 한다.The narrow part of the tongue is called the front vowel, the back vowel is called the back vowel, and the middle vowel is called the central vowel. Finally, the most important variable in vowel articulation is the shape of the lips. When the articulation is rounded vowels are rounded vowels, rounded vowels are called rounded vowels.

발화 장애란 음도, 강도, 음질, 유동성이 성별, 연령, 체구, 사회적 환경, 지리적 위치에 적합하지 않은 것을 말한다. 이는 선천적으로 혹은 후천적으로 유발될 수 있으며, 수술을 통해 후두의 일부분인 성대를 늘이거나 줄여서 어느 정도 치료하는 것이 가능하다. 하지만 완벽한 치료는 되지 않으며, 그 효과 또한 정확하다고 할 수 없다. Speech disorders mean that voice, intensity, sound quality, and fluidity are not appropriate for gender, age, size, social environment, or geographic location. This can be caused either innately or acquiredly and can be treated to some extent by increasing or decreasing the vocal cords that are part of the larynx through surgery. However, the treatment is not perfect, and the effect is not accurate.

후두의 기능으로는 삼킴, 기침, 폐색, 호흡, 발성 등이 있으며, 후두의 기능을 파악하는 방법으로서는 발화 내역 검사, 발화패턴, 음향학적 검사, 공기역학적 검사 등이 있다.The functions of the larynx include swallowing, coughing, obstruction, breathing, and vocalization. The methods for determining the function of the larynx include a history test, a speech pattern, an acoustic test, and an aerodynamic test.

이러한 후두 기능 파악방법을 통해 발화 장애의 여부를 어느 정도 판단할 수 있다. This method of grasping the larynx can be used to determine the degree of speech disorder.

발화장애의 유형도 다양하며 크게 기능적 발화장애와 기질적 발화장애로 나뉘게 된다. 이러한 유형의 대부분은 후두의 일부분인 성대에 이상이 생기는 경우가 많으며, 이러한 성대가 외부의 환경적 요인으로 인해 부어오름, 찢어짐, 이상 물질의 발생 등에 의해 장애가 오는 경우가 많다.Different types of speech disorders are classified into functional speech disorders and organic speech disorders. Most of these types have abnormalities in the vocal cords, which are part of the larynx, and these vocal cords are often disturbed due to swelling, tearing, and abnormal substances caused by external environmental factors.

그리고, 이러한 성대의 기능을 대신하기 위해 인위적으로 진동을 발생시킬 수 있는 진동발생기를 이용할 수 있다. In addition, in order to replace the function of the vocal cords, a vibration generator capable of artificially generating vibrations may be used.

진동발생기의 한 방식으로는 스피커방식이 있는데, 자석과 코일로 이루어져 있으며, 코일에 전류가 흐르는 방향을 달리하여 자력의 극성을 반대로 형성함으로써 인력과 척력이 교대로 발생토록 하여 공기의 진동을 유발한다.One method of the vibration generator is a speaker method, which is composed of a magnet and a coil, and the magnetic force and repulsive force are alternately generated by causing the magnetic force and repulsive force to be reversed by changing the direction in which the current flows in the coil. .

다른 방식으로 압전 현상을 이용한 방식이 있는데 압전 결정 유닛이 저주파 신호 전압을 받아서 일그러짐을 발생하고, 그에 의해서 진동판이 진동하여 음향을 발행하도록 만들 수 있다. 따라서 이러한 원리들을 이용한 진동발생기를 이용하여 성대의 기능을 수행하도록 할 수 있다. Another method using the piezoelectric phenomenon is that the piezoelectric crystal unit receives a low frequency signal voltage and causes distortion, thereby causing the diaphragm to vibrate to generate sound. Therefore, the vibration generator using these principles can be performed to perform the function of the vocal cords.

하지만 이러한 방법의 경우 외부의 위치하여 단순히 성대를 진동시켜 주는 기능에 불과하기 때문에 나타나는 음이 매우 부정확할 뿐 아니라 화자의 말하기 의도를 파악하는 것이 쉽지 않다. 또한 진동발생기를 가지고 성대에 위치하여 항상 소지해야 되며 말할 때는 한 손을 이용하기 때문에 일상생활에 어려움을 준다. 전술한 발화 장애와 이러한 발화 이상에 대해서는 후두나 성대의 일부를 수술하는 등의 치료적 방법을 모색할 수 있으나, 이러한 수술 방법이나 치료가 불가능한 경우가 있어서 완전한 해결책이 되지 못하고 있다.However, in this case, the sound that appears outside is simply a function of vibrating the vocal cords, and it is not easy to identify the speaker's intention. In addition, the vibration generator should be located at the vocal cords and always have one hand. The above-mentioned utterance disorder and the above-described utterance abnormalities can be sought for therapeutic methods such as surgery on the larynx or vocal cords, but such surgical methods or treatments are sometimes impossible to provide a complete solution.

특히 관련 업계에 있어서는 유럽 및 홍콩을 구심점으로 WinEPG, Articulate Instruments Ltd 등의 회사에서 사용 중인 University of Reading, 일본의 Fujimura, Tatsumi가 1973년에 개발하여 Rion 이라는 회사 이름으로 널리 상용화 시킨 The Rion EPG, Flecher이 출원하여 UCLA Phonetics Lab이 연구목적으로 개발하여 사용하는 Kay Palatometer, Schmidt가 개발하여 Complete Speech(Logomertix) 등이 있다.The Rion EPG, Flecher, which was widely commercialized under the name of Rion in 1973 by the University of Reading, Fujimura, Japan, and Tatsumi, used by companies such as WinEPG and Articulate Instruments Ltd. This application includes Kay Palatometer, developed by UCLA Phonetics Lab for research purposes, and Complete Speech (Logomertix), developed by Schmidt.

그러나 상기 종래의 기술들은 수동적 조음기관을 기반으로 발화하는 것에 한계가 있으며, 능동적 조음기관 자체인 구강설을 이용하거나, 구강설과 다른 조음기관과의 연계성에 의한 실제 조음 방식에 따른 발화를 구현하는 데 명확한 한계가 있었다.However, the conventional techniques have a limitation in igniting based on passive articulation organs, and using oral sulcus which is an active articulation organ itself, or realization of utterance according to actual articulation method by linkage between oral lingual articulation and other articulation organs. There was a definite limit.

기존에 상태 변화나 움직임을 파악하기 위한 다양한 센서가 개발되어 있으며, 센서를 바탕으로 압력, 온도, 거리, 마찰 등의 변화를 파악하는 것이 가능하다.Various sensors have been developed to detect changes in state or movement. Based on the sensors, it is possible to detect changes in pressure, temperature, distance, and friction.

더불어, 청음을 주관하는 신체의 요소는 외이(3100), 중이(3200), 내이(3300)를 포함하는 청각계(3000)로 이루어져 있고, 상기 청각계(3000)가 불완전하고 기능을 온전히 못할 경우, 두경부 외측일면(4100), 두경부 내측일면(4200), 두경부 측면 내골(4300)을 포함하는 유사대체기관종(4000)이 이를 보완하고 대체한다. 청음과 관련한 장애 유형은 환경적 요소에 의한 장애와 청각계의 물리적 손상에 의한 전음성 난청 및 생물학적 손상에 따른 감각신경성 난청과 같은 신체적 요소에 의한 장애가 있다. 자세히 말하자면, 환경적 요소에 의한 장애는 청음 시 주변환경의 소음으로 매질인 공기에 의해 전달되는 음성을 비롯한 소리 등이 외이(3100)에서 중이(3200)에 제대로 이르지 못하거나 많은 방해를 받게 되는 경우이다. 더불어, 매질인 공기가 부족하거나 전무한 바다 내지 우주 등의 공간에서도 음성을 비롯한 소리 등을 제대로 청음할 수 없는 환경적인 장애를 겪게 된다. In addition, the element of the body that controls hearing comprises the auditory system 3000 including the outer ear 3100, the middle ear 3200, and the inner ear 3300, when the auditory system 3000 is incomplete and does not function properly. , Head and neck outer side (4100), head and neck inner side (4200), head and neck side substitutes (4300), including a head replacement (4000) supplements and replaces it. Types of hearing-related disorders include disorders due to environmental factors and physical factors such as preneural hearing loss due to physical damage to the auditory system and sensorineural hearing loss due to biological damage. In detail, the obstacle caused by environmental factors is that when the sound of the surrounding environment is not properly reached from the outer ear (3100) to the middle ear (3200) or is disturbed by the noise of the surrounding environment. to be. In addition, there is a lack of air as a medium or an environmental obstacle that cannot properly listen to sounds and sounds even in the sea or the space such as the universe.

본 발명은 전술한 문제점을 해결하기 위하여 제안된 것으로, 본 발명의 목적은 화자의 발화 의도에 따른 화자의 조음 방식을 구강설을 포함한 두경부의 센서를 통해 파악하고, 이를 신호화하여 환경적 내지 신체적 장애 요인으로 인해 청음에 제한이 있는 화자 내지 청자에게 효율적으로 전달하는 장치 및 시스템을 제공하고자 하는 것이다. The present invention has been proposed to solve the above-mentioned problems, an object of the present invention is to grasp the articulation of the speaker according to the speaker's intention through the sensor of the head and neck including the oral cavity, and to signal the environmental and physical It is an object of the present invention to provide an apparatus and a system for efficiently delivering to a speaker or a listener who have limited hearing due to obstacles.

본 발명의 목적은 발화에 있어서 정상적인 기능을 수행하지 못하고 교정이나 치료가 불가능한 경우에 양질의 적절한 발화를 구현하고 해당 발화를 화자 본인 내지 청자가 환경적인 장애 내지 신체적인 장애와 무관하게 청음할 수 있도록 돕는 것이다. An object of the present invention is to implement a good quality appropriate speech in the case that it is unable to perform a normal function in the speech and can not be corrected or treated, so that the speaker or the listener can listen to the speech regardless of environmental or physical disorders. To help.

상술한 바와 같은 종래기술의 문제를 해결하기 위하여 제공되는 본 발명에 따른 청음 향상을 위한 두경부 물리 특성 기반 복합시스템은, 화자의 두경부의 일면에 인접하여 조음기관의 물리특성을 측정하는 센서부와, 상기 센서부의 위치와 측정된 조음기관의 물리특성을 기반으로 화자의 하나 이상의 발화 특징을 파악하는 데이터 해석부와, 상기 하나 이상의 센서부의 위치와 상기 하나이상의 발화 특징을 음성데이터로 변환하는 데이터변환부와, 상기 음성데이터를 음파, 진동파, 청전기자극 중 하나이상의 형태로 외부로 표현하는 데이터 표현부를 포함하고, 상기 데이터 표현부는 상기 음성데이터를 화자, 청자 중 일인이상에게 제공하고자 전음장치로 구성된다.In accordance with the present invention provided to solve the problems of the prior art as described above, the head and neck neck physical characteristics-based complex system for improving hearing, the sensor unit for measuring the physical characteristics of the articulation engine adjacent to one side of the head and neck of the speaker; A data analysis unit for identifying one or more speech features of the speaker based on the position of the sensor unit and the measured physical characteristics of the articulation engine, and a data converter for converting the positions of the one or more sensor units and the one or more speech features into voice data And a data expression unit for expressing the voice data to the outside in the form of at least one of sound waves, vibration waves, and a stimulator of the speaker. do.

본 발명의 조음 및 청음 향상을 위한 복합시스템에 의하면, 소음 및 다수 화자의 발화에 의해 선택적 청취(Selective Hearing)에 심각한 제한이 있는 경우 화자의 발화를 화자 자신 내지 청자의 청각계에 위치한 전음장치로 전달하여 효과적인 청음이 가능하도록 한다. According to the complex system for improving the articulation and hearing of the present invention, when there is a serious limitation in selective hearing due to noise and speech of a plurality of speakers, the speaker's speech is controlled by the speaker himself or the listener's hearing system. To communicate effectively.

또한, 화자의 발화에 따른 발화 의도를 문자로서 표현할 경우, Speech to Text로 응용되어, Silent Speech(침묵 대화)가 가능해진다. 이를 통해, 청각 장애인과 의사소통을 할 시에, 화자는 발화를 하고 청자인 청각 장애인은 이를 시각적 자료로 인지하기에 소통상의 어려움이 없어진다. In addition, when the intention to speak according to the speaker's speech is expressed as a character, it is applied to Speech to Text, thereby enabling Silent Speech. Through this, when communicating with the hearing impaired, the speaker speaks and the hearing impaired as the listener recognizes this as visual material, thus eliminating communication difficulties.

더불어, 의사전달에 있어서 소음에 영향을 받는 대중 교통, 공공 시설, 군사 시설 및 작전, 수중 활동 등에 활용 될 수 있는 등, 화자의 조음기관 작용에 의해 발생하는 조음도를 수치화(Scaling)하여 발화의도를 청각, 시각, 촉각의 형태로 직관적으로 제시하기 때문에 의사소통의 질 및 생활 편의도가 매우 탁월해 질 것으로 기대된다.In addition, it can be used for public transportation, public facilities, military facilities, operations, and underwater activities that are affected by noise in communication. Since the diagram is presented intuitively in the form of hearing, sight and touch, it is expected that the quality of communication and the convenience of living will be excellent.

도 1은 본 발명에 따른 센서부 구성의 예시도
도 2는 본 발명에 따른 센서부의 위치 예시도
도 3은 본 발명에 따른 센서부와 데이터 해석부 구성의 예시도
도 4는 본 발명에 활용되는 모음 발화를 위한 구강설의 작용 예시도
도 5는 본 발명에 따른 구강설 센서의 예시도
도 6은 본 발명에 따른 구강설 센서의 또 다른 예시도
도 7은 본 발명에 따른 구강설 센서의 또 다른 예시도
도 8은 본 발명에 따른 구강설 센서의 또 다른 예시도
도 9는 본 발명에 따른 구강설 센서의 또 다른 예시도
도 10은 본 발명에 따른 구강설 센서의 통합 예시도
도 11은 본 발명에 따른 구강설 센서의 부착 형태를 나타내는 단면도
도 12는 본 발명에 따른 구강설 센서의 구성을 나타낸 사시도
도 13은 본 발명에 따른 구강설 센서의 회로부의 구성을 나타낸 구성도
도 14는 본 발명에 따른 다양한 발화에 따른 구강설 센서의 활용 예시도
도 15은 본 발명에 따른 센서부, 데이터해석부, 데이터베이스부의 구성 예시
도 16은 본 발명에 따른 데이터해석부가 측정된 조음기관 물리 특성을 발화 특징으로 파악하는 원리도
도 17은 본 발명에 따른 데이터해석부가 측정된 조음기관 물리 특성을 발화 특징으로 파악하는 보다 자세한 원리도
도 18은 본 발명에 따른 데이터해석부가 조음기관 물리 특성을 발화 특징으로 파악하도록 하는 모음에 관한 표준 발화 특징 행렬도
도 19는 본 발명에 따른 데이터해석부가 조음기관 물리 특성을 발화 특징으로 파악하도록 하는 자음에 관한 표준 발화 특징 행렬도
도 20은 본 발명에 따른 데이터해석부가 조음기관 물리 특성을 발화 특징으로 파악하기 위하여 진행하는 알고리즘 프로세스 예시도
도 21은 본 발명에 따른 데이터해석부가 조음기관 물리 특성을 발화 특징으로 파악하기 위하여 진행하는 알고리즘 프로세스의 상세 예시도
도 22는 본 발명에 따른 데이터해석부가 진행하는 발화 특징 파악을 위한 알고리즘 프로세스의 상세 원리도
도 23는 본 발명에 따른 구강설 센서가 화자에 의해 발화된 특정 모음을 발화 특징으로 파악하는 예시도
도 24는 본 발명에 따른 구강설 센서가 화자에 의해 발화된 특정 자음을 측정하고 데이터해석부가 이를 Alveolar Stop으로 파악하는 것을 나타낸 예시도
도 25는 본 발명에 따른 구강설 센서와 안면 센서가 화자에 의해 발화된 특정 자음을 측정하고 데이터해석부가 이를 Bilabial Stop으로 파악하는 것을 나타낸 예시도
도 26은 본 발명에 따라 구강설 센서와 안면 센서가 실제로 화자에 의해 발화된 특정 자음을 측정하고 데이터해석부가 이를 Voiced Bilabial Stop인 /버/와 Voiceless Bilabial Stop인 /퍼/로 파악한 실제 실험 데이터
도 27은 본 발명에 따라 구강설 센서, 안면 센서, 음성취득센서, 성대센서, 치아센서가 화자에 의해 발화된 특정 자음을 측정하고 데이터해석부가 이를 Voiced Labiodental Fricative로 파악하는 것을 나타낸 예시도
도 28은 본 발명에 따라 구강설 센서, 안면 센서, 음성취득센서, 성대센서, 치아센서가 화자에 의해 발화된 특정 자음을 측정하고 데이터해석부가 이를 Voiceless Labiodental Fricative로 파악하는 것을 나타낸 예시도
도 29는 본 발명에 따라 센서부에 의해 조음기관 물리 특징을 취득하고 데이터해석부가 상기 데이터베이스와 연동되는 것을 나타낸 예시도
도 30은 본 발명에 따라 구강설 센서, 안면 센서, 음성취득센서, 성대센서, 치아센서가 화자에 의해 발화된 특정 자음과 모음을 측정하고 데이터해석부가 이를 /beef/ 내지 [bif]라는 단어로 파악하는 것을 나타낸 예시도
도 31은 본 발명에 따라 센서부에서 취득된 음성데이터를 파악할 때 활용되는 데이터베이스부를 나타낸 예시도
도 32는 본 발명에 따라 센서부가 외부와 연결되기 위한 통신부와 연동된 것을 나타낸 예시도
도 33은 본 발명에 따라 데이터해석부와 연동되는 데이터베이스부의 실제 예시도
도 34는 본 발명에 따라 데이터해석부와 연동되는 데이터베이스부의 실제 또 다른 예시도
도 35는 본 발명에 따라, 센서부, 데이터해석부, 데이터표현부, 데이터베이스부가 연동된 것을 나타내는 구조도
도 36은 본 발명에 따라, 센서부, 데이터해석부, 데이터표현부, 데이터베이스부가 연동되어 작동하는 것을 나타내는 예시도
도 37은 본 발명에 따라, 데이터표현부가 음성데이터를 표현하는 것을 나타내는 예시도
도 38은 본 발명에 따라, 데이터표현부가 음성데이터를 문자를 포함한 시각적 자료와 음성형태로 표현하는 것을 나타내는 예시도
도 39는 본 발명에 따라, 데이터표현부가 음성데이터를 문자를 포함한 시각적 자료와 음성형태로 표현하는 것을 나타내는 또 다른 예시도
도 40은 본 발명에 따라, 데이터표현부가 음성데이터를 문자를 포함한 시각적 자료와 음성형태로 표현하는 것을 나타내는 또 다른 예시도
도 41은 본 발명에 따라, 데이터표현부가 음성데이터를 발화 자료를 포함한 시각적 자료와 음성데이터의 표준 발화를 청각적으로 표현하는 것을 나타내는 또 다른 예시도
도 42는 본 발명에 따라, 데이터표현부가 음성데이터를 문자로 시각적으로 표현하고 음성데이터의 표준 발화를 문장 단위로 청각적으로 표현하는 것을 나타낸 예시도
도 43은 본 발명에 따라, 데이터표현부가 음성데이터를 단어 단위의 문자 및 그에 상응하는 그림 내지 사진으로서 시각적으로 표현하고 음성형태로 표현하는 것을 나타내는 또 다른 예시도
도 44는 본 발명에 따라, 데이터 표현부가 음성데이터를 연속 발화 단위로서 문자와 음성형태로 표현하여 제공하는 것을 나타내는 또 다른 예시도
도 45는 본 발명에 따라, 데이터표현부가 음성데이터를 문자로 표현하되, 그에 상응하는 발음의 고저 색인을 함께 시각 및 청각적으로 제공하는 것을 나타내는 또 다른 예시도
도 46은 본 발명에 따라, 촬상 센서가 화자의 발화에 따라 변화하는 두경부 조음기관의 외상을 촬상하고 이를 데이터해석부가 파악하는 것을 나타내는 예시도
도 47은 본 발명에 따라, 촬상센서가 촬상한 정보들과 나머지 센서들이 파악한 발화 특징을 기반으로, 데이터해석부가 표준 발화 특징 행렬을 통해 상호 정보들을 결합시키는 것을 나타내는 예시도
도 48은 본 발명에 따라, 화자의 발화를 교정하기 위해 화자의 발화를 인지하고 분류하는 Confusion Matrix
도 49는 본 발명에 따라, 상기 Confusion Matrix를 백분율로 나타낸 결과
도 50은 본 발명과 관련한 청각계와 유사대체기관종을 나타낸 예시도
도 51은 본 발명에 따라, 전음장치가 청각계 중 외이에 위치하여 데이터수신부가 음성데이터를 수신하고 스피커부가 음성데이터를 음파로 송출하여 중이에 전달하는 것을 나타내는 예시도
도 52는 본 발명에 따라, 전음장치가 청각계 중 외이에 위치하여 데이터수신부가 음성데이터를 수신하고 스피커부가 음성데이터를 음파로 송출하되 증감조절부를 통해 증폭시켜 중이로 전달하는 것을 나타내는 예시도
도 53은 본 발명에 따라, 전음장치 중 데이터수신부가 청각계 중 외이에 위치하여 음성데이터를 수신하고, 외이도 내부에 위치한 전도진동부가 음성데이터를 진동파로 송출하여 중이로 전달하는 것을 나타내는 예시도
도 54는 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측외면에 위치하여 음성데이터를 수신하고, 그와 인접한 전도진동부가 두경부 측면 내골을 매개로 음성데이터를 진동파로 송출하여 내이에 전달하는 것을 나타내는 예시도
도 55는 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측외면에 위치하여 음성데이터를 수신하고, 중이의 일면에 위치한 전도진동부가 음성데이터를 진동파로 송출하여 청소골에 전달하는 것을 나타내는 예시도
도 56은 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측외면에 위치하여 음성데이터를 수신하고 그와 인접한 제1전도진동부가 음성데이터를 진동파로 선행하여 송출하고, 중이의 일면에 위치한 제2전도진동부가 제1전도진동부에서 전달된 음성데이터를 후행하여 청소골로 전달하는 것을 나타내는 예시도
도 57은 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측외면에 위치하여 음성데이터를 수신하고, 내이 중 달팽이관 외부에 위치한 하나이상의기준전갈전극과 달팽이관 내부에 위치한 하나이상의 활성전갈전극으로 이루어진 전갈전극부가 음성데이터를 청전기자극으로 송출하여 달팽이관의 역할을 대체하므로서 청신경에 전달하는 것을 나타내는 예시도
도 58은 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측 외면에 위치하여 음성데이터를 수신하고, 내이 중 달팽이관 내부에 위치한 하나이상의 기준전갈전극과 달팽이관 내부에 위치한 하나이상의 활성전갈전극으로 이루어진 전갈전극부가 음성데이터를 청전기자극으로 송출하여 달팽이관의 역할을 대체하므로서 청신경에 전달하는 것을 나타내는 예시도
도 59는 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측 외면에 위치하여 음성데이터를 수신하고, 내이 중 달팽이관 내부에 위치한 하나이상의 기준전갈전극과 달팽이관 내부에 위치한 단일한 활성전갈전극으로 이루어진 전갈전극부가 음성데이터를 청전기자극으로 송출하여 달팽이관의 역할을 대체하므로서 청신경에 전달하는 것을 나타내는 예시도
도 60은 본 발명에 따라, 전음장치 중 데이터수신부가 유사대체기관종 중 두경부 일측 외면에 위치하여 음성데이터를 수신하고, 유사대체기관종 중 두경부 일측내면으로 이어져 대뇌에 인접한 하나이상의 기준전갈전극과 하나이상의 활성전갈전극으로 이루어진 전갈전극부가 음성데이터를 청전기자극으로 송출하여 청신경 역할을 대체하므로서 대뇌에 전달하는 것을 나타내는 예시도
도 61은 본 발명에 따라, 전음장치 중 전도진동부에 활용되는 진동자의 종류 및 그 동작 원리 예시도
1 is an exemplary view of a sensor unit configuration according to the present invention
Figure 2 is an exemplary view of the position of the sensor unit according to the present invention
3 is an exemplary view of the configuration of the sensor unit and the data analysis unit according to the present invention
Figure 4 is an illustration of the action of oral tongue for vowel ignition utilized in the present invention
5 is an illustration of an oral tongue sensor according to the present invention.
Figure 6 is another exemplary view of the oral tongue sensor according to the present invention
Figure 7 is another exemplary view of the oral tongue sensor according to the present invention
8 is another exemplary view of the oral tongue sensor according to the present invention.
9 is another exemplary view of the oral cavity sensor according to the present invention.
Figure 10 is an integrated example of the oral tongue sensor according to the present invention
11 is a cross-sectional view showing the attachment form of the oral tongue sensor according to the present invention.
12 is a perspective view showing the configuration of a mouthwash sensor according to the present invention
Figure 13 is a block diagram showing the configuration of the circuit portion of the oral cavity sensor according to the present invention
Figure 14 is an illustration of the utilization of the oral cavity sensor according to the various ignition according to the present invention
15 is a configuration example of the sensor unit, data analysis unit, database unit according to the present invention
16 is a principle diagram of grasping the physical characteristics of the articulation engine measured by the data analysis unit according to the present invention as a utterance characteristic.
17 is a more detailed principle diagram of grasping the physical characteristics of the articulation engine measured by the data analysis unit according to the present invention as a utterance characteristic.
18 is a standard speech feature matrix diagram of a vowel for the data interpreter according to the present invention to grasp the articulation physics characteristics as speech features.
19 is a standard speech feature matrix diagram of a consonant in which a data interpreter according to the present invention grasps the physical characteristics of articulator organs as speech features.
20 is a diagram illustrating an algorithm process performed by the data interpreter according to the present invention to grasp the physical characteristics of articulator organs as utterance features.
21 is a detailed illustration of an algorithm process performed by a data interpreter according to the present invention to grasp articulator physical characteristics as a speech feature.
22 is a detailed principle diagram of an algorithm process for identifying a speech feature progressed by a data interpreter according to the present invention.
Figure 23 is an illustration of the oral cavity sensor according to the present invention to grasp the specific vowels uttered by the speaker as a utterance feature
24 is an exemplary view showing that the oral cavity sensor according to the present invention measures a specific consonant uttered by the speaker and the data interpreter grasps it as an Alveolar Stop.
25 is an exemplary view showing that the oral cavity sensor and the facial sensor according to the present invention measure a specific consonant uttered by a speaker and the data interpreter grasps it as a bilabial stop.
FIG. 26 is actual experimental data of the oral cavity sensor and the facial sensor actually measuring a specific consonant uttered by a speaker, and interpreting the data as a voiced bilabial stop / bur / and a voiceless bilabial stop.
27 is an exemplary view showing that the oral tongue sensor, face sensor, voice acquisition sensor, vocal cord sensor, dental sensor measures a specific consonant uttered by the speaker and the data interpreter grasps it as a voiced labiodental fricative according to the present invention.
28 is an exemplary view showing that the oral tongue sensor, face sensor, voice acquisition sensor, vocal cord sensor, dental sensor measured a specific consonant uttered by the speaker according to the present invention and the data interpreter grasps it as Voiceless Labiodental Fricative.
29 is an exemplary view showing that the articulation engine physical characteristics are acquired by the sensor unit according to the present invention and the data analysis unit is linked with the database.
30 is a mouth oral sensor, facial sensor, voice acquisition sensor, vocal cord sensor, tooth sensor according to the present invention measures the specific consonants and vowels uttered by the speaker and the data interpreter is called / beef / to [bif] Illustrative diagram showing grasping
31 is an exemplary view showing a database unit used when grasping voice data acquired by a sensor unit according to the present invention.
32 is an exemplary view showing that the sensor unit is interlocked with the communication unit for connecting to the outside according to the present invention.
33 is an exemplary view of a database unit interworking with a data analysis unit according to the present invention.
34 is actually another exemplary diagram of a database unit interworking with a data analysis unit according to the present invention;
35 is a structural diagram showing that the sensor unit, data analysis unit, data expression unit, database unit in accordance with the present invention
36 is an exemplary view illustrating that the sensor unit, the data analysis unit, the data expression unit, and the database unit operate in accordance with the present invention.
37 is an exemplary view showing that a data expression unit expresses voice data according to the present invention.
FIG. 38 is an exemplary view illustrating that a data expression unit expresses voice data in visual form and voice form including text according to the present invention.
FIG. 39 is yet another exemplary diagram showing that the data expression unit expresses voice data in visual form and voice form including text according to the present invention. FIG.
40 is yet another exemplary diagram showing that the data expression unit expresses the voice data in the form of a visual material including a character and a voice according to the present invention.
FIG. 41 is yet another exemplary diagram showing that the data expression unit audibly expresses voice data to visual data including speech data and standard speech of voice data according to the present invention; FIG.
FIG. 42 is an exemplary view illustrating that a data expression unit visually expresses voice data in letters and audibly expresses standard speech of voice data in units of sentences according to the present invention.
FIG. 43 is yet another exemplary diagram illustrating that the data expression unit visually expresses voice data as a character in a word unit and a corresponding picture or picture in a word unit, and expresses the voice data in the form of a voice.
FIG. 44 is still another exemplary diagram illustrating that the data expression unit expresses and provides voice data in the form of text and voice as a continuous speech unit according to the present invention.
FIG. 45 is yet another exemplary diagram illustrating that the data expression unit expresses voice data in text, but provides visual and audio together with the high and low index of the corresponding sound.
46 is an exemplary view showing that the imaging sensor picks up the trauma of the head and neck articulation engine that changes according to the utterance of the speaker and grasps the data interpreter according to the present invention.
FIG. 47 is an exemplary view illustrating that a data interpreter combines mutual information through a standard speech feature matrix based on information captured by an imaging sensor and speech features grasped by the remaining sensors.
48 is a confusion matrix for recognizing and classifying a speaker's speech to correct the speaker's speech according to the present invention.
49 shows the Confusion Matrix as a percentage according to the present invention.
50 is an exemplary view showing an auditory system and a pseudo-alternative organ associated with the present invention.
FIG. 51 is an exemplary view illustrating that an electric sound device is located in the outer ear of the auditory system so that the data receiving unit receives voice data and the speaker unit transmits the voice data as sound waves to the middle ear.
FIG. 52 is an exemplary view illustrating that an electric sound device is located at the outer ear of an auditory system so that a data receiving unit receives voice data and the speaker unit transmits the voice data as sound waves, but amplifies and transmits the voice data to the middle ear.
FIG. 53 is an exemplary view illustrating that the data receiver of the sound recording apparatus is located in the outer ear of the auditory system to receive voice data, and the conduction vibration unit located inside the ear canal transmits the voice data as a vibration wave and transmits the voice data to the middle ear.
54 is a data receiver according to the present invention, the data receiver is located on one side of the head and neck of the similar substitute organs to receive voice data, and the conduction vibration unit adjacent to the voice data is transmitted as a vibration wave through the medial side bone of the head and neck; An illustration showing delivery to the inner ear
55 is according to the present invention, the data receiving unit of the transom device is located on one outer surface of the head and neck of the similar substitute organs to receive voice data, and the conduction vibration unit located on one side of the middle ear transmits the voice data as a vibration wave to deliver to the cleaning bone Figure showing that
FIG. 56 shows that the data receiving unit of the transom device is located on one outer side of the head and neck of the similar substitute organs to receive voice data, and the first conduction vibration unit adjacent thereto transmits the voice data in advance with a vibration wave. Exemplary diagram showing that the second conduction vibration unit located on one side forwards the voice data transmitted from the first conduction vibration unit to the cleaning bone
57 is a data receiver according to the present invention, the data receiver is located on one side outer surface of the head and neck of the similar substitute organ species to receive voice data, and one or more reference messaging electrode located outside the cochlea of the inner ear and one or more active located inside the cochlea Exemplary figure showing that the scorpion electrode portion consisting of scorpion electrode transmits the voice data to the stimulation of the electrostatic stimulus to replace the role of the cochlea and to transmit to the auditory nerve
58 is, according to the present invention, the data receiving unit of the transom device is located on the outer surface of the head and neck of the similar substitute organ species to receive voice data, one or more reference messaging electrodes located inside the cochlea of the inner ear and one or more active located inside the cochlea Exemplary figure showing that the scorpion electrode portion consisting of scorpion electrode transmits the voice data to the stimulation of the electrostatic stimulus to replace the role of the cochlea and to transmit to the auditory nerve
59 is a data receiving unit of the transom device located on one side of the head and neck of the similar substitute organs to receive voice data, and one or more reference messaging electrodes located inside the cochlea of the inner ear and a single active located inside the cochlea Exemplary figure showing that the scorpion electrode portion consisting of scorpion electrode transmits the voice data to the stimulation of the electrostatic stimulus to replace the role of the cochlea and to transmit to the auditory nerve
60 is according to the present invention, the data receiving unit of the transom device is located on one outer surface of the head and neck of the similar substitute organs to receive voice data, leading to one inner surface of the head and neck of the similar alternative organs and at least one reference messaging electrode adjacent to the cerebrum; An example showing that the scorpion electrode portion consisting of one or more active scorpion electrodes transmits the voice data to the stimulus of the stimulus to transmit to the cerebrum by replacing the role of the auditory nerve.
61 is a view illustrating the type of vibrator used in the conduction vibration unit and its operation principle according to the present invention.

이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따라 상세히 설명하기로 한다. Hereinafter, with reference to the accompanying drawings will be described in detail according to an embodiment of the present invention.

본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 이를 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다. The following examples of the present invention are intended to embody the present invention, but not to limit or limit the scope of the present invention. What can be easily inferred by those skilled in the art from the detailed description and the embodiments of the present invention is interpreted as belonging to the scope of the present invention.

본 발명을 실시하기 위한 내용을 도 1부터 도 60을 기반으로 상세히 설명하고자 한다. 도 1과 도2에 따르면, 본 발명의 센서부(100)는 두경부(11)에 위치하는 구강설 센서(110). 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150), 촬상센서(160)로 구성된다.Details for carrying out the present invention will be described in detail with reference to FIGS. 1 to 60. 1 and 2, the sensor unit 100 of the present invention is located in the oral cavity sensor 110 located in the head and neck (11). The face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, the dental sensor 150, and the imaging sensor 160 are configured.

더욱 자세히는 두경부에 위치하는 구강설 센서(110). 안면센서(120), 음성 취득센서(130), 성대센서(140), 치아센서(150)는 상기 각 센서들이 위치하는 센서부의 위치(210), 화자(10)의 발화에 따른 발화 특징(220), 화자의 음성(230), 발화 내역 정보(240), 발화변이(250)을 제공한다. More specifically oral sensor 110 located in the head and neck. The facial sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the dental sensor 150 are utterance characteristics 220 according to the position of the sensor unit 210 where the respective sensors are located, and the utterance of the speaker 10. ), The speaker's voice 230, speech history information 240, and speech variation 250 are provided.

도 3에 따르면, 데이터해석부(200)가 상기 이러한 데이터들을 취득하고, 데이터 변환부(300)는 이를 음성데이터(310)로 처리한다.According to FIG. 3, the data analysis unit 200 acquires such data, and the data conversion unit 300 processes the data into voice data 310.

도 4, 도 5에 따르면 구강설 센서(110)의 경우, 구강설(12)의 일측면에 고착되거나 그 표면을 감싸거나, 그 내부에 삽입되며, 저고도, 전후설성, 굴곡도, 신전도, 회전도, 긴장도, 수축도, 이완도, 진동도 중 하나 이상의 구강설 자체의 독립 적인 물리 특성을 파악한다. 4 and 5, in the case of the oral tongue sensor 110, it is fixed to one side of the oral tongue 12, or wrapped around the surface, or inserted into it, low altitude, front and rear tongue, bending degree, extension, Identify the independent physical characteristics of one or more of the oral cavity itself: rotation, tension, contraction, relaxation, vibration.

도 6, 도 7에 따르면, 상기 구강설 자체의 독립적인 물리 특성을 파악함에 있어서, 구강설 센서(110)는 x축, y축, z축 방향의 가속도 내지 단위 시간 당 회전하는 각도의 변화량 중 하나 이상을 파악함으로서, 구강설(12)을 포함한 다른 조음기관의 물리특성에 의한 발화특징(220)을 파악한다. 6 and 7, in grasping the independent physical characteristics of the oral tongue itself, the oral tongue sensor 110 includes accelerations in the x-axis, y-axis, and z-axis directions, among the amount of change in the rotation angle per unit time. By grasping one or more, grasping the speech characteristics 220 by the physical characteristics of other articulation organs, including oral cavity (12).

더불어, 도 8에 따르면, 구강설 센서(110)는 발화에 따른 구강설의 수축 내지 이완으로 발생하는 물리력에 따라 결정구조(111)의 변화에 의해 편극이 발생하여 전기신호가 발생하는 압전소자(112)를 통해 구강설의 굽힘도를 파악함으로써, 구강설을 포함한 조음기관의 물리특성에 의한 발화특징(220)을 파악할 수 있다. In addition, according to FIG. 8, the oral tongue sensor 110 includes a piezoelectric element in which an electric signal is generated by polarization caused by a change in the crystal structure 111 according to the physical force generated by contraction or relaxation of the oral tongue due to ignition. By determining the degree of bending of the oral tongue through 112, it is possible to grasp the ignition feature 220 by the physical characteristics of the articulation organ including the oral tongue.

도 9에 따르면, 구강설 센서(110)는 구강설(12)이 두경부(11) 내외의 다른 조음기관과의 상호작용에 의해 생기는 접근 및 접촉에 의해 발생하는 마찰전기(Tribo Electric Generator)에 따른 연계물리특성을 파악하기 위해 마찰대전소자(113)를 사용하여 화자(10)의 발화 특징(220)을 파악한다. According to FIG. 9, the oral tongue sensor 110 has a triboelectric generator generated by the approach and contact caused by the oral tongue 12 interacting with other articulation organs inside and outside the head and neck 11. In order to determine the associated physical properties, the triboelectric element 113 is used to grasp the ignition characteristics 220 of the speaker 10.

도 10, 도 11, 도 12에 따르면, 상기 구강설 센서(110)의 작동 원리는 복합 박막 회로로 구성되어 단일한 필름 형태로 구현될 수 있다. 10, 11, and 12, the operation principle of the oral cavity sensor 110 is composed of a composite thin film circuit can be implemented in a single film form.

이때 상기 구강설 센서(110)는, 회로부(114), 회로부(114)를 감싸는 캡슐부(115)와, 구강설(12)의 일면에 고착되도록 하는 접착부(116)로 구성된다. At this time, the oral tongue sensor 110 is composed of a circuit portion 114, a capsule portion 115 surrounding the circuit portion 114, and an adhesive portion 116 to be fixed to one surface of the oral tongue 12.

더불어, 도 6, 7, 8, 9에 따르면, 구강설 센서(110)는 각 센서의 특징에 따라 두경부(11) 내외의 다른 조음기관과의 인접 내지 응접에 의해 생기는 파열도, 마찰도, 공명도, 접근도 중 하나이상의 물리 특성을 파악할 수 있다.6, 7, 8, and 9, the oral tongue sensor 110, according to the characteristics of each sensor, the degree of rupture, friction, resonance caused by the adjacent or in contact with other articulators inside and outside the head and neck 11 It is possible to grasp one or more physical characteristics of the degree of access.

도 13에 따르면, 상기 구강설 센서(110)의 회로부(114)는 통신칩, 센싱회로, MCU로 구성된다.According to FIG. 13, the circuit unit 114 of the oral cavity sensor 110 includes a communication chip, a sensing circuit, and an MCU.

도 14에 따르면, 본 발명은 화자(10)의 다양한 자모음의 발화에 따라, 상기 자모음 발화에 따른 발화 특징(220)을 파악할 수 있게 된다. According to FIG. 14, according to the present invention, according to the vowels of various consonants of the speaker 10, the utterance feature 220 according to the vowel vowels can be identified.

상기 도 12는 Bilabial Sound (양순음), Alveolar Sound (치경음), Palatal Sound (구개음)에 따른 상기 구강설 센서의 작용을 보여주는 예시이다.12 is an illustration showing the operation of the oral tongue sensor according to the Bilabial Sound (the labyrinth), the Alveolar Sound (the alveolar sound), and the Palatal Sound (the palate).

도 15에 따르면, 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150), 촬상센서(160)로 이루어진 두경부 조음기관 인근의 센서부(100)는 두경부 조음기관에서 센서부가 위치한 센서부의 위치(210), 발화에 따른 발화특징(220), 발화에 따른 화자의 음성(230), 발화의 시작, 발화 정지, 발화 종료를 포함하는 발화내역정보(240)을 파악한다. According to FIG. 15, a sensor near the head and neck articulation organ including the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, the tooth sensor 150, and the imaging sensor 160. The unit 100 includes a position 210 of the sensor unit in which the head and neck articulation organ is located, a speech feature 220 according to speech, a voice 230 of the speaker according to speech, a start of speech, stop speech, and end speech. Ignition history information 240 is determined.

이때 발화특징(220)은 인간이 발화할 때 발생하는 페쇄파열음화, 마찰음화, 파찰음화도, 비음화, 유음화, 활음화, 치찰음화, 유무성음화, 성문음화 중 하나이상의 기본적인 물리적 발화 특징을 의미한다. 또한 화자의 음성(230)은 상기 발화 특징으로 인해 함께 수반되는 청각적인 발화 특징이다.In this case, the speech feature 220 refers to at least one basic physical speech feature among closed tear speech, friction speech, percussive speech, non-voice, speech, active speech, sibilant speech, voiceless speech, and voiced speech. . The speaker's voice 230 is also an auditory speech feature that accompanies the speech feature.

더불어, 도 15에 따르면, 발화내역정보(240)는 상기 성대센서(140)를 통하여 , 성대의 근전도 내지 떨림으로 그 정보를 파악한다. In addition, according to FIG. 15, the utterance history information 240 grasps the information by the EMG or tremor of the vocal cords through the vocal cord sensor 140.

상기 데이터해석부는 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150), 촬상센서(160)로 이루어진 두경부 조음기관 인근의 센서부(100)가 측정한 화자의 조음기관 물리특성에서 화자의 성별, 인종, 나이, 모국어에 따라 발생하는 발화변이(250)를 파악한다. The data analysis unit is located near the head and neck articulation organ consisting of oral tongue sensor 110, face sensor 120, voice acquisition sensor 130, vocal cord sensor 140, teeth sensor 150, imaging sensor 160 In the physical characteristics of the speaker's articulator organ measured by (100), the speech variation 250 generated according to the speaker's gender, race, age, and native language is identified.

이때 발화변이(250)는 자모음의 동화(Assimilation), 이화(Dissimilation), 탈락(Elision), 첨가(Attachment), 강세(Stress), 약화(Reduction)로 야기되는 기식음화 (Asperation), 음절성자음화(Syllabic cosonant), 탄설음화(Flapping), 경음화(Tensification), 순음화(Labilalization), 연구개음화(Velarization), 치음화(Dentalizatiom), 구개음화 (Palatalization), 비음화(Nasalization), 강세변화(Stress Shift), 장음화(Lengthening) 중 하나이상의 이차조음현상을 포함한다.At this time, the utterance variation 250 is assimilation, dissimilation, elimination, attachment, stress, and reduction caused by asthma and syllables. Negative (Syllabic cosonant), Flapping, Tensification, Labilalization, Velarization, Dentalizatiom, Palatalization, Nasalization, Stress Shift), Lengthening, or more than one secondary articulation.

도 15에 따르면, 본 발명은 상기 두경부 조음기관에 인접한 센서들 외에 두경부 외측에서 발화에 따른 두경부의 조음기관 변화정보(161)를 포함하고 이에 따라 자연스럽게 발생하는 두경부 표정변화정보(162), 비언어적 표현정보(163)를 파악하는 촬상센서(160)를 포함한다. According to FIG. 15, the present invention includes the head and neck articulation change information 161 according to the ignition from outside the head and neck in addition to the sensors adjacent to the head and neck articulation organs, and thus the head and neck facial expression change information 162, a non-verbal expression. And an imaging sensor 160 for grasping the information 163.

도 15에 따르면, 데이터 해석부(200)는 상기 두경부 조음기관 센서들(110, 120, 130, 140, 150)에 의해 측정된 센서부의 위치(210), 발화에 따른 발화특징(220), 발화에 따른 화자의 음성(230), 발화내역정보(240), 발화변이(250)를 인지한다. According to FIG. 15, the data analysis unit 200 may include a location 210 of the sensor unit measured by the head and neck articulator sensors 110, 120, 130, 140, and 150, a speech feature 220 according to speech, and speech. Recognizes the speaker's voice 230, speech history information 240, and speech variation 250 according to the speaker.

더불어, 데이터 변환부(300)가 상기 데이터들을 상기 음성데이터(310)로 변환하여 처리함에 있어서, 데이터 해석부(300)는 데이터 베이스부(350)와 연동된다.In addition, when the data converter 300 converts the data into the voice data 310 and processes the data, the data analyzer 300 is linked with the database 350.

상기 촬상센서(160)에 의해 측정된 두경부의 조음기관 변화정보(161), 두경부 표정변화정보(162), 비언어적 표현정보(163)를 음성데이터(310)로 인지하여 처리한다. The head and neck articulation change information 161, the head and neck facial expression change information 162, and the non-verbal expression information 163 measured by the imaging sensor 160 are recognized and processed as voice data 310.

상기 촬상센서와 연동되어 파악된 음성데이터(310)를 인지하여 처리함에 있어서, 데이터해석부(200)도 데이터베이스부(350)와 연동된다. In recognizing and processing the voice data 310 identified in association with the imaging sensor, the data analysis unit 200 is also linked with the database unit 350.

도 31에 따르면, 이때 데이터 베이스부(350)는 자모음의 음소단위(361), 색인 음절단위색인(362), 단어단위색인(363), 구절단위색인(364), 문장단위색인(365), 연속발화색인(366), 발음의 고저색인(367)을 포함하는 음성데이터 색인(360)을 가지고 있다. According to FIG. 31, the database unit 350 includes a phoneme unit 361, an index syllable unit index 362, a word unit index 363, a phrase unit index 364, and a sentence unit index 365. And a speech data index 360 including a continuous speech index 366 and a high and low index 367 of pronunciation.

이러한 음성데이터 색인(360)을 통해, 데이터 해석부(200)는 센서부(100)에서 취득된 다양한 발화 관련 정보들을 음성데이터로 처리할 수 있게 된다. Through the voice data index 360, the data analysis unit 200 may process various speech-related information acquired by the sensor unit 100 as voice data.

도 16, 17, 18, 19에 따르면, 상기 데이터 해석부(200)는 상기 구강설 센서(110)를 포함한 센서부(100)로부터 측정된 조음기관의 물리특성을 먼저 획득한다.16, 17, 18, and 19, the data analysis unit 200 first acquires the physical characteristics of the articulation organ measured from the sensor unit 100 including the oral cavity sensor 110.

구강설 센서로 인해 조음기관 물리특성이 획득된 경우, 구강설 센서는 조음기관 물리특성을 센싱하면서 센싱된 물리특성의 행렬값을 만든다. When the articulation organ physical characteristics are acquired due to the oral cavity sensor, the oral cavity sensor senses the articulation organ physical characteristics and creates a matrix value of the sensed physical characteristics.

이후, 데이터 해석부(200)는 자모음의 표준발화특징행렬(205)에서 상기 이러한 물리특성의 행렬값에 대응하는 자모음의 발화특징(220)을 파악한다. Thereafter, the data analysis unit 200 grasps the utterance feature 220 of the vowel corresponding to the matrix value of the physical characteristic in the standard utterance feature matrix 205 of the vowel.

이때 자모음의 표준발화특징행렬(205)은 그 내부의 값들이 자모음 발화 기호, 2진수 내지 실수 중 하나 이상으로 존재할 수 있다.In this case, the standard speech feature matrix 205 of the consonants may exist as one or more of consonant utterance symbols, binary numbers and real numbers.

더불어, 도 16에 따르면, 데이터 해석부(200)는 상기 센서부에서 측정되는 구강설과 두경부 내외의 타 조음기관과의 물리특성을 통해 화자가 발화하는 자모음, 그에 따라 나타나는 어휘단위강세 (Lexical Stress), 문장단위강세(Tonic stress) 중 하나 이상의 발화 특징(220)을 파악한다.In addition, according to FIG. 16, the data analysis unit 200 is a consonant uttered by the speaker through the physical characteristics of the oral tongue measured by the sensor unit and other articulation organs inside and outside the head and neck, and thus the lexical unit stresses appearing accordingly. Identify one or more speech features 220 of stress, tonic stress.

도 20에 따르면. 상기 데이터 해석부(200)는 상기 센서부(100)에 의해 측정된 조음기관의 물리특징을 파악함에 있어서, 조음기관 물리특성을 취득하는 단계, 취득된 조음기관 물리특성이 가지고 있는 각 자모음 단위의 패턴을 파악하는 단계, 각 자모음 패턴으로부터 고유한 특징을 추출하는 단계, 상기 추출된 특징들을 분류하는 단계, 분류된 패턴의 특징들을 다시금 재조합하는 단계를 거치는 방식으로 작동되고, 이를 통해 최종적으로 특정 발화 특징으로 파악한다.According to FIG. 20. The data analyzing unit 200, in grasping the physical characteristics of the articulation engine measured by the sensor unit 100, acquiring articulation engine physical characteristics, and each consonant unit of the acquired articulation engine physical characteristics Determining the pattern of, extracting a unique feature from each consonant pattern, classifying the extracted features, and recombining the features of the classified pattern. Identify by specific speech characteristics.

도 21, 도 22, 23에 따르면, 상기 데이터 해석부(200)가 진행하는 발화특징 파악 알고리즘에 있어서, 상기 각 자모음의 단위의 패턴을 파악하는 단계는 조음기관 물리특성을 파악한 센서부(100)가 구강설일 경우에 x, y, z축을 기반으로 그 자모음 단위의 패턴을 파악한다. According to FIGS. 21, 22, and 23, in the speech feature grasping algorithm performed by the data analyzing unit 200, the step of identifying the pattern of the unit of each consonant may include: If) is the oral hypothesis, the pattern of the consonant unit is identified based on the x, y, and z axes.

상기 알고리즘은 K-nearset Neihbor(KNN), Artificial Neural Network(ANN), Convolutional Neural Network(CNN), Recurrent Neural Network(RNN), Restricted Boltzmann Machine(RBM), Hidden Markov Model(HMM) 중 하나이상의 알고리즘에 기반할 수 있다. The algorithm is applied to one or more of K-nearset Neihbor (KNN), Artificial Neural Network (ANN), Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), and Hidden Markov Model (HMM). Can be based.

실제로 도 22, 23에서는 상기 구강설 센서(110)가 벡터량의 변화량 내지 각도 변화량을 파악하는 센서로 구동될 경우, 화자의 발화를 측정함으로서 벡터량의 변화량, 각도 변화량을 파악하고, 이를 통해 고설성(Tongue Height)과 전설성(Tongue Frontness)을 가지는 모음 [i]으로 인지한다. 22 and 23, when the oral tongue sensor 110 is driven by a sensor that detects a change amount or an angle change amount of the vector amount, the change in the vector amount and the angle change amount are determined by measuring the utterance of the speaker. It is recognized as a vowel [i] with Tongue Height and Tongue Frontness.

또 다른 방법으로는 구강설 센서(110)가 압전신호 내지 마찰전기신호의 원리로 구동되는 센서일 경우, 압전에 따른 전기 신호 변화와 구강설 센서와 구강 내외부의 조음기관과 근접 내지 마찰하여 발생하는 마찰전기신호를 파악하여 고설성과 전설성을 가지는 모음 [i]으로 인지한다. As another method, when the oral tongue sensor 110 is a sensor driven based on the principle of piezoelectric or triboelectric signals, the oral tongue sensor 110 may be generated by the change of the electrical signal due to piezoelectricity and the proximity or friction of the oral tongue sensor and the articulator inside and outside the mouth. The triboelectric signal is identified and recognized as a vowel [i] with dullness and legend.

이 뿐만 아니라, [u]의 경우에도 같은 원리들을 기반으로, 고설성(Tongue Height: High)과 후설성(Backness)를 측정하여 해당 모음으로 파악하게 된다.In addition, in the case of [u] based on the same principle, it measures the height (Tongue Height: High) and backness (Backness) to determine the corresponding collection.

[ae]의 경우에도 같은 원리들을 기반으로, 저설성(Tongue Height: Low)r과 전설성(Tongue Frontness)를 측정하여 해당 모음으로 파악한다. In the case of [ae], based on the same principle, it measures the Tongue Height (Low) r and the Tongue Frontness as a corresponding collection.

더불어 도 23에 따르면, 구강설 센서(110)는 화자의 발화에 따라 발생한 [i], [u], [ae]과 같은 모음을 발화 특징(220)으로 측정한다. In addition, according to FIG. 23, the oral tongue sensor 110 measures vowels such as [i], [u], and [ae] generated by the speaker's speech as the speech characteristics 220.

이러한 모음의 발화 특징(220)은 상기 데이터베이스부(350)의 자모음의 음소 단위 색인(361)에 대응한다. The vowel speech feature 220 of the vowel corresponds to the phoneme unit index 361 of the consonant of the database unit 350.

도 24에 따르면, 구강설 센서(110)는 화자에 의해 발화된 특정 자음을 측정하고 상기 데이터 해석부(200)는 이를 발화특징(220)으로 측정한다. According to FIG. 24, the oral cavity sensor 110 measures a specific consonant uttered by the speaker, and the data analyzer 200 measures this as the utterance feature 220.

이러한 자음의 발화특징(220)은 상기 데이터 베이스부(350)의 자모음의 음소 단위 색인(361)에 대응되며, 이를 데이터 해석부(200)가 음성데이터(310)의 기반이 되는 Alveolar Stop으로 파악한다.The consonant utterance feature 220 of the consonant corresponds to the phoneme unit index 361 of the consonant of the database unit 350, and the data interpreter 200 is an Alveolar Stop on which the voice data 310 is based. Figure out.

도 25에 따르면, 구강설 센서(110)와 안면센서(120)는 화자에 의해 발화된 특정 자모음을 측정하고 데이터 해석부(200)는 이를 발화특징(220)으로 파악한다.According to FIG. 25, the oral tongue sensor 110 and the face sensor 120 measure a specific consonant uttered by the speaker, and the data analysis unit 200 recognizes this as the utterance feature 220.

이러한 자음의 발화특징(220)은 상기 데이터 베이스부(350)의 자모음의 음소 단위색인(361)에 대응되며, 이를 데이터 해석부(200)가 음성데이터(310)의 기반이 되는 Bilabial Stop으로 파악한다.The consonant utterance feature 220 of the consonant corresponds to the phoneme unit index 361 of the consonant of the database unit 350, and the data analysis unit 200 serves as a bilabial stop on which the voice data 310 is based. Figure out.

도 26은 본 발명에 따른 실제 실험 결과로서, 구강설 센서(110)와 안면센서(120)는 화자에 의해 발화된 특정 자모음을 측정하고, 데이터 해석부는 상기 발화 특징(220)으로 파악한다. FIG. 26 is an actual test result according to the present invention. The oral tongue sensor 110 and the face sensor 120 measure a specific consonant uttered by a speaker, and the data analyzer recognizes the utterance feature 220.

이러한 자음의 발화특징(220)은 상기 데이터 베이스부(350)의 자모음의 음소 단위색인(361)에 대응되며, 이를 데이터 해석부(200)가 음성데이터(310)의 기반이 되는 Voiced Bilabial Stop인 /버/와 Voiceless Bilabial Stop인 /퍼/로 파악하였다.The consonant utterance feature 220 of the consonant corresponds to the phoneme unit index 361 of the consonant of the database unit 350, and this is interpreted by the data interpreter 200 as the basis of the voice data 310 voiced bilabial stop. In / ver / and Voiceless Bilabial Stop, in / per /.

도 27에 따르면, 구강설 센서(110), 안면센서(120), 음성취득센서(130). 성대센서(140), 치아센서(150)은 화자에 의해 발화된 특정 자모음을 발화특징(220)으로 측정한다. According to FIG. 27, the oral tongue sensor 110, the face sensor 120, and the voice acquisition sensor 130. The vocal cord sensor 140 and the dental sensor 150 measure the specific consonant uttered by the speaker with the utterance feature 220.

이러한 자음의 발화특징(220)은 상기 데이터 베이스부(350)의 자모음의 음소 단위 색인(361)에 대응되며, 이를 데이터 해석부(200)가 음성데이터(310)의 기반이 되는 Voiced Labiodental Fricative로 파악한다.The consonant utterance feature 220 of the consonant corresponds to the phoneme unit index 361 of the consonant of the database unit 350, and the data interpreter 200 is a voiced labiodental fricative on which the voice data 310 is based. Figure out.

도 28에 따르면, 구강설 센서(110), 안면센서(120), 음성취득센서(130). 성대센서(140), 치아센서(150)는 화자에 의해 발화된 특정 자음을 발화특징(220)으로 측정한다. According to FIG. 28, the oral tongue sensor 110, the face sensor 120, and the voice acquisition sensor 130. The vocal cord sensor 140 and the dental sensor 150 measure the specific consonant uttered by the speaker with the utterance feature 220.

이러한 자음의 발화특징(220)은 상기 데이터 베이스부(350)의 자모음의 음소 단위 색인(361)에 대응되며, 이를 데이터 해석부(200)가 음성데이터(310)의 기반이 되는 Voiceless Labiodental Fricative로 파악한다. The consonant utterance feature 220 of the consonant corresponds to the phoneme unit index 361 of the consonant of the database unit 350, and the data analysis unit 200 is a voiceless labiodental fricative on which the voice data 310 is based. Figure out.

도 29에 따르면, 상기 촬상센서(160)는 화자(10)가 상기 구강설 센서(110), 안면센서(120), 음성취득센서(130). 성대센서(140), 치아센서(160) 중 하나이상을 사용하는 상황에서 발화할 시에 발생하는 두경부의 조음기관 변화정보(161), 두경부 표정변화정보(162), 비언어적 표현정보(163)를 음성데이터(310)로 인지하여 처리한다. According to Figure 29, the imaging sensor 160, the speaker 10, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130. Articulation change information (161), head and neck facial expression change information (162), non-verbal expression information (163) of the head and neck generated when the vocal cord sensor (140), when using one or more of the dental sensor 160 is ignited The voice data 310 is recognized and processed.

특히, 두경부의 일면에 위치한 안면센서는 레퍼런스 센서(121)를 기준으로 양극센서(122)와 음극센서(123)의 전위차를 가지고 그 자체 위치를 제공하며, 이는 상기 촬상센서(160)가 촬상함으로써 파악되는 물리적인 두경부의 조음기관 변화정보(161), 두경부 표정변화정보(162), 비언어적 표현정보(163)와 함께 음성데이터(310)으로 데이터 변환부(300)에 전달된다.In particular, the face sensor located on one surface of the head and neck has its own position with the potential difference between the anode sensor 122 and the cathode sensor 123 with respect to the reference sensor 121, which is provided by the imaging sensor 160 by imaging. The physical head and neck articulation organ change information 161, head and neck facial expression change information 162, and non-verbal expression information 163 are transmitted to the data converter 300 as voice data 310.

도 30에 따르면, 본 발명에 따라 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150), 촬상센서(160)가 화자에 의해 발화된 특정자음과 모음을 측정하고, 상기 데이터해석부(200)는 자음과 모음을 발화 특징(220)으로 파악한다. According to FIG. 30, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, the dental sensor 150, and the imaging sensor 160 according to the present invention are provided by the speaker. The specific consonants and vowels measured are measured, and the data analysis unit 200 recognizes the consonants and the vowels as the speech features 220.

이러한 각 자모음의 발화 특징(220)인 [b], [i], [f]는 상기 데이터 베이스부(350)의 자모음의 음소단위색인(361)에 각각 대응되며, 데이터 변환부(300)가 이를 /beef/ 내지 [bif]라는 음성데이터(310)로 파악한다.The speech features 220 of the respective consonants 220, b, i, and f correspond to phoneme indexes 361 of the consonants of the database unit 350, respectively, and the data converter 300 ) Recognizes this as voice data 310 called / beef / to [bif].

도 31에 따르면, 상기 데이터 베이스부(350)의 음성데이터 색인(360)은 자모음의 음소단위색인(361), 음절단위색인(362), 단어단위색인(363), 구절단위색인(364), 문장단위색인(365), 연속발화색인(366), 발음의 고저색인(367)으로 구성된다.According to FIG. 31, the voice data index 360 of the database unit 350 includes a phoneme unit index 361, a syllable unit index 362, a word unit index 363, and a phrase unit index 364. , Sentence unit index 365, continuous speech index 366, and high and low index 367 of pronunciation.

도 32에 따르면, 본 발명에는 데이터 해석부와 데이터 변환부 중 하나 이상이 외부에 위치하여 작동할 경우, 연동되어 통신할 수 있는 통신부(400)를 포함된다. According to FIG. 32, the present invention includes a communication unit 400 capable of interworking communication when at least one of the data analysis unit and the data conversion unit is located outside and operated.

상기 통신부는 유선 내지 무선으로 구현되며, 무선의 경우 블루투스, 와이파이, 3G, 4G, NFC 등 다양한 방법이 사용될 수 있다.The communication unit may be implemented by wire or wireless. In the case of wireless, various methods such as Bluetooth, Wi-Fi, 3G, 4G, and NFC may be used.

도 33, 도 34에 따르면, 본 발명에 따라 데이터 해석부와 연동되는 데이터 베이스부는 상기 음성데이터 색인을 이용하여 실제 발화에 따른 발화특징(220) 화자의 음성(230), 발화내역정보(240), 발화변이(250)를 음성데이터(310)로 파악한다. 33 and 34, according to the present invention, the database unit linked to the data analyzer according to the present invention uses the voice data index. The speech variation 250 is identified as the voice data 310.

도 33은 상기 도 23의 High Front tense Vowel과 High Back tense Vowel, 도 24의 Alveolar Sounds, 도 28의 Voiceless labiodental fricative를 포함하는 다양한 자모음 발화특징을 센서부가 측정하고 데이터 해석부가 반영한 실제데이터이다. FIG. 33 is actual data in which a sensor unit measures various consonant utterance features including the high front tense vowel and the high back tense vowel of FIG. 23, the alveolar sounds of FIG. 24, and the voiceless labiodental fricative of FIG. 28.

도 34은 상기 도 23의 High Front lax Vowel, 도 24의 Alveolar Sounds, 도 25의 Bilabial Stop Sounds를 포함하는 다양한 자모음 발화특징을 센서부가 측정하고 데이터 해석부가 반영한 실제데이터이다.FIG. 34 is actual data in which the sensor measures various consonant utterance features including the high front lax vowel of FIG. 23, the alveolar sounds of FIG. 24, and the bilabial stop sounds of FIG. 25, and reflects the data analyzer.

도 35에 따르면, 상기 센서부(100), 데이터 해석부(200), 데이터 변환부(300), 데이터 표현부(500), 데이터 베이스부(350)가 유기적으로 연동되어 작동하는 시스템임을 알 수 있다. According to FIG. 35, it can be seen that the sensor unit 100, the data analysis unit 200, the data conversion unit 300, the data expression unit 500, and the database unit 350 are organically interoperable systems. have.

더불어, 도 36에 따르면, 상기 센서부가 실제 조음기관에 위치하여 화자의 발화에 따른 조음기관 물리특성을 측정하고 이를 상기 데이터 해석부로 전달하고 상기 데이터 해석부는 이를 음성데이터로 해석한다. In addition, according to Figure 36, the sensor unit is located in the actual articulation engine to measure the physical characteristics of the articulation engine according to the utterance of the speaker, and transmits it to the data analysis unit, the data analysis unit interprets it as voice data.

상기 해석된 음성데이터는 데이터 표현부로 전달되며, 그 음성데이터의 해석 과정과 표현과정에서 데이터 베이스부가 연동되어 작동함을 알 수 있다.The interpreted voice data is transmitted to the data representation unit, and it can be seen that the database unit works in conjunction with the interpretation process and the representation process of the voice data.

도 37부터 도 41까지는 센서부(100)에 의해 획득된 화자의 두경부 조음기관의 물리특성이 데이터 해석부(200)를 통해 센서부의 위치(210), 발화특징(220), 화자의 음성(230), 발화내역정보(240), 발화변이(250)로 파악된다. 37 to 41, the physical characteristics of the head and neck articulator of the speaker obtained by the sensor unit 100 are determined by the sensor 210 through the data analyzer 200, the position of the sensor 210, the speech feature 220, and the speaker 230. ), The utterance history information 240, and the utterance variation 250 is identified.

이후, 이러한 상기 정보들은 데이터 변환부(300)에서 음성데이터(310)로 변환되며, 데이터 표현부(500)에서 외부로 표현된다. Thereafter, the information is converted into the voice data 310 by the data converter 300, and is externally represented by the data expression unit 500.

이때, 도 37은 음성데이터(310)를 데이터 표현부(500)가 청각적으로 표현하는 것을 나타낸 것이다. In this case, FIG. 37 illustrates that the data expression unit 500 audibly expresses the voice data 310.

도 38은 데이터 표현부(500)가 음성데이터(310)를 시각적으로 표현함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 음성데이터 색인(360)과 비교하여, 실제 표준발음의 광역표기(broad description)와 함께 강세의 정오도, 유사근접도, 발화의도 중 하나이상을 측정한 수치와 음성을 제공하는 것을 나타낸 것이다. FIG. 38 illustrates that the data expression unit 500 visually expresses the voice data 310, and indicates the physical characteristics of the speaker's articulation engine measured by the data analysis unit 200. The voice data index of the database unit 350 is shown in FIG. Compared with (360), the present invention provides a broad description of the actual standard phonetic sound and a numerical value and a voice that measure one or more of bullish noon, similar proximity, and intention to speak.

도 39는 데이터 표현부(500)가 음성데이터(310)를 시각과 청각적으로 표현함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 음성데이터 색인(360)과 비교하여, 실제표준발음의 미세표기(narrow description)와 함께 강세의 정오도, 유사근접도, 발화 의도 중 하나이상을 측정한 수치와 음성을 함께 제공하는 것을 나타낸 것이다. FIG. 39 illustrates that the data expression unit 500 expresses the voice data 310 visually and aurally, and indicates the physical characteristics of the speaker's articulation engine measured by the data analysis unit 200. Compared with the voice data index 360, the present invention provides a negative description of the actual standard phonetic sound along with a numerical value and a voice which measure one or more of bullish noon, similar proximity, and intention to speak.

도 40은 데이터 표현부(500)가 음성데이터(310)를 시각적으로 표현함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 음성데이터 색인(360)과 비교하여, 실제 표준 발음의 미세표기(narrow description)와 함께 강세의 정오도, 유사근접도, 발화의도 중 하나 이상을 측정한 수치, 그리고 해당 음성데이터(310)가 단어로서 단어단위색인(363)에 대응할 경우, 그에 해당하는 이미지와 해당 음성을 함께 제공하는 것을 나타낸 것이다. 40 illustrates that the data expressing unit 500 visually expresses the voice data 310, the physical characteristics of the speaker's articulation engine measured by the data analyzing unit 200 are indexed by the voice data of the database unit 350. Compared with (360), the numerical value measuring one or more of the accent noon, similar proximity, intention to speak with a narrow description of the actual standard pronunciation, and the corresponding speech data 310 is a word as a word In the case of corresponding to the unit index 363, it shows that the corresponding image and the corresponding voice are provided together.

도 41은 데이터 표현부(500)가 음성데이터(310)를 시각과 청각적으로 표현함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 음성데이터 색인(360)과 비교하여, 실제 표준 발음의 미세표기(narrow description)와 함께 강세의 정오도, 유사근접도, 발화 의도 중 하나 이상을 측정한 수치를 제공하고 화자에 의한 음성데이터(310)를 교정하고 강화할 수 있도록 해당 발음을 발화할 수 있는 발화교정 이미지를 함께 제공하는 것을 나타낸 것이다. FIG. 41 illustrates that the data expression unit 500 expresses the voice data 310 visually and aurally, indicating the physical characteristics of the speaker's articulation engine measured by the data analysis unit 200. Compared to the voice data index 360, the voice data 310 provided by the speaker is provided with a numerical value measuring one or more of the accent noon, similar proximity, and intention to speak, along with a narrow description of the actual standard pronunciation. ) To provide a correction image to utter the pronunciation so that the pronunciation can be enhanced.

도 42는 데이터 표현부(500)가 상기 음성데이터(310)를 문자로 시각화하고 소리로 신호화하여 제공함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 자모음 음소 단위 색인(361), 음절단위 색인(362), 단어단위 색인(363), 구절 단위 색인(364), 문장 단위 색인(365) 중 하나이상의 음성데이터 색인(360)과 비교한다. 이러한 음성데이터(310)를 트레이닝부(500)가 화자의 음성데이터(310)에 관련된 실제 표준 발음의 미세표기(narrow description)와 함께 강세의 정오도, 유사근접도, 발화 의도 중 하나이상을 측정한 음성와 소리로 제공하여 화자가 음성데이터(310)를 교정하고 강화할 수 있도록 돕는다.FIG. 42 illustrates that the data expression unit 500 visualizes the voice data 310 in a text form and provides a signal for sound. The data expression unit 500 provides a database of physical characteristics of the speaker's articulation engine measured by the data analyzer 200. Speech data index 360 of one or more of consonant phoneme unit index 361, syllable unit index 362, word unit index 363, phrase unit index 364, sentence unit index 365 of section 350 Compare with The voice data 310 measures the one or more of stressed noon, pseudo-proximity, and speech intention together with a narrow description of actual standard pronunciation related to the speaker's voice data 310. It provides a voice and sound to help the speaker to correct and enhance the voice data 310.

도 43는 데이터 표현부(500)가 상기 음성데이터(310)를 음성, 그림, 사진, 영상 중 하나이상으로 시각화하여 제공한다. FIG. 43 illustrates that the data expression unit 500 visualizes the voice data 310 as one or more of a voice, a picture, a picture, and an image.

이 때 상기 데이터 해석부(200)는 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 자모음 음소단위색인(361), 음절단위 색인(362), 단어단위 색인(363), 구절단위색인(364), 문장단위색인(365) 중 하나 이상의 음성데이터 색인(360)과 비교한다. At this time, the data analysis unit 200 measures the physical characteristics of the speaker's articulation organ by using the consonant phoneme index index 361, syllable unit index 362, word unit index 363, and the like of the database unit 350. One or more of the phrase unit index 364 and the sentence unit index 365 are compared with the voice data index 360.

더불어, 문자로 시각화될 경우, 실제 표준발음의 미세표기(narrow description)와 광역표기 (broad description)를 모두 제공한다. 이를 통해 음성데이터(310)를 실제 표준 발음의 미세표기(narrow description) 및 광역표기 (broad description)와 함께 강세의 정오도, 유사근접도, 발화의도 중 하나이상을 측정한 음성와 소리로 제공하여 화자가 음성데이터(310)를 교정하고 강화할 수 있도록 돕는다.In addition, when visualized as a letter, both a narrow description and a broad description of the actual standard pronunciation are provided. Through this, the voice data 310 is provided as a voice and a sound measured by measuring one or more of bullish noon, similar proximity, and intention to speak together with a narrow description and a broad description of the actual standard pronunciation. Helps the speaker to correct and enhance voice data 310.

도 44는 데이터 표현부(500)가 상기 음성데이터(310)를 문자로 시각화하여 제공함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 자모음 음소 단위 색인(361), 음절단위 색인(362), 단어단위 색인(363), 구절단위색인(364), 문장단위색인(365), 연속발화색인(366) 중 하나이상의 음성데이터 색인(360)과 비교한다. FIG. 44 illustrates that the data expression unit 500 visualizes the voice data 310 as a text and provides the physical characteristics of the speaker's articulation engine measured by the data analysis unit 200. Speech data index of one or more of consonant phoneme unit index (361), syllable unit index (362), word unit index (363), phrase unit index (364), sentence unit index (365), continuous speech index (366) 360).

이러한 음성데이터(310)를 실제 표준 발음의 미세표기(narrow description) 및 광역표기 (broad description)와 함께 강세의 정오도, 유사근접도, 발화 의도 중 하나이상을 측정한 연속 발화 단위의 음성와 소리로 제공하여 화자가 음성데이터(310)를 교정하고 강화할 수 있도록 돕는다.The voice data 310 is used as a voice and a sound of a continuous speech unit that measures one or more of stressed noon, similar proximity, and intention to speak, together with a narrow description and a broad description of the actual standard pronunciation. Provides help the speaker to correct and enhance the voice data 310.

도 45는 데이터 표현부(500)가 상기 음성데이터(310)를 문자로 시각화하고 소리로 신호화하여 제공함에 있어서, 상기 데이터 해석부(200)가 측정한 화자의 조음기관의 물리특성을 데이터 베이스부(350)의 자모음 음소단위색인(361), 음절단위 색인(362), 단어단위 색인(363), 구절단위 색인(364), 문장단위 색인(365), 연속발화색인(366), 발음의 고저 색인(367) 중 하나 이상의 음성데이터 색인(360)과 비교한다. FIG. 45 illustrates that the data expression unit 500 visualizes the voice data 310 in a text form and provides a signal by sound. The data expression unit 500 provides a database of physical characteristics of the speaker's articulation engine measured by the data analysis unit 200. Phoneme consonant index (361), syllable unit index (362), word unit index (363), phrase unit index (364), sentence unit index (365), continuous speech index (366) Compare to one or more voice data index 360 of the high and low index (367).

이러한 음성데이터(310)를 실제 표준발음의 미세표기(narrow description) 및 광역표기 (broad description)와 함께 강세의 정오도, 유사근접도, 발화 의도 중 하나 이상을 측정한 음성과 소리로 제공하여 화자가 음성데이터(310)를 교정하고 강화할 수 있도록 돕는다.The voice data 310 is provided as a voice and a sound by measuring one or more of noon, similar proximity, and intention to speak together with a narrow description and a broad description of the actual standard pronunciation. Helps to calibrate and enhance voice data 310.

도 46에 따르면, 상기 촬상센서(160)는 발화에 따른 화자의 두경부 조음기관의 외관상 변화를 촬상하고, 상기 데이터 해석부(200)는 이를 통해 화자의 두경부 조음기관의 변화정보(161), 두경부 표정변화정보(162)를 파악한다. According to FIG. 46, the imaging sensor 160 captures a change in appearance of the head and neck articulation engine of the speaker according to the utterance, and the data analyzer 200 changes information 161 of the head and neck articulation engine of the speaker through the head and neck. The facial expression change information 162 is grasped.

이때 상기 센서부(100)의 구강설 센서(110), 안면센서(120), 음성취득센서(130). 성대센서(140). 치아센서(150)을 통해 파악된 화자의 발화 특징(210)도 함께 데이터 해석부(200)가 고려하게 된다. At this time, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130 of the sensor unit 100. Vocal cord sensor 140. The data analysis unit 200 also considers the utterance feature 210 of the speaker identified through the dental sensor 150.

도 47에 따르면, 상기 센서부(100)의 구강설 센서(110), 안면센서(120), 음성취득센서(130). 성대센서(140). 치아센서(150)는 화자의 발화 특징(210)을 파악하고, 상기 촬상센서(160)는 화자의 두경부 조음기관의 변화정보(161), 두경부 표정 변화정보(162)를 파악한다. According to FIG. 47, the oral tongue sensor 110, the face sensor 120, and the voice acquisition sensor 130 of the sensor unit 100. Vocal cord sensor 140. The dental sensor 150 grasps the speaker's utterance feature 210, and the imaging sensor 160 grasps change information 161 and head and neck facial expression change information 162 of the head and neck articulation organ of the speaker.

이를 상기 데이터 해석부(200)가 표준발화 특징행렬(205)를 기반으로 상기 두경부 조음기관의 변화정보(161), 두경부 표정변화정보(162)에 대응하는 발화특징을 결합시킨다. The data analysis unit 200 combines the speech features corresponding to the change information 161 of the head and neck articulation organ and the head and neck facial expression change information 162 based on the standard speech feature matrix 205.

도 47, 54에 따르면, 상기 데이터 해석부(200)는 발화 특징을 파악하기 위해서 Time Domain의 Variance, 주파수 영역의 Cepstral Coefficient, Linear Predict Coding Coefficient를 사용하는 특징 추출 알고리즘을 대표하여 사용한다.According to FIGS. 47 and 54, the data analyzer 200 uses a representative feature extraction algorithm using Variance of Time Domain, Cepstral Coefficient in the frequency domain, and Linear Predict Coding Coefficient in order to identify the utterance characteristics.

데이터의 분산 정도를 나타내는 Variance는 다음 [수학 식1]에 따라 계산되며, n은 모집단의 네트워크, 는 수집된 조음기관 물리 특성인 데이터의 모집단의 평균, 는 수집된 조음기관 물리 특성인 데이터들을 나타낸다.Variance, which represents the degree of dispersion of the data, is calculated according to Equation 1 below, where n is the network of the population, is the mean of the population of the collected articulator physical properties, and is the data of the collected articulator physical properties. .

Figure pat00001
Figure pat00001

[수학식1][Equation 1]

Cepstral Coefficient는 주파수의 세기를 정형화하기 위해 다음 [수학식 2]로 계산된다. 는 역 푸리에급수 변환인 Inverse Fourrier Transform을 나타내고, X(f)는 신호에 대한 주파수의 스펙트럼을 나타낸다. 본 예시에서는 Cepstral의 Cofficent는 n=0일 때의 값을 활용하였다.Cepstral Coefficient is calculated by the following Equation 2 to formulate the strength of the frequency. Denotes an Inverse Fourrier Transform, which is an inverse Fourier series transform, and X (f) denotes a spectrum of frequencies for the signal. In this example, Cofficent of Cepstral utilizes the value when n = 0.

[수학식2][Equation 2]

Figure pat00002
Figure pat00002

Linear Predict Coding Coefficient는 주파수의 선형적 특성을 나타내는 것으로 다음[수학식 3]에 따라 계산된다. 다음 n은 표본의 개수를 나타내며, 는 Linear Predict Coding Coefficient 계수이다. Cepstral의 계수는 n=1일때의 값을 사용하였다.Linear Predict Coding Coefficient represents the linear characteristic of frequency and is calculated according to Equation 3 below. N is the number of samples, and is the linear predictive coding coefficient. As the coefficient of Cepstral, the value when n = 1 was used.

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

더불어, 조음기관 물리 특성인 데이터를 유사도에 따라 묶고 예측데이터를 생성하여 각 데이터를 분류하는 ANN을 활용하였다. 이를 통해, 화자가 최초 발화에 대해 표준 발화에 대비하여 본인 발화 내용의 정오도, 근접유사도, 발화 의도를 파악할 수 있게 된다. In addition, ANN was used to classify the data of the articulator organs according to similarity and generate prediction data to classify each data. Through this, the speaker can grasp the noon, proximity similarity, and intention of the utterance of his utterance in preparation for the standard utterance.

이를 바탕으로 화자는 자신에 발화 내용에 대한 피드백을 얻고 지속적으로 발화교정을 위한 재발화를 실시한다. 이러한 반복적 조음기관 물리특성 데이터 입력 방식을 통해 많은 조음기관 물리 특성 데이터가 모이고 ANN의 정확도가 증가한다. Based on this, the speaker gets feedback on the contents of the utterances and continuously executes the utterances for utterance correction. Through this repetitive articulation data input method, a large amount of articulation data of physical arts is gathered and accuracy of ANN is increased.

본 연구에서는 입력 데이터인 조음기관 물리 특성을 10개의 자음으로 선정하였고, 추출과정에서 5개의 조음위치인 Bilabial, Alveolar, Palatal, Velar, Glottal로 분류되었다. 이를 위해, 상기 5개의 조음위치에 해당하는 10개의 자음을 순서대로 100번씩, 총 1000번 무작위로 50번씩 총 500번 발음을 하였다. In this study, the input consonant physics was selected as 10 consonants, and five extraction positions were classified into Bilabial, Alveolar, Palatal, Velar, and Glottal. To this end, 10 consonants corresponding to the five articulation positions were pronounced 100 times in order, 1000 times in total, 50 times in total, and 500 times in total.

이에 따라, 도 47과 같이 자음 분류를 위한 Confusion Matrix가 형성되었다. 이를 기반으로 각 조음위치마다 발화되는 자음의 개수가 상이하다는 것을 고려하여, 다음 도 48과 같이 백분율로 나타내었다. Accordingly, a confusion matrix for consonant classification is formed as shown in FIG. 47. On the basis of this, considering that the number of consonants spoken in each of the articulation positions is different, it is shown as a percentage as shown in FIG.

이를 통해, 화자는 표준 발화와 대비하여 발음의 정오도 및 근접유사도가 낮은 Palatal과 관련하여, 자음을 제대로 발화하지 못함을 알 수 있다. Through this, it can be seen that the speaker cannot utter consonants properly with respect to Palatal, which has low noon and close similarity as compared to the standard speech.

또한 도 52에 따르면, Palatal과 관련된 자음을 발화하고자 하였으나 Alveolar와 관련된 자음으로 잘못 발화한 경우는 17%이다. 이는 화자가 Palatal과 관련된 자음과 Alveolar와 관련된 자음 간의 차이를 명확히 인지하지 못함을 의미한다. In addition, according to FIG. 52, 17% of cases attempt to utter consonants related to Palatal but erroneously utter consonants related to Alveolar. This means that the speaker does not clearly recognize the difference between the consonant associated with Palatal and the consonant associated with Alveolar.

도 49에 따르면, 청음을 주관하는 신체의 요소는 외이(3100), 중이(3200), 내이(3300)를 포함하는 청각계(3000)로 이루어져 있고, 상기 청각계(3000)가 불완전하고 기능을 온전히 못할 경우, 두경부 외측일면(4100), 두경부 내측일면(4200), 두경부 측면 내골(4300)을 포함하는 유사대체기관종(4000)이 이를 보완하고 대체한다. According to FIG. 49, an element of the body that controls hearing includes an auditory system 3000 including an outer ear 3100, a middle ear 3200, and an inner ear 3300, and the auditory system 3000 is incomplete and functions. If not completely, the head and neck outer side (4100), head and neck inner side (4200), head and neck similar inner organs (4300), including the replacement body species (4000) is complemented and replaced.

청음과 관련한 장애유형은 환경적 요소에 의한 장애와 청각계의 물리적 손상에 의한 전음성 난청 및 생물학적 손상에 따른 감각신경성 난청과 같은 신체적 요소에 의한 장애가 있다. The types of disability related to hearing are disorders due to environmental factors and physical factors such as preneural hearing loss due to physical damage to the auditory system and sensorineural hearing loss due to biological damage.

자세히 말하자면, 환경적 요소에 의한 장애는 청음 시 주변환경의 소음으로 매질인 공기에 의해 전달되는 음성을 비롯한 소리 등이 외이(3100)에서 중이(3200)에 제대로 이르지 못하거나 많은 방해를 받게 되는 경우이다. In detail, the obstacle caused by environmental factors is that when the sound of the surrounding environment is not properly reached from the outer ear (3100) to the middle ear (3200) or is disturbed by the noise of the surrounding environment. to be.

더불어, 매질인 공기가 부족하거나 전무한 바다 내지 우주 등의 공간에서도 음성을 비롯한 소리 등을 제대로 청음할 수 없는 환경적인 장애를 겪게 된다. In addition, there is a lack of air as a medium or an environmental obstacle that cannot properly listen to sounds and sounds even in the sea or the space such as the universe.

신체적인 장애에 관련한 예로서는, 외이(3100)와 관련한 손상은 외이도 및 고막의 손상에 의한 증폭 제한이 있다. As an example related to a physical disorder, the damage associated with the outer ear 3100 is amplification limited by damage to the ear canal and eardrum.

이를 해결하기 위해서는 전음성 난청의 경우에는 음파를 선형으로 증폭시켜 고막으로 전달하고 감각신경성 난청을 극복하기 위해서는 비선형 내지 압축 증폭을 해야 한다. In order to solve this problem, in the case of all-negative hearing loss, the sound wave is linearly amplified and delivered to the eardrum.

중이(3200)와 관련한 손상은 중이 내 청소골의 손상으로 인하여 증폭이 제한된 경우가 있다. Injury associated with the middle ear 3200 may be limited in amplification due to damage to the inner ear bones.

이 경우에는, 청각계 중 중이에 위치한 청소골을 직접 자극하여 해결하거나, 청각계가 아닌 유사대첵관종(4000)중에서 두경부 측면 내골(4300)을 매개로 골전도 효과를 이용하는 방법이 있다. In this case, there is a method of directly stimulating the scavenging bone located in the middle ear of the auditory system, or using the bone conduction effect through the medial neck lateral bone 4300 in the pseudolarva tubular tube (4000) that is not the auditory system.

내이(3300)와 관련된 손상은 달팽이관 손상에 따른 내림프액 진동을 통한 파형 생성의 제한으로 음성이 청전기신호로 변환되지 못해 청신경으로 도달하지 못하는 경우가 있다. Injury associated with the inner ear 3300 is limited in the generation of waveforms through endoscopic fluid oscillation due to cochlear damage, and thus the voice cannot be converted into a hearing signal and thus cannot reach the auditory nerve.

이를 해결하기 위해서는 달팽이관 안에 전극을 배치하여 종래의 인공와우의 형태를 청신경에 청전기신호를 전달하는 방법이 있다. 또는 종래의 인공뇌간과 같이 대뇌에 청전기신호를 바로 전달하는 방법으로도 해결할 수 있다.In order to solve this problem, there is a method of distributing a conventional cochlear implant to the auditory nerve by placing an electrode in the cochlea. Alternatively, it may be solved by a method of directly transmitting a hearing signal to the cerebrum as in the conventional artificial brain stem.

도 50에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 50, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 청각계 중 외이에 위치하여 음성데이터를 수신하고 스피커부(1200) 역시 외이의 일면에 위치하여 음성데이터(310)를 음파(510)로 송출하여 중이, 특히 고막(3210)에 전달한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located in the outer ear of the auditory system to receive voice data, and the speaker unit 1200 is also located on one surface of the outer ear to convert the voice data 310 into the sound wave 510. It is sent out and delivered to the middle ear, especially the tympanic membrane 3210.

도 51에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 51, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 청각계 중 귓바퀴(3110)를 포함한 외이 일면에 위치하여 음성데이터를 수신하고, 스피커부(1200) 역시 외이의 일면에 위치하여 음성데이터(310)를 음파(510)로 송출하되 증감조절부(1210)를 통해 음성데이터(310)의 고주파수 영역 내지 전체 영역이 증폭 내지 감소시켜 중이, 특히 고막(3210)에 전달한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side of the outer ear including the auricle 3110 of the auditory system to receive voice data, and the speaker unit 1200 is also located on one side of the outer ear and the voice data 310 is transmitted to the sound wave 510, but the high-frequency region or the entire region of the voice data 310 is amplified or reduced through the increase / decrease control unit 1210 to transmit to the middle ear, especially the eardrum 3210.

이때, 증감조절부(1210)는 화자의 상기 음성데이터(310)의 각 자모음이 지닌 고유한 주파수인 F값(Formant Frequency)을 F1, F2, F3를 구분하여 선별적으로 증폭 내지 감소시켜 조절할 수 있게 된다.In this case, the increase / decrease control unit 1210 selectively adjusts or decreases the F value (Formant Frequency), which is a unique frequency of each consonant of the speaker's voice data 310, by classifying F1, F2, and F3. It becomes possible.

도 52에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 52, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 청각계 중 외이에 위치하여 음성데이터를 수신하고, 전도진동부(1300)는 외이도(3120) 일면에 위치하여 음성데이터(310)를 진동파(520)로 중이(3200), 특히 고막(3210)에 전달한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located in the outer ear of the auditory system to receive voice data, and the conduction vibration unit 1300 is located on one surface of the ear canal 3120 to vibrate the voice data 310. 520 to middle ear 3200, particularly tympanic membrane 3210.

도 53에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 53, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고 그와 인접한 전도진동부(1300)는 두경부 측면 내골(4300)을 매개로 음성데이터(310)를 진동파(520)로 송출하여 내이(3300)에 전달한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side outer surface 4100 of the head and neck portion of the similar substitute organ model 4000 to receive the voice data 310 and the conduction vibration unit 1300 adjacent thereto is the head and neck portion. The voice data 310 is transmitted as the vibration wave 520 through the side end bone 4300 and transmitted to the inner ear 3300.

도 54에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. 이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. According to FIG. 54, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고, 중이(3200)의 일면에 위치한 전도진동부(1300)는 음성데이터(310)를 진동파(520)로 송출하여 내이(3200), 특히 청소골(3220)에 전달한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organs 4000 to receive the voice data 310, the conduction team located on one side of the middle ear (3200) The eastern portion 1300 transmits the voice data 310 to the vibration wave 520 and transmits the voice data 310 to the inner ear 3200, particularly, the cleaning bone 3220.

도 55에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 55, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the dental sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. 데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000.

이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고 그와 인접한 제1전도진동부(1301)가 음성데이터(310)를 진동파(520)로 선행하여 송출하고 중이(3200)에 위치한 제2전도진동부(1302)가 상기 제1전도진동부(1301)에서 전달된 음성데이터(310)를 후행하여 내이(3200), 특히 청소골(3220)에 전달한다. At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organ model 4000 to receive the voice data 310 and the first conduction vibration unit 1301 adjacent thereto. The voice data 310 is transmitted in advance by the vibration wave 520, and the second conduction vibration unit 1302 located in the middle ear 3200 follows the voice data 310 transmitted from the first conduction vibration unit 1301. Inner ear (3200), in particular delivered to the cleaning bone (3220).

도 56에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. According to FIG. 56, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do.

이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. 데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000.

이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고, 내이(3300) 중 달팽이관(3310)의 외부 일면 위치한 하나이상의 기준전갈전극(1410)과 달팽이관(3310)의 내부 일면에 위치한 하나이상의 활성전갈전극(1420)으로 이루어진 전기전갈부(1400)는 음성데이터(310)를 청전기자극(530)으로 송출하여 내이(3200), 특히 청소골(3210)에 전달한다. 이에 따라, 청신경(3320)이 상기 청전기자극(530)을 수용한다 At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organs 4000 to receive the voice data 310, the cochlea 3310 of the inner ear (3300) The electrical messaging unit 1400 including one or more reference messaging electrodes 1410 located on one side of the outer surface and one or more active messaging electrodes 1420 located on one of the inner surfaces of the cochlear 3310 has a voice data 310 for the electrical stimulation 530. And send it to the inner ear 3200, especially the cleaning bone 3210. Accordingly, the auditory nerve 3320 receives the hearing stimulus 530.

도 57에 따르면, 데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고, 내이(3300) 중 달팽이관(3310)의 외부 일면에 위치한 하나이상의 기준전갈전극(1410)과 하나이상의 활성전갈전극(1420)으로 이루어진 전기전갈부(1400)는 음성데이터(310)를 청전기자극(530)으로 송출하여 내이(3200), 특히 청소골(3210)에 전달한다. 이에 따라, 청신경(3320)이 상기 청전기자극(530)을 수용한다.According to FIG. 57, the data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the electric sound device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organs 4000 to receive the voice data 310, the cochlea 3310 of the inner ear (3300) The electrical messaging unit 1400 including one or more reference messaging electrodes 1410 and one or more active messaging electrodes 1420 located on one outer surface of the inner ear 3200 transmits voice data 310 to the stimulator 530. In particular, to deliver to clean bone (3210). Accordingly, the auditory nerve 3320 receives the hearing stimulus 530.

도 58에 따르면, 데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고, 내이(3300) 중 달팽이관(3310)의 외부 일면에 위치한 하나이상의 기준전갈전극(1410)과 단일한 활성전갈전극(1420)으로 이루어진 전기전갈부(1400)는 음성데이터(310)를 청전기자극(530)으로 송출하여 내이(3200), 특히 청소골(3210)에 전달한다. 이에 따라, 청신경(3320)이 상기 청전기자극(530)을 수용한다.Referring to FIG. 58, the data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the sound source device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organs 4000 to receive the voice data 310, the cochlea 3310 of the inner ear (3300) The electrical messaging unit 1400 including one or more reference messaging electrodes 1410 and a single active messaging electrode 1420 located on an outer surface of the inner ear 3200 transmits voice data 310 to the stimulator 530. In particular, to deliver to clean bone (3210). Accordingly, the auditory nerve 3320 receives the hearing stimulus 530.

도 59에 따르면, 화자의 두경부에 위치한 구강설 센서(110), 안면센서(120), 음성취득센서(130), 성대센서(140), 치아센서(150)는 화자의 조음기관 물리특성을 센싱한다. 이를 바탕으로 데이터 해석부(200)는 발화특징(220) 및 화자의 음성(230) 등을 파악한다. 이를 기반으로 데이터변환부(300)는 상기 화자의 발화 특징(220) 및 화자의 음성(230) 등에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되어 음성데이터(310)를 생성한다. According to FIG. 59, the oral tongue sensor 110, the face sensor 120, the voice acquisition sensor 130, the vocal cord sensor 140, and the tooth sensor 150 located in the head and neck of the speaker sense physical characteristics of the speaker's articulation organ. do. Based on this, the data analysis unit 200 grasps the speech feature 220 and the speaker's voice 230. Based on this, the data converter 300 is interlocked with the database unit 350 including at least one voice data index 360 corresponding to the speaker's speech feature 220 and the speaker's voice 230. Generate 310.

데이터 표현부(500)는 상기 음성데이터(310)를 전음장치(1000)로 전달한다. 이때, 상기 전음장치(1000)의 데이터수신부(1100)는 유사대체기관종(4000) 중 두경부 일측외면(4100)에 위치하여 음성데이터(310)를 수신하고, 두경부 일측내면(4200)으로 이어져 대뇌(3330)에 인접한 하나이상의 기준전갈전극(1410)과 하나이상의 활성전갈전극(1420)으로 이루어진 전기전갈부(1400)는 음성데이터(310)를 청전기자극(530)으로 송출하여 대뇌(3330)에 전달한다. 이에 따라,대뇌(3330)는 상기 청전기자극(530)을 바로 수용한다. The data expression unit 500 transmits the voice data 310 to the electrophony apparatus 1000. At this time, the data receiving unit 1100 of the transom device 1000 is located on one side outer surface 4100 of the head and neck of the similar substitute organs 4000 to receive the voice data 310, and leads to one side inner surface 4200 of the head and neck The electrical messaging unit 1400 including one or more reference messaging electrodes 1410 and one or more active messaging electrodes 1420 adjacent to the 3330 transmits the voice data 310 to the hearing stimulus 530 to the cerebrum 3330. To pass on. Accordingly, the cerebral 3330 directly receives the hearing stimulus 530.

도 60에 따르면, 상기 데이터 표현부(500)의 전음장치(1000)를 구성하는 전도진동부(1300)는 상기 변환된 음성데이터(310)를 진동자(1310)를 통해 진동파(520)로 재변환시켜 제공하는 데, 이때 여러 종류의 진동자와 및 그 동작 원리가 제공될 수 있다. Referring to FIG. 60, the conduction vibration unit 1300 constituting the electric sound device 1000 of the data expression unit 500 reconverts the converted voice data 310 into the vibration wave 520 through the vibrator 1310. In this case, various types of vibrators and operating principles thereof may be provided.

먼저 로렌츠 힘을 이용한 진동자로써 W-Type과 C-Type의 두 진동자 모델이 있다. 상기 두 가지 형태의 진동자는 좌측의 그림1)과 그림2)의 스피커 개념도와 같이 원통형 마그넷과 도넛형 마그넷을 이용하여 자장을 형성한 후, 자장 내에 코일을 두어 전류에 의해 인가되는 로렌츠힘을 이용하여 동작한다. First, there are two oscillator models, W-Type and C-Type, which are Lorentz forces. The two types of vibrators form magnetic fields using cylindrical magnets and donut magnets as shown in the speaker diagrams of Fig. 1) and Fig. 2) on the left, and then use a Lorentz force applied by current by placing a coil in the magnetic field. To work.

다른 방식으로, 우측 그림3)과 그림4)에서 보이는 것처럼, E-Type 진동자는 전자석을 이용한 진동자로서 스피커 기능과 진 동자 기능을 동시에 가지는 R+V 복합형과 진동자 단독 형태인 V 단동형 두 모델이 있다. 두 모델 모두 원통형 전자석과 도넛형 마그넷에 부착된 원판형 메탈 플레이트 간의 자기력을 이용하여 동작한다. Alternatively, as shown in Figs. 3 and 4) on the right, the E-Type oscillator is an electromagnet-type oscillator with two R + V complexes and a single V oscillator, both speaker and oscillator functions. There is this. Both models operate using magnetic forces between a cylindrical electromagnet and a disc-shaped metal plate attached to a donut magnet.

도면에 기재된 방법 외에도 센서부의 경우 다음과 같은 것들이 포함 될 수 있다.In addition to the method described in the drawings, the sensor unit may include the following.

1. 압력센서: MEMS 센서, Piezoelectric (압력-전압) 방식, Piezoresistive (압력-저항) 방식, Capacitive 방식, Pressure sensitive 고무 방식, Force sensing resistor (FSR) 방식, Inner particle 변형 방식, Buckling 측정 방식.1. Pressure sensor: MEMS sensor, Piezoelectric method, Piezoresistive method, Capacitive method, Pressure sensitive rubber method, Force sensing resistor (FSR) method, Inner particle deformation method, Buckling measurement method.

2. 마찰 센서: 마이크로 hair array 방식, 마찰온도 측정방식.2. Friction sensor: Micro hair array method, friction temperature measurement method.

3. 정전기 센서: 정전기 소모 방식, 정전기 발전 방식.3. Electrostatic sensor: electrostatic consumption, electrostatic generation.

4. 전기저항 센서: 직류저항 측정방식, 교류저항 측정방식, MEMS, Lateral 전극 array 방식, Layered 전극 방식, Field Effect Transistor (FET) 방식 (Organic-FET,Metal-oxide-semiconductor-FET, Piezoelectric-oxide-semiconductor -FET 등 포함).4. Electric resistance sensor: DC resistance measurement method, AC resistance measurement method, MEMS, Lateral electrode array method, Layered electrode method, Field Effect Transistor (FET) method (Organic-FET, Metal-oxide-semiconductor-FET, Piezoelectric-oxide) -semiconductor -FET etc.).

5. Tunnel Effect Tactile 센서: Quantum tunnel composites 방식, Electron tunneling 방식, Electroluminescent light 방식.5. Tunnel Effect Tactile Sensor: Quantum tunnel composites, Electron tunneling, Electroluminescent light.

6. 열저항 센서: 열전도도 측정방식, Thermoelectric 방식.6. Thermal resistance sensor: thermal conductivity measurement method, thermoelectric method.

7. Optical 센서: light intensity 측정방식, refractive index 측정방식.7. Optical sensor: light intensity measurement, refractive index measurement.

8. Magnetism based 센서: Hall-effect 측정 방식, Magnetic flux 측정 방식.8. Magnetism based sensor: Hall-effect measurement method, Magnetic flux measurement method.

9. Ultrasonic based 센서: Acoustic resonance frequency 방식, Surface noise 방식, Ultrasonic emission 측정방식.9. Ultrasonic based sensor: Acoustic resonance frequency method, Surface noise method, Ultrasonic emission measurement method.

10. 소프트 재료 센서: 고무, 파우더, 다공성 소재, 스펀지, 하이드로젤, 에어로젤, 탄소섬유, 나노탄소재료, 탄소나노튜브, 그래핀, 그래파이트, 복합재, 나노복합재, metal-고분자 복합재, ceramic-고분자 복합재, 전도성 고분자 등의 재료를 이용한 pressure, stress, 혹은 strain 측정 방식, Stimuli responsive 방식.10. Soft material sensors: rubber, powder, porous materials, sponges, hydrogels, aerogels, carbon fibers, nanocarbon materials, carbon nanotubes, graphene, graphite, composites, nanocomposites, metal-polymer composites, ceramic-polymer composites Pressure, stress, or strain measurement method using materials such as conductive polymers, Stimuli responsive method.

11. Piezoelectric 소재 센서: Quartz, PZT (lead zirconate titanate) 등의 세라믹 소재, PVDF, PVDF copolymers, PVDF-TrFE 등의 고분자 소재, 셀룰로오스, ZnO 나노선 등의 나노소재 방식.11. Piezoelectric sensor: Ceramic materials such as quartz, lead zirconate titanate (PZT), polymer materials such as PVDF, PVDF copolymers, and PVDF-TrFE, and nanomaterials such as cellulose and ZnO nanowires.

10: 화자 11: 두경부 12: 구강설 13: 성대
100 : 센서부 110: 구강설 센서 111: 결정 구조 112: 압전소자
120: 안면 센서 121: 레퍼런스 센서 122: 양극센서 123: 음극센서
130: 음성취득센서 140: 성대 센서
160: 촬상 센서 161: 조음기관의 변화 정보
162: 두경부 표정변화정보 163: 비언어적표현
200: 데이터 해석부 205: 표준 발화 특징 행렬
210: 센서부의 위치 220: 발화 특징 230: 화자의 음성
240: 발화 내역 정보
250: 발화 변이
300: 데이터변환부 310: 음성데이터
350: 데이터 베이스부 360: 음성데이터 색인
361:자모음의 음소단위 색인 362: 음절 단위 색인 363: 단어단위 색인
364: 구절단위 색인 365: 문장단위 색인 366: 연속 발화 색인
367: 발음의 고저 색인
400: 통신부
500: 데이터 표현부 510: 음파 520: 진동파 530: 청전기자극
1000: 전음장치 1100: 데이터수신부
1200: 스피커부 1210: 증감조절부
1300: 전도진동부 1301: 제1전도진동부 1302: 제2전도진동부 1310: 진동자
1400: 전기전갈부 1410: 기준전갈전극 1420: 활성전갈전극
2000: 디스플레이
3000: 청각계
3100: 외이 3110: 귓바퀴 3120: 외이도
3200: 중이 3210: 고막 3220: 청소골
3300: 내이 3310: 달팽이관 3320: 청신경 3330: 대뇌
4000: 유사대체기관종 4100: 두경부 일측외면
4200: 두경부 일측내면 4300: 두경부 측면 내골
10: speaker 11: head and neck 12: buccal theory 13: vocal cord
Reference Signs List 100 sensor portion 110 oral cavity sensor 111 crystal structure 112 piezoelectric element
120: face sensor 121: reference sensor 122: anode sensor 123: cathode sensor
130: voice acquisition sensor 140: vocal cord sensor
160: imaging sensor 161: change information of the articulator
162: facial expression change information of the head and neck 163: non-verbal expression
200: data analysis unit 205: standard speech feature matrix
210: position of sensor unit 220: speech feature 230: speaker's voice
240: ignition history information
250: ignition mutation
300: data conversion unit 310: voice data
350: database unit 360: voice data index
361: Phoneme unit index of consonants 362: Syllable unit index 363: Word unit index
364: verse index 365: sentence index 366: continuous speech index
367: High and low index of pronunciation
400: communication unit
500: data expression unit 510: sound wave 520: vibration wave 530: electrical stimulation
1000: electric sound device 1100: data receiver
1200: speaker portion 1210: increase and decrease control unit
1300: conduction vibration unit 1301: first conduction vibration unit 1302: second conduction vibration unit 1310: vibrator
1400: electrical messaging unit 1410: reference messaging electrode 1420: active messaging electrode
2000: display
3000: Auditory System
3100: outer ear 3110: auricle 3120: ear canal
3200: Middle ear 3210: Eardrum 3220: Cleaning bone
3300: inner ear 3310: cochlea 3320: auditory nerve 3330: brain
4000: Similar Substitution 4100: One side of head and neck
4200: one side of head and neck 4300: one side of head and neck

Claims (37)

화자(10)의 두경부의 일면에 인접하여 조음기관의 물리특성을 측정하는 센서부(100)와,
상기 센서부의 위치(210)와 측정된 조음기관의 물리특성을 기반으로 화자의 하나 이상의 발화 특징(220)을 파악하는 데이터 해석부(200)와,
상기 하나 이상의 센서부의 위치(210)와 상기 하나이상의 발화 특징(220)을 음성데이터(310)로 변환하는 데이터변환부(300)와,
상기 음성데이터(310)를 음파(510), 진동파(520), 청전기자극(530) 중 하나이상의 형태로 외부로 표현하는 데이터 표현부(500)를 포함하고,
상기 데이터 표현부(500)는 상기 음성데이터(310)를 화자, 청자 중 일인이상에게 제공하고자 전음장치(1000)로 구성되는 것
을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
Sensor unit 100 for measuring the physical characteristics of the articulation engine adjacent to one surface of the head and neck of the speaker 10,
A data analyzer 200 for identifying one or more speech characteristics 220 of the speaker based on the position 210 of the sensor unit and the measured physical characteristics of the articulator;
A data converter 300 for converting the position 210 and the one or more utterance features 220 of the one or more sensor units into voice data 310;
It includes a data expression unit 500 for expressing the voice data 310 to the outside in the form of at least one of the sound wave 510, vibration wave 520, the stimulator 530,
The data expression unit 500 is composed of a phonetic apparatus 1000 to provide the voice data 310 to one or more of the speaker, the listener.
Complex system for improving articulation and listening, characterized in that.
제1항에 있어서,
상기 센서부(100)는 구강설의 일측면에 고착되거나, 구강설의 표면을 감싸거나, 구강설의 내부에 삽입되어 발화에 따른 구강설의 x축, y축, z축 방향 기반의 시간에 따른 벡터량의 변화량을 파악함으로써, 구강설의 저고도, 전후설성, 굴곡도, 신전도, 회전도, 긴장도, 수축도, 이완도, 진동도 중 하나이상의 물리 특성을 파악하는 구강설 센서(110)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 is fixed to one side of the oral tongue, or wrapped around the surface of the oral tongue, or inserted into the interior of the oral tongue at the time based on the x-axis, y-axis, z-axis direction of the oral tongue according to the ignition By determining the amount of change according to the amount of the vector according to the oral cavity, oral tongue sensor 110 to grasp the physical characteristics of one or more of the low altitude, front and rear tongue, flexion, extension, rotational, tension, contraction, relaxation, vibration Complex system for improving the articulation and listening, comprising.
제1항에 있어서,
상기 센서부(100)는 구강설의 일측면에 고착되거나, 구강설의 표면을 감싸거나, 구강설의 내부에 삽입되어 발화에 따른 구강설의 x축, y축, z축 방향 기반의 단위 시간 당 회전하는 각도의 변화량을 파악하므로서, 구강설의 저고도, 전후설성, 굴곡도, 신전도, 회전도, 긴장도, 수축도, 이완도, 진동도 중 하나이상의 물리 특성을 파악하는 구강설 센서(110)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 is fixed to one side of the oral tongue, or wrapped around the surface of the oral tongue, or inserted into the inside of the oral tongue, unit time based on the x-axis, y-axis, z-axis direction of the oral tongue according to the ignition Oral sensor (110) to grasp the physical characteristics of one or more of the low altitude, front and rear tongue, flexion, extension, rotation, tension, contraction, relaxation, vibration degree of the oral tongue by grasping the amount of change of the rotation angle per rotation Complex system for improving articulation and listening, characterized in that it comprises a).
제1항에 있어서,
상기 센서부(100)는 구강설의 일측면에 고착되거나, 구강설의 표면을 감싸고, 발화에 따른 구강설의 수축 내지 이완으로 발생하는 물리력에 따라 결정 구조(111)의 변화에 의해 편극이 발생하여 전기신호가 발생하는 압전소자(112)를 통해 구강설의 굽힘도를 파악하므로서, 구강설을 포함한 조음기관의 물리 특성을 파악하는 구강설 센서(110)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 is fixed to one side of the oral tongue, or surrounds the surface of the oral tongue, the polarization is generated by the change in the crystal structure 111 according to the physical force generated by the contraction or relaxation of the oral tongue by the ignition Articulation and listening characterized in that it comprises a oral tongue sensor 110 for grasping the physical characteristics of the articulatory organ including the oral tongue by grasping the degree of bending of the oral tongue through the piezoelectric element 112 to generate an electrical signal. Complex system for improvement.
제1항에 있어서,
상기 센서부(100)는 구강설이 두경부 내외의 다른 조음기관과의 상호작용에 의해 생기는 접근 및 접촉에 의해 발생하는 마찰전기(Tribo Electric Generator)에 따른 파열도, 마찰도, 공명도. 접근도 중 하나이상의 물리특성을 파악하기 위해 마찰대전소자(113)로 구성된 구강설 센서(110)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 has a rupture degree, friction degree, resonance degree according to the triboelectric generator generated by the approach and contact caused by the interaction of the oral cavity with other articulation organs inside and outside the head and neck. Combination system for improving articulation and hearing, characterized in that it comprises a buccal sensor (110) consisting of a triboelectric charging element (113) to grasp one or more physical characteristics of the approach.
제1항에 있어서,
상기 데이터 해석부는 상기 센서부에서 측정되는 구강설과 타 조음기관과의 물리특성을 통해 화자가 발화하는 자모음, 그에 따라 나타나는 어휘 단위 강세 (Lexical Stress), 문장 단위 강세(Tonic stress) 중 하나이상의 발화 특징(220)을 파악하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The data analysis unit may include one or more of a consonant uttered by the speaker through physical characteristics of the oral culprit and other articulators measured by the sensor unit, lexical stress, and tonic stress. Complex system for improving the articulation and listening to grasp the speech features (220).
제6항에 있어서,
상기 데이터 해석부는 상기 센서부에 의해 측정되는 조음기관 물리특성에 의한 발화 특징(220)을 파악함에 있어서, 2진수 내지 실수를 포함하는 수치로 구성된 표준 발화 특징 행렬(205)을 기반으로 화자의 발음과 강세의 정오도, 유사근접도, 발화 의도 중 하나이상의 발화 특징(220)을 측정하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 6,
When the data analyzer detects the utterance feature 220 based on the physical characteristics of the articulation engine measured by the sensor unit, the speaker's pronunciation is based on a standard utterance feature matrix 205 composed of numerical values including binary or real number. A complex system for improving articulation and listening, characterized in that it measures the utterance characteristics 220 of one or more of noon, stress, proximity intent, and speech intent.
제6항에 있어서,
상기 데이터 해석부는 상기 센서부(100)에서 측정된 조음기관의 물리특성을 발화 특징(220)으로 파악함에 있어서,
상기 조음기관의 물리특성을 각 자모음 단위의 패턴으로 인식하는 단계,
상기 자모음 단위의 패턴의 특징을 추출하고, 상기 분류된 패턴의 특징을 유사도에 따라 분류하는 단계,
분류된 패턴의 특징을 재조합하는 단계,
조음기관의 물리특성을 발화 특징으로 해석하는 단계에 따라 발화 특징을 파악하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 6,
In the data analysis unit to grasp the physical characteristics of the articulation engine measured by the sensor unit 100 as a utterance feature 220,
Recognizing the physical characteristics of the articulator as a pattern of each consonant unit,
Extracting a feature of the pattern of the consonant unit, and classifying the feature of the classified pattern according to similarity;
Recombining the features of the classified pattern,
Comprehensive system for improving the articulation and hearing, characterized in that to identify the speech characteristics according to the step of interpreting the physical characteristics of the articulation organ as speech characteristics.
제7항에 있어서,
상기 데이터 해석부는 상기 센서부에 의해 측정되는 물리특성에 의해 자모음의 동화(Assimilation), 이화(Dissimilation), 탈락(Elision), 첨가(Attachment), 강세(Stress)와, 약화(Reduction)로 야기되는 기식음화 (Asperation), 음절성자음화(Syllabic cosonant), 탄설음화(Flapping), 경음화(Tensification), 순음화(Labilalization), 연구개음화(Velarization), 치음화(Dentalizatiom), 구개음화 (Palatalization), 비음화(Nasalization), 강세변화(Stress Shift), 장음화(Lengthening) 중 하나이상의 이차조음현상인 발화 변이(250)를 측정하는 것을 특징으로 조음 및 청음 향상을 위한 복합시스템.
The method of claim 7, wherein
The data analysis unit causes the assimilation, dissimilation, elimination, attachment, stress, and weakening of the consonants due to the physical characteristics measured by the sensor unit. Asperation, Syllabic cosonant, Flapping, Tensification, Labilization, Velarization, Dentalizatiom, Palatalization, A complex system for improving articulation and listening, characterized by measuring a speech variation (250), which is one or more secondary articulations of nasalization, stress shift, and longenging.
제2항 내지 제5항 중 어느 한 항에 있어서,
상기 구강설 센서는 센서 작동을 위한 회로부, 그 회로를 감싸는 캡슐부, 상기 구강설 일면에 부착되는 접착부로 구성된 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method according to any one of claims 2 to 5,
The oral cavity sensor is a complex system for improving articulation and hearing, characterized in that consisting of a circuit portion for sensor operation, the capsule portion surrounding the circuit, the adhesive portion attached to one side of the oral tongue.
제10항에 있어서,
상기 구강설 센서는 박막 회로를 가진 필름 형태로서 구강설에 인접하여 작동하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 10,
The oral tongue sensor is a film having a thin film circuit complex system for improving articulation and listening, characterized in that it operates adjacent to the oral cavity.
제1항에 있어서,
상기 센서부(100)는 하나이상의 안면 근육의 일면에 인접하는 두경부 근육의 신경신호 측정의 기준 전위를 생성하는 하나 이상의 레퍼런스 센서(121)과 상기 두경부 근육의 신경신호를 측정하는 하나이상의 양극센서(122)와 하나 이상의 음극센서(123)으로 구성되는 안면 센서(120)를 더욱 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 may include one or more reference sensors 121 for generating a reference potential for measuring nerve signals of head and neck muscles adjacent to one or more facial muscles, and one or more bipolar sensors for measuring nerve signals of the head and neck muscles ( 122) and a face sensor 120, comprising a more than one cathode sensor 123, characterized in that the composite system for improving the articulation and hearing.
제12항에 있어서,
상기 데이터 해석부(200)는 안면부 센서(120)에 기반한 센서부의 위치(210)를 획득함에 있어서, 상기 레퍼런스 센서(121)를 기준으로 하여 상기 양극 센서(122)와 상기 음극센서(123)의 전위차를 파악하여 상기 안면부 센서(120)의 위치를 파악하는 것을 특징으로 조음 및 청음 향상을 위한 복합시스템.
The method of claim 12,
The data analysis unit 200 acquires the position 210 of the sensor unit based on the face sensor 120, based on the reference sensor 121 of the anode sensor 122 and the cathode sensor 123. Comprehensive system for improving the articulation and hearing, characterized in that to grasp the potential difference to determine the position of the face sensor 120.
제12항에 있어서,
상기 데이터 해석부(200)는 안면부 센서(120)에 기반한 화자의 발화 특징(220)를 획득함에 있어서, 상기 레퍼런스 센서(121)를 기준으로 하여 상기 양극 센서(122)와 상기 음극센서(123)의 전위차를 파악하여 상기 화자의 두경부에서 발생하는 조음기관의 물리 특성에 의한 발화 특징(220)을 파악하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.

The method of claim 12,
The data analyzer 200 acquires the speaker's ignition feature 220 based on the face sensor 120, based on the reference sensor 121 and the anode sensor 122 and the cathode sensor 123. Comprehensive system for improving the articulation and listening, characterized in that to grasp the potential difference of the speech characteristics (220) by the physical characteristics of the articulation engine generated in the head and neck of the speaker.

제1항에 있어서,
상기 센서부(100) 내지 데이터 해석부(200)는 화자(10)의 두경부 중 성대에 인접하여 성대의 근전도 내지 떨림을 파악하여, 화자(10)의 발화 시작, 발화 정지, 발화 종료 중 하나이상의 발화 내역 정보(240)를 파악하는 성대 센서(140)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit 100 to the data analysis unit 200 detect the electromyography or tremor of the vocal cords adjacent to the vocal cords of the head and neck of the speaker 10, and at least one of utterance start, ignition stop, and utterance end of the speaker 10. Complex system for improving the articulation and hearing, characterized in that it comprises a vocal cord sensor (140) to grasp the utterance history information (240).
제1항에 있어서,
상기 데이터 해석부(200)는 발화에 따른 화자의 두경부 조음기관의 변화 정보(161), 화자의 두경부 표정 변화 정보(162), 화자의 발화 의도에 따라 움직이는 두경부, 흉곽부, 상지부, 하지부의 비언어적 표현(163)를 파악하기 위해 화자(10)의 두경부를 촬상하는 촬상 센서(160)과 연동되는 것을 특징으로 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The data analysis unit 200 is the change information 161 of the head and neck articulation organ of the speaker according to the utterance, the head and neck facial expression change information 162 of the speaker, the head and neck, rib cage, upper limbs, lower extremity In order to grasp the non-verbal expression (163), it is linked with the imaging sensor 160 for imaging the head and neck of the speaker 10, characterized in that a complex system for improving articulation and hearing.
제1항에 있어서,
상기 센서부는 치아의 일면에 인접하여 상기 구강설 및 아랫 입술의 접촉에 기인하여 발생하는 전기적 용량 변화에 따른 신호발생 위치를 파악하는 치아센서(150)를 더욱 포함할 수 있는 것을 특징으로 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit may further include a dental sensor 150 adjacent to one surface of the tooth to determine a signal generation position according to a change in electrical capacity generated due to contact between the oral tongue and the lower lip. Complex system for improvement.
제1항에 있어서,
상기 데이터 해석부(200)는 상기 화자의 두경부 일면에 인접한 음성취득센서(130)를 통해 발화에 따른 상기 화자의 음성(230)을 취득하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The data analysis unit 200 is a complex system for improving the articulation and listening, characterized in that to obtain the voice of the speaker 230 according to the utterance through the voice acquisition sensor 130 adjacent to one side of the head and neck.
제18항에 있어서,
상기 데이터 변환부(300)는 상기 음성취득센서(130)에서 취득된 화자의 음성(230)을 상기 구강설 센서(110) 내지 안면센서(110)에 의해 획득된 센서부의 위치(210) 내지 화자의 발화 특징(220)와 함께 음성데이터(310)로 변환하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 18,
The data conversion unit 300 is the position of the sensor unit 210 to the speaker obtained by the oral cavity sensor 110 to the face sensor 110 to the voice 230 of the speaker acquired by the voice acquisition sensor 130. Complex system for improving the articulation and listening, characterized in that the conversion to the voice data 310 together with the speech feature (220) of the.
제1항에 있어서,
상기 센서부(100)의 구강설 센서, 안면센서, 음성취득센서, 성대센서, 치아 센서 중 하나이상의 센서에 전원을 공급하는 전원부를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
Composite system for improving articulation and hearing, characterized in that it comprises a power supply for supplying power to at least one sensor of the oral tongue sensor, facial sensor, voice acquisition sensor, vocal cord sensor, dental sensor of the sensor unit 100.
제1항에 있어서,
상기 센서부는 데이터 해석부 내지 데이터 베이스부 중 하나이상이 외부에 위치하여 작동할 경우, 연동되어 통신할 수 있는 유선 내지 무선의 통신부(400)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sensor unit is a composite for improving the articulation and hearing, characterized in that the wired or wireless communication unit 400 that can communicate with each other when one or more of the data analysis unit to the database unit is located and operated outside system.
제1항에 있어서,
상기 데이터변환부(300)는 상기 센서부의 위치(210), 화자의 발화 특징(220), 화자의 음성(230)에 대응하는 하나이상의 음성데이터 색인(360)을 포함하는 데이터 베이스부(350)와 연동되는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The data conversion unit 300 includes a database unit 350 including a position 210 of the sensor unit, a speaker's speech feature 220, and at least one voice data index 360 corresponding to the speaker's voice 230. Complex system for improving the articulation and listening, characterized in that interlocked with.
제22항에 있어서,
상기 데이터 베이스부(350)는 발화의 진행 시간, 발화에 따른 주파수, 발화의 진폭, 발화에 따른 두경부 근육의 근전도, 발화에 따른 두경부 근육의 위치변화, 구강설의 굽힘 및 회전에 따른 위치 변화 중 하나이상의 정보를 기반으로, 자모음의 음소단위 색인(361), 음절 단위 색인(362), 단어단위 색인(363), 구절단위 색인(364), 문장단위 색인(365), 연속 발화 단위 색인(366), 발음의 고저 색인(367) 중 하나 이상의 음성데이터 색인(360)을 구성하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 22,
The database unit 350 may include the duration of speech, frequency according to speech, amplitude of speech, electromyography of head and neck muscles according to speech, position change of head and neck muscles according to speech, positional change due to bending and rotation of oral tongue. Based on one or more pieces of information, the phoneme unit index (361), syllable unit index (362), word unit index (363), phrase unit index (364), sentence unit index (365), and continuous speech unit index ( 366), a complex system for improving articulation and listening, comprising at least one voice data index 360 of the phonetic high and low index 367.
제1항에 있어서,
상기 데이터 표현부는 상기 전음장치(1000)와 더불어, 디스플레이(2000)에 의해 음운론 기호, 음성학 기호, 안내 표식, 그림 중 하나 이상의 부가적 표현으로 외부로 더욱 표현하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The data expression unit, together with the phonetic apparatus 1000, further improves the articulation and listening, characterized in that the display 2000 further represents to the outside as one or more additional expressions of phonological symbols, phonetic symbols, guide markers, pictures. Complex system.
제1항 내지 제16항 중 어느 한항에 있어서,
상기 데이터 변환부(300)는 상기 촬상센서(160)에 의한 두경부 조음기관의 변화정보(161), 두경부 표정변화정보(162), 비언어적 표현(163) 중 하나이상의 촬상정보를 상기 센서부(100)에 의한 조음 기관의 물리 특성에 기반한 음성데이터(310)와 맵핑하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method according to any one of claims 1 to 16,
The data converting unit 300 is configured to capture the at least one piece of imaging information of the head and neck articulation organ change information 161, the head and neck facial expression change information 162, and the non-verbal expression 163 by the imaging sensor 160. Composite system for improving the articulation and listening, characterized in that the mapping with the voice data 310 based on the physical characteristics of the articulation organ.
제1항에 있어서,
상기 데이터 표현부(500)의 전음장치(1000)는 데이터수신부(1100)와 스피커부(1200), 전도진동부(1300), 전기전갈부(1400) 중 하나이상으로 구성되며, 화자, 청자 중 일인이상의 청각계(3000) 내지 유사대체기관종(4000)에 위치하여 상기 음성데이터(310)를 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 1,
The sound generator 1000 of the data expression unit 500 is composed of one or more of the data receiver 1100, the speaker unit 1200, the conduction vibration unit 1300, and the electric messaging unit 1400. Complex system for improving the articulation and hearing, characterized in that provided in the audio system (3000) to similar substitute organ species (4000).
제26항에 있어서,
상기 데이터 표현부(500)의 전음장치(1000)를 구성하는 스피커부(1200)는 상기 변환된 음성데이터(310)를 음파(510)로 재변환시켜 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The speaker unit 1200 constituting the electric sound generator 1000 of the data expression unit 500 may improve the articulation and listening, characterized in that the converted sound data 310 is converted into sound waves 510 and provided. Complex system.
제27항에 있어서,
상기 스피커부(1200)가 상기 음성데이터(310)를 음파(510)로 제공함에 있어서,
상기 음성데이터(310)의 각 자모음이 지닌 주파수 F값(Formant Frequency)의 고주파수 영역 내지 전체 영역을 선형, 비선형, 압축증폭 중 하나 이상의 방법으로 증폭 내지 감소시키고자 증감조절부(1210)를 포함하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.

The method of claim 27,
In the speaker unit 1200 to provide the sound data 310 to the sound wave 510,
It includes a sensitization control unit 1210 to amplify or reduce the high frequency region or the entire region of the frequency F value (formant frequency) of each consonant of the voice data 310 by one or more methods of linear, nonlinear, and compressed amplification. Complex system for improving the articulation and hearing, characterized in that.

제26항에 있어서,
상기 데이터 표현부(500)의 전음장치(1000)를 구성하는 전도진동부(1300)는 상기 변환된 음성데이터(310)를 진동자(1310)를 통해 진동파(520)로 재변환시켜 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The conduction vibration unit 1300 constituting the electrophony device 1000 of the data expression unit 500 reconverts the converted voice data 310 into the vibration wave 520 through the vibrator 1310 and provides the converted vibration data. System for improving articulation and listening.
제26항에 있어서,
상기 데이터 표현부(500)의 전음장치(1000)를 구성하는 전기전갈부(1400)는 상기 청각계(3000)의 내이(3310) 중 달팽이관(3320)의 내부 내지 외부 일면에 하나이상의 기준전갈전극(1410)을 배치하고, 상기 달팽이관(3320)의 내부 일면에 하나이상의 활성전갈전극(1420)을 배치하여 전류를 흘림으로서, 상기 음성데이터(310)를 청전기자극(530)으로 재변환시켜 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
One or more reference messaging electrodes on the inner or outer surface of the cochlear 3320 of the inner ear 3310 of the auditory system 3000 may be configured as the electric messaging unit 1400 of the sound generator 1000 of the data expression unit 500. 1410 is disposed, and one or more active messaging electrodes 1420 are disposed on one surface of the cochlea 3320 to flow current, thereby reconverting the voice data 310 to the stimulator 530. Complex system for improving the articulation and hearing, characterized in that.
제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 그 데이터수신부(1100)와 스피커부(1200) 내지 전도진동부(1300)가 화자, 청자 중 일인이상의 청각계(3000) 중 외이(3100)에 인접하거나 그 내부에 삽입되어 상기 음성데이터(310)를 중이(3200)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The sound signal device 1000 of the data expression unit has the data receiver 1100 and the speaker unit 1200 to the conduction vibration unit 1300 adjacent to or inside the outer ear 3100 of the auditory system 3000 of one or more of the speaker and the listener. Is inserted into the complex data for improving articulation and listening, characterized in that to provide the voice data 310 to the middle ear (3200) by one or more of the method of transmission, amplification, reduction.
제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 청각계(3000) 중 외이(3100)에 인접한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고, 중이(3200)에 인접한 상기 전도진동부(1300) 내지 전기전갈부(1400)는 상기 음성데이터(310)를 중이(3200에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템
The method of claim 26,
In the sound generator 1000 of the data expression unit, a data receiver 1100 adjacent to the outer ear 3100 of the auditory system 3000 of one or more of the speaker and the listener receives the voice data 310 and is adjacent to the middle ear 3200. The conduction vibration unit 1300 to the electric messaging unit 1400 provides the voice data 310 to the middle ear (3200) by providing one or more methods of transmitting, amplifying, or reducing a complex system for improving articulation and listening.
제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 두경부 일측외면(4100)에 위치한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고, 그에 연속하는 상기 전도진동부(1300)가 상기 음성데이터를 상기 두경부 측면 내골(4300)을 매개로 청각계(3000) 중 내이(3300)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.

The method of claim 26,
The phonetic apparatus 1000 of the data expression unit is a data receiver 1100 located on one side outer surface 4100 of one or more head and neck of the speaker, the listener receives the voice data 310, and the conduction vibration unit 1300 successively Composite system for improving articulation and listening, characterized in that the voice data is provided to the inner ear (3300) of the auditory system (3000) via one or more of the methods of transmitting, amplifying, reducing the medial side neck bone (4300).

제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 두경부 일측외면(4100)에 위치한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고, 청각계(3000) 중 중이(3200)에 위치한 상기 전도진동부(1300)가 상기 음성데이터(310)를 청소골(3220)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The sound signal device 1000 of the data expression unit receives the voice data 310 by the data receiver 1100 located on one side outer surface 4100 of one or more head and neck among the speaker and the listener, and the middle ear 3200 of the auditory system 3000. The conduction vibration unit (1300) located in the complex system for improving articulation and listening, characterized in that to provide the voice data 310 to the cleaning bone (3220) by one or more of the method of transmission, amplification, reduction.
제26에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 두경부 일축외면(4100)에 위치한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고 상기 데이터수신부(1100)와 인접한 제1전도진동부(1301)가 상기 음성데이터(310)를 선행하여 전달하고, 상기 청각계(3000) 중 중이(3200)의 일면에 위치한 제2전도진동부(1302)가 상기 제1전도진동부(1301)에서 전달된 음성데이터(310)를 청소골(3220)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.


The method of claim 26,
In the sound generator 1000 of the data expression unit, a data receiver 1100 located at one or more head and neck uniaxial outer surfaces 4100 of the speaker and the listener receives the voice data 310 and the first conduction unit adjacent to the data receiver 1100. The eastern portion 1301 transmits the voice data 310 in advance, and the second conductive vibration portion 1302 located on one surface of the middle ear 3200 of the auditory system 3000 is transmitted from the first conductive vibration portion 1301. Composite system for improving the articulation and listening, characterized in that the provided sound data 310 to the cleaning bone (3220) by one or more methods of transmission, amplification, reduction.


제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 두경부 일측외면(4100)에 위치한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고, 청각계(3000) 중 내이(3300)에 위치한 전기전갈부(1400)가 상기 음성데이터(310)를 상기 내이(3300)의 청신경(3320)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The phonetic apparatus 1000 of the data expression unit is a data receiver 1100 located on one side outer surface 4100 of one or more head and neck among the speaker and the listener receives the voice data 310, and the inner ear 3300 of the auditory system 3000. The electrical messaging unit 1400 located in the complex for improving articulation and listening, characterized in that the voice data 310 to provide to the auditory nerve 3320 of the inner ear (3300) by one or more of the method of transmission, amplification, reduction. system.
제26항에 있어서,
상기 데이터 표현부의 전음장치(1000)는 화자, 청자 중 일인이상의 두경부 일측외면(4100)에 위치한 데이터수신부(1100)가 상기 음성데이터(310)를 수신하고, 두경부 일측 내면(4200)으로 이어져 대뇌(3330)에 인접한 전기전갈부(1400)가 상기 음성데이터(310)를 대뇌(3330)에 송출, 증폭, 감소 중 하나이상의 방법으로 제공하는 것을 특징으로 하는 조음 및 청음 향상을 위한 복합시스템.
The method of claim 26,
The sound transduction device 1000 of the data expression unit has a data receiver 1100 located on one side outer surface 4100 of one or more heads and listeners, receiving the voice data 310, and leading to one side of the head and neck 4200. 3330 is an electric messaging unit (1400), the complex system for improving articulation and listening, characterized in that the voice data 310 to the cerebral (3330) to provide, at least one method of transmitting, amplifying, reducing.
KR1020180062809A 2018-05-31 2018-05-31 The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors KR102071421B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180062809A KR102071421B1 (en) 2018-05-31 2018-05-31 The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180062809A KR102071421B1 (en) 2018-05-31 2018-05-31 The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors

Publications (2)

Publication Number Publication Date
KR20190136731A true KR20190136731A (en) 2019-12-10
KR102071421B1 KR102071421B1 (en) 2020-01-30

Family

ID=69003027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180062809A KR102071421B1 (en) 2018-05-31 2018-05-31 The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors

Country Status (1)

Country Link
KR (1) KR102071421B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102426792B1 (en) 2020-09-16 2022-07-29 한양대학교 산학협력단 Method for recognition of silent speech and apparatus thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070045772A (en) * 2005-10-28 2007-05-02 한국전자통신연구원 Apparatus for vocal-cord signal recognition and its method
JP2012510088A (en) * 2008-11-26 2012-04-26 アルカテル−ルーセント ユーエスエー インコーポレーテッド Speech estimation interface and communication system
JP2018028681A (en) * 2014-07-28 2018-02-22 リウ チン フォンChing−Feng LIU Speech production recognition system, speech production recognition device, and method for recognizing speech production

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070045772A (en) * 2005-10-28 2007-05-02 한국전자통신연구원 Apparatus for vocal-cord signal recognition and its method
JP2012510088A (en) * 2008-11-26 2012-04-26 アルカテル−ルーセント ユーエスエー インコーポレーテッド Speech estimation interface and communication system
JP2018028681A (en) * 2014-07-28 2018-02-22 リウ チン フォンChing−Feng LIU Speech production recognition system, speech production recognition device, and method for recognizing speech production

Also Published As

Publication number Publication date
KR102071421B1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
KR102180551B1 (en) The Expression System for Speech Production and Intention Using Derencephalus Action
Lee et al. Biosignal sensors and deep learning-based speech recognition: A review
Perkell Movement goals and feedback and feedforward control mechanisms in speech production
Denes et al. The speech chain
Weismer et al. Measures to evaluate the effects of DBS on speech production
Dellwo et al. How is individuality expressed in voice? An introduction to speech production and description for speaker classification
Perkell Five decades of research in speech motor control: What have we learned, and where should we go from here?
Wohlert et al. Lip muscle activity related to speech rate and loudness
Ball et al. Methods in clinical phonetics
KR102071421B1 (en) The Assistive Speech and Listening Management System for Speech Discrimination, irrelevant of an Environmental and Somatopathic factors
Sönmez et al. In-Depth analysis of speech production, auditory system, emotion theories and emotion recognition
Kröger et al. Neural modeling of speech processing and speech learning
KR102364032B1 (en) The Articulatory Physical Features and Sound-Text Synchronization for the Speech Production and its Expression Based on Speech Intention and its Recognition Using Derencephalus Action
Arias-Vergara Analysis of Pathological Speech Signals
Seong et al. A study on the voice security system using sensor technology
Tjaden Segmental articulation in motor speech disorders
Cao et al. Magtrack: A wearable tongue motion tracking system for silent speech interfaces
Stone A silent-speech interface using electro-optical stomatography
Porcaro Improving Speech Intelligibility in Adults: Clinical Application of Evidence-Based Strategies
WO2018190668A1 (en) Speech intention expression system using physical characteristics of head and neck articulator
Mekki et al. Brief Insight About Speech Perception And Classification Of Speech Sound In Arabic Dialects
Fawcus RESPIRATORY STUDIES
Kollmeier et al. Productio
Teston Applying phonetic investigation methods to the assessment of dysphonia and dysarthria
Lim Artificial speech for intensive care unit (ICU) patients and laryngectomees

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant