KR102355182B1 - Voice interacting method of hearing assisting apparatus using interactive process - Google Patents
Voice interacting method of hearing assisting apparatus using interactive process Download PDFInfo
- Publication number
- KR102355182B1 KR102355182B1 KR1020200075650A KR20200075650A KR102355182B1 KR 102355182 B1 KR102355182 B1 KR 102355182B1 KR 1020200075650 A KR1020200075650 A KR 1020200075650A KR 20200075650 A KR20200075650 A KR 20200075650A KR 102355182 B1 KR102355182 B1 KR 102355182B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- user
- hearing aid
- content
- interactive process
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 230000008569 process Effects 0.000 title claims abstract description 67
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 52
- 230000004044 response Effects 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 21
- 238000004891 communication Methods 0.000 claims description 39
- 230000014509 gene expression Effects 0.000 claims description 10
- 238000012790 confirmation Methods 0.000 claims description 2
- 210000000883 ear external Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 210000003477 cochlea Anatomy 0.000 description 3
- 230000003930 cognitive ability Effects 0.000 description 3
- 210000003027 ear inner Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 210000000860 cochlear nerve Anatomy 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000959 ear middle Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000003454 tympanic membrane Anatomy 0.000 description 2
- 208000014644 Brain disease Diseases 0.000 description 1
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000006999 cognitive decline Effects 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000002768 hair cell Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 210000004880 lymph fluid Anatomy 0.000 description 1
- 230000001926 lymphatic effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
- H04R25/505—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/554—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/43—Signal processing in hearing aids to enhance the speech intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Neurosurgery (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 청음 보조 장치의 피팅 방법에 관한 것으로서, 특히 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자의 청각 특성별 피팅이 수행되도록 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 피팅 방법에 관한 것이다.
본 발명인 인터랙티브 프로세스를 이용한 청음 보조 장치의 피팅 방법은 청음 보조 장치의 기설정된 설정 조건에 따라 청음 보조 기능을 수행하는 단계와, 청음 보조 기능의 수행 중에 인터랙티브 프로세스를 수행하여 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 단계와, 사용자로부터의 응답 음성을 획득하고, 획득된 응답 음성의 특성에 연관된 사용자 음성 특성 또는 청각 특성 중의 적어도 하나 이상에 따라 설정 조건을 유지하거나 가변하는 단계를 포함한다.The present invention relates to a fitting method of a hearing aid device, and more particularly, to a hearing aid using an interactive process in which fitting for each hearing characteristic of a user is performed using an interactive process including a voice conversation with a user without direct consultation with a hearing aid expert. It relates to a fitting method of an auxiliary device.
According to the present invention, a method for fitting a hearing aid device using an interactive process includes: performing a hearing aid function according to a preset condition of the hearing aid device; and transmitting to the user, acquiring a response voice from the user, and maintaining or changing a setting condition according to at least one of a user voice characteristic or an auditory characteristic related to the acquired response voice characteristic.
Description
본 발명은 청음 보조 장치의 음성 대화 방법에 관한 것으로서, 특히 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자의 음성 특성 및/또는 청각 특성별 피팅이 수행되도록 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법에 관한 것이다.The present invention relates to a voice conversation method of a hearing aid device, and more particularly, to perform fitting according to a user's voice characteristics and/or auditory characteristics using an interactive process including voice conversation with a user without direct consultation with a hearing aid expert. It relates to a voice conversation method of a hearing aid using an interactive process.
일반적으로 인간의 청각기관은 외이(external ear), 중이(middle ear), 내이(internal ear)로 구성된다. 이때 상기와 같은 인간의 귀에서 소리를 들을 수 있게 되는 경로를 해부학적으로 살펴보면, 우선 공기입자의 연쇄적 전달 과정으로 전해진 소리 에너지가 두개골에서 외이에 의해 모아진 후 그 외이에 모아진 소리는 외이도를 통해 고막으로 전달되어 고막을 진동시킨다. 그리고 상기와 같은 진동은 다시 중이를 통해 내이로 전달되고, 내이로 전달된 소리 에너지는 달팽이관이라 불리는 와우내부의 림프액을 움직이고, 와우내부에 있는 수천 개의 미세한 유모세포들이 림프액의 움직임을 감지하여 전기 에너지로 변환하며, 이와 같이 변환된 전기 에너지가 청신경을 통해 뇌로 전달되어 인간은 소리를 감지하게 된다.In general, the human auditory organ is composed of an external ear, a middle ear, and an internal ear. At this time, anatomically examining the path through which sound can be heard in the human ear as described above. First, sound energy transmitted through a chain transmission process of air particles is collected by the outer ear from the skull, and then the sound collected in the outer ear is transmitted through the outer ear canal. It is transmitted to the eardrum and vibrates the eardrum. And the above vibration is again transmitted to the inner ear through the middle ear, and the sound energy transferred to the inner ear moves the lymphatic fluid in the cochlea called the cochlea, and thousands of microscopic hair cells in the cochlea detect the movement of the lymph fluid and generate electrical energy In this way, the converted electrical energy is transmitted to the brain through the auditory nerve, and humans perceive sound.
그런데, 상기와 같은 외이로부터 청신경에 이르기까지의 소리 또는 전기 에너지를 전달하기 위한 기능들이 원활하지 않을 경우 청각이 저하되거나 또는 난청(難聽, impaired hearing)발생되어 통상 이러한 환자의 경우 그러한 소리를 전기 에너지를 보상해줄 수 있는 보청기(hearing aid)가 필수적 사용되고 있다. 이러한 보청기는 정상인이 들을 수 있는 대역의 음을 증폭 또는 변형하여 난청인으로 하여금 정상인과 같은 정도로 소리를 지각할However, when the functions for transmitting sound or electrical energy from the outer ear to the auditory nerve as described above are not smooth, hearing is deteriorated or impaired hearing occurs, and in general, such a sound is converted to electrical energy in such a patient. Hearing aids that can compensate for this are essential. These hearing aids amplify or modify the sound in the range that normal people can hear, so that the hearing-impaired person can perceive sound to the same degree as normal people.
수 있도록 만들어 주기 위한 장치이다. 그런데, 상기 보청기는 보통 사용 중 사용자의 귀 안에 또는 그 뒤에 착용할 만큼 충분히 작은 초소형 장치이기 때문에 보청기의 사용 전에, 사용자가 인식하기 어려운 주파수 범위를 증폭시키기 위하여 처방에 따라 보청기 피팅(fitting) 전문가에 의해 개별적으로 프로그래밍하게 된다.It is a device to make it possible. However, since the hearing aid is a very small device that is small enough to be worn inside or behind the user's ear during normal use, before using the hearing aid, consult a hearing aid fitting expert according to a prescription to amplify a frequency range that is difficult for the user to recognize. individually programmed by
이러한 보청기 피팅 전문가에 의한 프로그래밍을 위해, 전문가에 대한 반복적인 예약, 방문 및 처방의 과정이 반드시 필요하다는 점에서, 사용자의 불편함이 상당히 큰 문제점이 있다.For programming by a hearing aid fitting expert, there is a problem in that it is necessary to repeatedly make reservations, visits, and prescriptions for the expert, which causes inconvenience to the user.
본 발명은 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 및 문자 표시 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자에 적합한 피팅이 수행되도록 하며, 사용자와의 대화를 통하여 사용자의 인지 능력을 향상시키고 사회적 고립 문제를 해결할 수 있는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 제공하는 것을 목적으로 한다.The present invention enables fitting suitable for a user to be performed using an interactive process including voice conversation and text display with the user without direct consultation with a hearing aid expert, and improves the user's cognitive ability and socially An object of the present invention is to provide a voice conversation method of a hearing aid device using an interactive process capable of solving an isolation problem.
본 발명인 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법은 청음 보조 장치의 기설정된 설정 조건에 따라 청음 보조 기능을 수행하는 단계와, 청음 보조 기능의 수행 중에 음성 대화 내용을 결정하거나 선택하는 제 1 과정과, 제 1 과정에 결정되거나 선택된 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 제 2 과정과, 사용자로부터의 응답 음성을 획득하는 제 3 과정과, 제 3 과정에서의 사용자 응답 음성을 인식하고, 인식된 응답 내용에 대응하거나 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택하는 제 4 과정을 포함하는 인터랙티브 프로세스를 수행하는 단계를 포함한다.The present invention provides a method for voice conversation in a hearing aid device using an interactive process, comprising the steps of: performing a hearing aid function according to a preset condition of the hearing aid device; And, a second process of delivering the voice conversation content determined or selected in the first process to the user as sound or vibration, a third process of acquiring a response voice from the user, and recognizing the user's response voice in the third process, , performing an interactive process including a fourth process of determining or selecting new voice conversation contents corresponding to the recognized response contents or not related to the response contents.
또한, 음성 대화 방법은 획득된 사용자의 응답 음성의 특성에 연관된 사용자 음성 특성 또는 청각 특성 중의 적어도 하나 이상에 따라 설정 조건을 유지하거나 가변하는 단계를 포함하는 것이 바람직하다.In addition, the voice conversation method preferably includes the step of maintaining or varying the setting condition according to at least one of a user voice characteristic or an auditory characteristic related to the acquired characteristic of the user's response voice.
또한, 소리나 진동을 전달하는 단계는 기설정된 주기에 따라 수행되거나 음향 환경 모드 중에서 특정 모드에서 수행되는 것이 바람직하다.In addition, the step of transmitting the sound or vibration is preferably performed according to a preset cycle or performed in a specific mode among acoustic environment modes.
또한, 응답 음성의 특성은 음성의 크기, 음성의 내용, 음성 내용의 정확성 및 응답 속도 중의 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, it is preferable that the characteristics of the response voice include at least one of the volume of the voice, the content of the voice, the accuracy of the voice content, and the response speed.
또한, 인터랙티브 프로세스의 수행 단계는 음성 표출에 의해 사용자의 만족도를 확인하는 단계와, 확인 단계에서의 사용자의 응답 음성 내용에 따라 설정 조건을 유지하거나 가변하는 단계를 추가적으로 포함하는 것이 바람직하다.In addition, the performing step of the interactive process preferably includes the step of confirming the user's satisfaction by voice expression, and the step of maintaining or varying the setting condition according to the user's response voice in the confirmation step additionally.
본 발명은 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 및 문자 표시 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자에 적합한 피팅이 반복적으로 및 자연스러운 대화를 통하여 수행되도록 하며, 사용자와의 대화를 통하여 사용자의 인지 능력을 향상시키고 사회적 고립 문제를 해결할 수 있는 효과가 있다.The present invention uses an interactive process including voice dialogue and text display with the user without direct consultation with a hearing aid expert so that fitting suitable for the user is repeatedly and naturally performed through conversation with the user. It has the effect of improving the cognitive ability and solving the social isolation problem.
도 1은 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 수행하는 음성 대화 시스템의 구성도이다.1 is a block diagram of a voice conversation system for performing a voice conversation method of a hearing aid device using an interactive process.
이하에서, 본 발명은 실시예와 도면을 통하여 상세하게 설명된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, the present invention will be described in detail through examples and drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that various modifications, equivalents, and/or alternatives of the embodiments of the present invention are included. In connection with the description of the drawings, like reference numerals may be used for like components.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "have", "may have", "includes", or "may include" indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B”, “at least one of A or/and B”, or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, "A or B", "at least one of A and B", or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in this document may modify various elements, regardless of order and/or importance, and may modify one element to another. It is used only to distinguish it from the components, and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be referred to as a second component, and similarly, the second component may also be renamed as a first component.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component); When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (or configured to)" as used in this document, depending on the context, for example, "suitable for", "having the capacity to" It can be used interchangeably with "," "designed to", "adapted to", "made to", or "capable of". The term "configured (or set up to)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase "a processor configured (or configured to perform) A, B, and C" executes a dedicated processor (eg, an embedded processor), or one or more software programs stored in a memory device, to perform the corresponding operations. By doing so, it may refer to a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meanings as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, have an ideal or excessively formal meaning. not interpreted In some cases, even terms defined in this document cannot be construed to exclude embodiments of this document.
인터랙티브 프로세스는 도 1에서의 청음 보조 장치(20)나 전자 통신 장치(40)에 설치된 어플리케이션의 구동에 의해 수행되는 것으로, 사용자의 음성과 외부 음향 환경(또는 음향 환경 모드)을 주기적으로 감지하여 감시하며, 사용자와의 음성 대화 기능을 주기적으로 및/또는 비주기적으로 수행하는 과정이다. 인터랙티브 프로세스는 청음 보조 장치(20)나 전자 통신 장치(40)에 어플리케이션 형태로 설치되며, 청음 보조 장치(20)의 데이터 프로세서(11)나 전자 통신 장치(40)의 데이터 프로세서(31)에 의해 실행된다. 인터렉티브 프로세스에 의해 수행되는 음성 대화 기능 중에, 사용자의 음성의 크기, 음성의 내용, 음성 내용의 정확성, 응답 속도 등을 기준으로 하여 사용자의 음성 특성 및 청각 특성이 산정되거나 판단되어, 기설정된 설정 조건(예를 들면, 피팅값)이 수정되거나 유지된다. 이러한 음성 대화 기능의 경우, 일종의 음성 챗봇과 같으나, 음성 대화 기능 중에 사용자의 음성을 획득하여, 획득된 음성을 분석하여 설정 조건의 피팅이 수행되는 과정이, 인터랙티브 프로세스를 이용한 피팅 방법이다. 이러한 인터랙티브 프로세스를 이용한 피팅 방법의 경우, 종래와 같이 전문가에 대한 반복적인 반복적인 방문 및 원격 상담을 통해서 진행되는 것이 아니며, 음성 대화 중에 피팅 과정을 자연스럽게 진행하는 방법일 뿐만 아니라, 사용자와의 대화에 의해 사용자의 인지 능력을 향상시키고, 사회적 고립 문제를 해결하는 효과가 있다. The interactive process is performed by driving an application installed in the
도 1은 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 수행하는 음성 대화 시스템의 구성도이다.1 is a block diagram of a voice conversation system for performing a voice conversation method of a hearing aid device using an interactive process.
음성 대화 시스템은 사용자의 청각 기관(예를 들면, 귀 등)에 삽입되거나 부착되거나 사용자의 피부에 부착되며, 소리를 획득하여 기저장된 설정 조건에 따라 처리하여 처리된 소리를 사용자에게 소리나 진동 등으로 전달하는 청음 보조 장치(20)와, 청음 보조 장치(20)와 유선 또는 무선 통신 방식으로 데이터 통신을 수행하는 전자 통신 장치(40) 등을 포함하여 구성된다.The voice conversation system is inserted or attached to the user's hearing organ (eg, ear, etc.) or attached to the user's skin. It is configured to include a
청음 보조 장치(20)는 사용자로부터의 입력(예를 들면, 전원 온/오프, 통신 연결, 인터랙티브 프로세스의 동작/중지 등)을 획득하여 데이터 프로세서(11)로 인가하는 입력부(1)와, 전원 상태나 인터랙티브 프로세스의 동작 상태(동작/중지 등) 등을 표시하는 표시부(3)와, 소리를 획득하여 그에 대응하는 전기 신호를 생성하여 데이터 프로세서(11)에 인가하는 마이크(5)와, 데이터 프로세서(11)로부터 전기 신호를 인가 받아 소리나 진동을 생성하여 사용자에게 전달하는 스피커(7)와, 전자 통신 장치(40)와 유선 또는 무선 통신을 수행하는 통신부(9)와, 상술된 구성요소들을 제어하며, 소리를 처리하기 위한 설정 조건을 저장하고, 마이크(5)로부터의 전기 신호를 설정 조건에 따라 처리하여, 처리된 전기 신호를 스피커(7)에 인가하거나, 통신부(9)로부터 수신된 전기 신호를 스피커(7)에 인가하여 청음 보조 기능을 수행하고, 마이크(5)로부터의 전기 신호를 통신부(9)를 통하여 전자 통신 장치(40)로 전송하는 데이터 프로세서(11) 등을 포함하여 구성된다. 다만, 전원부(미도시), 입력부(1), 표시부(3), 마이크(5), 스피커(7) 및 통신부(9) 등은 본 발명이 속하는 기술분야에서 통상의 기술자에게 당연히 인식되는 기술에 불과하여, 그 상세한 설명이 생략된다. The
데이터 프로세서(11)는 상술된 청음 보조 기능 이외에, 인터랙티브 프로세스를 독립적으로 수행하거나 전자 통신 장치(40)와의 데이터 통신을 통하여 수행하는 프로세서(예를 들면, CPU, MICROPROCESSOR, MCU 등)와, 인터랙티브 프로세스를 포함하는 어플리케이션과, 소리를 처리하기 위한 설정 조건, 음향 환경 모드(예를 들면, 대화 모드, 조용한 장소 모드, TV 시청 모드 등) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(11)에 의해 수행되는 인터랙티브 프로세스를 이용한 음성 대화 방법과, 인터랙티브 프로세스의 수행 중의 피팅 방법이 하기에서 상세하게 기재된다.The
전자 통신 장치(40)는 예를 들면, 스마트폰, 테블릿 등의 전자 기기에 해당되며, 사용자로부터의 입력(예를 들면, 통신 연결, 인터랙티브 프로세스의 동작/중지 등)을 획득하여 데이터 프로세서(31)에 인가하는 입력부(21)와, 청음 보조 장치(20)의 설정 조건, 음향 환경 모드 등을 표시하는 표시부(23)와, 청음 보조 장치(20)나 외부 서버 등과 유선 통신 또는 무선 통신을 수행하는 통신부(29)와, 상술된 구성요소들을 제어하여 인터랙티브 프로세스를 이용한 음성 대화 방법을 수행하는 데이터 프로세서(31) 등을 포함하여 구성된다. 다만, 전원부(미도시), 입력부(21)와, 표시부(23) 및 통신부(29) 등을 본 발명이 속하는 기술 분야에서 통상의 기술자에게 당연히 인식되는 기술에 불과하여, 그 설명이 생략된다.The
데이터 프로세서(31)는 통신부(29)를 제어하여 청음 보조 장치(20)와의 통신을 수행하면서 인터랙티브 프로세스를 수행하는 프로세서(예를 들면, CPU, MICROPROCESSOR, MCU 등)와, 인터랙티브 프로세스를 포함하는 어플리케이션과, 소리를 처리하기 위한 설정 조건, 음향 환경 모드(예를 들면, 대화 모드, 조용한 장소 모드, TV 시청 모드 등) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(31)에 의해 수행되는 인터랙티브 프로세스를 이용한 음성 대화 방법 및 인터랙티브 프로세스의 수행 중의 피팅 방법이 하기에서 상세하게 기재된다.The
본 실시예에서, 설정 조건은 사용자의 청각 기관의 특성 또는 청력 증상 또는 음향 환경 모드에 대응하는 피팅값들을 포함하여 구성된다. In the present embodiment, the setting condition is configured to include fitting values corresponding to the characteristic of the user's auditory organ or the hearing symptom or the acoustic environment mode.
먼저, 청음 보조 장치(20)가 전자 통신 장치(40)에 대하여 독립적으로 인터랙티브 프로세스를 수행하는 경우가 설명된다. 청음 보조 장치(20)는 상술된 청음 보조 기능을 수행하면서 인터랙티브 프로세서를 수행한다.First, a case in which the
데이터 프로세서(11)는 인터랙티브 프로세스를 포함하는 어플리케이션을 실행하며, 기설정되거나 디폴트로 저장된 설정 조건에 따른 청음 보조 기능을 수행한다. 이 청음 보조 기능으로, 데이터 프로세서(11)는 입력부(1)에 의해 입력되거나 디폴트로 설정된 음향 환경 모드에 대응하는 설정 조건을 이용하여 마이크(5)로부터 인가된 소리를 처리하여 스피커(7)로 인가한다. 데이터 프로세서(11)는 인터랙티브 프로세스를 수행하여, 사용자의 음성과 외부 음향 환경(또는 음향 환경 모드)을 주기적으로 감지하여 감시하며, 사용자의 음성의 크기를 산정하여 저장하거나 외부 음향 환경을 판단하여 저장한다.The
데이터 프로세서(11)는 인터랙티브 프로세스를 수행하기 위해, 음성 대화 내용의 생성 유닛과, 생성된 음성 대화 내용을 음성으로 변환시키는 음성 생성 유닛과, 사용자의 음성을 인식하기 위한 음성 인식 유닛 등을 수행한다. The
음성 대화 내용의 생성 유닛은 기설정된 주기에 따라 대화를 시작하거나, 음향 환경 모드 중에서 특정 모드(예를 들면, 대화 모드, 조용한 환경 모드 등)에서 음성 대화를 시작할 수 있다. 음성 대화 내용(예를 들면, 날씨/영화/운동 등에 대한 대화 내용)은 예를 들면, 말뭉치의 구조로 어플리케이션에 포함되어 있으며, 전자 통신 장치(40)와의 통신에 의해 그 내용이 업데이트될 수 있다. 또한, 음성 대화 내용은 음향 환경 모드에 대응하는 내용(예를 들면, TV 시청 모드에서는 TV 프로그램의 내용에 대한 것, 조용한 환경 모드에서는 날씨나 운동에 대한 내용)을 포함할 수 있다. 음성 대화 내용의 생성 유닛은 음성 대화 내용을 결정하거나 선택하여 음성 생성 유닛으로 인가한다.The voice conversation content generating unit may start a conversation according to a preset period, or may start a voice conversation in a specific mode (eg, a conversation mode, a quiet environment mode, etc.) among acoustic environment modes. Voice conversation contents (eg, conversation contents about weather/movie/exercise, etc.) are, for example, included in the application in the form of a corpus, and the contents may be updated by communication with the
또한, 음성 생성 유닛은 음성 대화 내용의 생성 유닛으로부터 인가되는 음성 대화 내용을 음성으로 변환하여 스피커(7)에 인가하여 음 방출되도록 한다. In addition, the voice generating unit converts the voice conversation content applied from the voice conversation content generating unit into voice and applies it to the
또한, 음성 인식 유닛은 마이크(5)로부터의 음성을 인식하고, 인식된 응답 내용을 음성 대화 내용의 생성 유닛으로 인가한다.Further, the voice recognition unit recognizes the voice from the microphone 5, and applies the recognized response content to the voice conversation content generating unit.
음성 대화 내용의 생성 유닛은 인가된 응답 내용에 대응하거나 관련된 신규의 음성 대화 내용을 결정하거나 선택하고, 또는 인가된 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택한다. 음성 대화 내용의 생성 유닛은 신규의 음성 대화 내용을 음성 생성 유닛으로 인가한다.The voice conversation contents generating unit determines or selects new voice conversation contents corresponding to or related to the authorized response contents, or determines or selects new voice dialogue contents not related to the authorized response contents. The voice conversation content generating unit applies the new voice conversation content to the voice generating unit.
상술된 바와 같이, 데이터 프로세서(11)는 음성 대화 내용의 생성, 음성 생성 및 음 방출, 음성 인식 등을 포함하는 음성 대화 기능인 인터랙티브 프로세스를 사용자의 명령이나 입력 없이 독립적으로 또는 능동적으로 수행할 수 있다. As described above, the
데이터 프로세서(11)은 기저장된 음성 대화 내용을 판독하여 재생하여 스피커(7)에 인가하고, 마이크(5)로부터의 사용자의 응답 음성을 포함하는 전기 신호를 획득하여 사용자의 음성의 크기, 음성의 내용(예를 들면, '잘 안들린다. 다시 말해 줄래' 등), 음성 내용의 정확성 또는 응답 속도 등에 연관된 사용자 음성 특성 및/또는 청각 특성을 산정되거나 판단하여, 사용자 음성 특성 및/또는 청각 특성에 따라 기설정된 설정 조건(예를 들면, 피팅값)을 수정하거나 유지한다. 음성의 크기의 경우, 예를 들면, 현재의 사용자의 음성의 크기(또는 에너지 등)가 평균적인 사용자의 음성의 크기와 같거나 작으면 데이터 프로세서(11)는 사용자가 음성을 명확하게 인식한 것(현재 설정 조건에 따른 음성을 잘 듣고 있다는 청력 특성)으로 판단하여 설정 조건을 유지하고, 그렇지 않으면 사용자가 음성을 명확하게 인식하지 못한 것(현재 설정 조건에 따른 음성을 잘 듣지 못하고 있다는 청력 특성)으로 판단하여 설정 조건을 가변시킨다. 또한, 음성 내용의 정확성에서, 데이터 프로세서(11)은 상술된 음성 인식 유닛을 통하여 사용자로부터의 음성 내용이 스피커(7)를 통하여 전달된 음성의 내용에 맞는 응답이면, 사용자가 음성을 명확하게 인식한 것으로 판단하여 설정 조건을 유지하고, 그렇지 않으면 사용자가 음성을 명확하게 인식하지 못한 것으로 판단하여 설정 조건을 가변시킨다. 또한, 데이터 프로세서(11)는 음성 대화 중에서의 사용자 응답 속도를 산정하여, 기준 응답 속도나, 이전에 산정된 평균 응답 속도와 비교하여, 사용자의 청각 특성을 판단하여 설정 조건을 가변시키거나 유지할 수 있다.The
데이터 프로세서(11)는 상술된 인터랙티브 프로세스를 능동적으로 또는 독립적으로 수행하되, 이 인터랙티브 프로세스의 수행 중에, 음성 대화의 전달과, 사용자 응답 음성의 획득 및 획득된 응답 음성에 연관된 사용자 음성 특성 및/또는 청각 특성의 산정 또는 판단 과정을 반복적으로 수행한다.The
또한, 데이터 프로세서(11)는 인터랙티브 프로세스에 따라 마이크(5)로부터 소리를 획득하여 사용자의 음성 크기를 산정하여, 평균적인 사용자의 음성 크기를 산정할 수도 있고, 음향 환경 모드를 판단할 수도 있다.In addition, the
또한, 데이터 프로세서(11)는 인터랙티브 프로세스에 따라 스피커(7)를 통한 음성 표출에 의해 사용자의 만족도를 확인할 수도 있다. 예를 들면, 데이터 프로세서(11)가 스피커(7)를 통하여 "음성이 잘 들리시나요?"를 사용자에게 전달하고, 마이크(5)로부터의 사용자의 응답 음성 내용이 "소리는 들리지만, 말소리가 명료하지 않아"인 경우, 데이터 프로세서(11)는 2KHz 이상 고주파수 영역 이득을 증가 시키는 설정 조건의 가변을 수행하고, 다시 "음성이 잘 들리시나요?" 등을 반복적으로 수행하면서, 소리나 음성의 전체 이득의 증가 또는 감소, 압축 지점을 현재보다 증가시키거나 감소시키거나, 압축 비율을 낮추거나 높이거나 등의 설정 조건 가변을 수행하여, 사용자가 만족하는 설정 조건을 결정할 수도 있다. In addition, the
또한, 데이터 프로세서(11)는 가변된 설정 조건을 이용하여, 음향 환경 모드별 설정 조건을 가변 조절할 수도 있다. Also, the
이러한 인터랙티브 프로세스에 의해, 데이터 프로세서(11)는 음성 대화 기능을 제공하므로, 대화와 소통을 통해서 사용자의 뇌 질환 및 인지 저하를 예방하거나 치료를 할 수 있는 효과가 있다. By such an interactive process, the
상술된 바와 같이, 인터랙티브 프로세서를 이용한 피팅 방법이 청음 보조 장치(20)의 데이터 프로세서(11)에 의해 실행되는 것이 기재되었으며, 하기에서는 전자 통신 장치(40)가 청음 보조 장치(20)를 제어하여 인터랙티브 프로세스를 이용한 피팅 방법이 기재된다.As described above, it has been described that the fitting method using the interactive processor is executed by the
데이터 프로세서(31)는 인터랙티브 프로세스를 포함하는 어플리케이션을 실행하며, 통신부(29)를 통하여 청음 보조 장치(20)와 통신 연결을 유지한다. The
데이터 프로세서(31)는 상술된 인터랙티브 프로세스를 수행하여 음성 대화를 시작하여, 음성 대화 내용은 데이터 프로세서(31)에 저장되며, 음성 대화 내용을 통신부(29)를 통하여 청음 보조 장치(20)로 전송한다. 데이터 프로세서(11)는 음성 대화 내용을 통신부(9)를 통하여 수신하여 스피커(7)에 인가하여 음 방출시킨다. 또한, 데이터 프로세서(11)는 마이크(5)로부터의 사용자 음성을 통신부(9)를 통하여 전자 통신 장치(40)로 전송한다. 데이터 프로세서(31)는 전송된 사용자 응답 음성에 따라 상술된 바와 같이, 사용자의 음성의 크기, 음성의 내용, 음성 내용의 정확성, 응답 속도 등을 산정하거나 판단하여, 즉 사용자 응답 음성에 연관된 음성 특성 및/또는 청각 특성을 판단하여, 설정 조건을 가변시키거나 유지시킨다. The
또한, 데이터 프로세서(31)는 청음 보조 장치(20)를 제어하여 설정 조건에 대한 사용자의 만족도를 확인하여, 상술된 바와 같이 설정 조건을 유지시키거나 가변시킨다.In addition, the
또한, 데이터 프로세서(31)는 가변된 설정 조건을 통신부(29)를 통하여 청음 보조 장치(20)로 전송하고, 데이터 프로세서(11)는 통신부(9)를 통하여 가변된 설정 조건을 수신하여 저장하며, 마이크(5)로부터의 소리나 음성을 저장된 설정 조건에 따라 음성 처리를 수행하여 스피커(7)를 통하여 음 방출시킨다. In addition, the
또한, 데이터 프로세서(31)는 설정 조건의 내용을 사용자가 확인할 수 있도록 표시부(23)를 통하여 표시하며, 입력부(21)로부터의 가변 입력에 의해 설정 조건을 가변시켜 저장할 수도 있다.In addition, the
상술된 바와 같이, 설정 조건의 가변이 이루어진 경우, 데이터 프로세서(11)는 가변된 설정 조건에 따라서 청음 보조 기능을 수행하며, 반복적으로 인터랙티브 프로세스를 수행하여 설정 조건의 유지나 가변 동작을 수행한다.As described above, when the setting condition is changed, the
상술된 데이터 프로세서(11) 및/또는 데이터 프로세서(31)에 의한 음성 인식 및 대화 내용의 생성의 경우, 전자 통신 장치(40)가 음성 인식 서버(미도시)에 통신 연결되어, 음성 인식 서버로 사용자의 응답 음성을 인가하고, 음성 인식 서버가 응답 음성을 인식하고, 인식된 응답 내용에 대응하는 대화 내용을 생성하여 전자 통신 장치(40)로 전송할 수도 있다. 음성 인식 서버는 보다 다양한 음성 대화 내용을 저장하며, 음성 대화 내용의 업데이트도 용이하다.In the case of voice recognition and generation of conversation content by the
다양한 실시 예에 따른 장치(예: 프로세서 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리가 될 수 있다.At least a portion of an apparatus (eg, a processor or functions thereof) or a method (eg, operations) according to various embodiments is stored in a computer-readable storage medium in the form of, for example, a program module It can be implemented with stored instructions. When the instruction is executed by a processor, the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, a memory.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD(Digital Versatile Disc), 자기-광 매체(magnetoopticalmedia)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등)등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.Computer-readable recording media include hard disks, floppy disks, magnetic media (eg, magnetic tape), optical media (eg, CD-ROM, DVD (Digital Versatile Disc), magnetic- It may include an optical medium (eg, a floptical disk), a hardware device (eg, ROM, RAM, or flash memory, etc.), etc. In addition, program instructions include It may include not only machine code but also high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate as one or more software modules to perform operations of various embodiments, and the The same goes for the station.
다양한 실시 예에 따른 프로세서 또는 프로세서에 의한 기능들은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.The processor or functions by the processor according to various embodiments may include at least one or more of the aforementioned components, some may be omitted, or may further include additional other components. Operations performed by a module, a program module, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic method. Also, some operations may be executed in a different order, omitted, or other operations may be added.
이상 설명한 바와 같이, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형의 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.As described above, the present invention is not limited to the specific preferred embodiments described above, and anyone with ordinary skill in the art to which the invention pertains can use various methods without departing from the gist of the present invention as claimed in the claims. It goes without saying that modifications are possible, and such modifications are intended to be within the scope of the claims.
20: 청음 보조 장치 40: 전자 통신 장치20: hearing aid device 40: electronic communication device
Claims (5)
청음 보조 기능의 수행 중에 음성 대화 내용을 결정하거나 선택하는 제 1 과정과, 제 1 과정에 결정되거나 선택된 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 제 2 과정과, 사용자로부터의 응답 음성을 획득하는 제 3 과정과, 제 3 과정에서의 사용자 응답 음성을 인식하고, 인식된 응답 내용에 대응하거나 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택하는 제 4 과정을 포함하는 인터랙티브 프로세스를 수행하는 단계를 포함하고,
음성 대화 방법은 획득된 사용자의 응답 음성의 특성에 연관된 사용자 음성 특성 및 청각 특성에 따라 설정 조건을 유지하거나 가변하는 단계를 포함하고,
응답 음성의 특성은 음성의 크기, 음성의 내용, 음성 내용의 정확성 및 응답 속도를 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.performing a hearing aid function according to a preset condition of a hearing aid device;
A first process of determining or selecting the content of a voice conversation while performing the hearing assistance function, a second process of delivering the content of the voice conversation determined or selected in the first process to the user as sound or vibration, and obtaining a response voice from the user An interactive process is performed including a third process of performing a third process, and a fourth process of recognizing the user's response voice in the third process, and determining or selecting a new voice conversation content corresponding to the recognized response content or not related to the response content comprising the steps of
The voice conversation method includes maintaining or varying a setting condition according to a user voice characteristic and an auditory characteristic related to the acquired characteristic of the user's response voice,
A voice conversation method of a hearing aid device using an interactive process, characterized in that the characteristics of the response voice include the volume of the voice, the content of the voice, the accuracy of the voice content, and the response speed.
설정 조건은 피팅값을 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.The method of claim 1,
The setting condition includes a fitting value. A voice conversation method of a hearing aid using an interactive process.
소리나 진동을 전달하는 단계는 기설정된 주기에 따라 수행되거나 음향 환경 모드 중에서 특정 모드에서 수행되는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.The method of claim 1,
The step of transmitting the sound or vibration is performed according to a preset cycle or is performed in a specific mode among acoustic environment modes.
인터랙티브 프로세스의 수행 단계는 음성 표출에 의해 사용자의 만족도를 확인하는 단계와, 확인 단계에서의 사용자의 응답 음성 내용에 따라 설정 조건을 유지하거나 가변하는 단계를 추가적으로 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.The method of claim 1,
The performing step of the interactive process further includes the step of confirming the user's satisfaction by voice expression, and the step of maintaining or varying the setting condition according to the user's response voice in the confirmation step. How to use a hearing aid for voice communication.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200075650A KR102355182B1 (en) | 2020-06-22 | 2020-06-22 | Voice interacting method of hearing assisting apparatus using interactive process |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200075650A KR102355182B1 (en) | 2020-06-22 | 2020-06-22 | Voice interacting method of hearing assisting apparatus using interactive process |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210157621A KR20210157621A (en) | 2021-12-29 |
KR102355182B1 true KR102355182B1 (en) | 2022-01-25 |
Family
ID=79176644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200075650A KR102355182B1 (en) | 2020-06-22 | 2020-06-22 | Voice interacting method of hearing assisting apparatus using interactive process |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102355182B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003150194A (en) | 2001-11-14 | 2003-05-23 | Seiko Epson Corp | Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device |
WO2017200080A1 (en) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | Intercommunication method, intercommunication device, and program |
US20190149927A1 (en) * | 2017-11-15 | 2019-05-16 | Starkey Laboratories, Inc. | Interactive system for hearing devices |
-
2020
- 2020-06-22 KR KR1020200075650A patent/KR102355182B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003150194A (en) | 2001-11-14 | 2003-05-23 | Seiko Epson Corp | Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device |
WO2017200080A1 (en) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | Intercommunication method, intercommunication device, and program |
US20190149927A1 (en) * | 2017-11-15 | 2019-05-16 | Starkey Laboratories, Inc. | Interactive system for hearing devices |
Also Published As
Publication number | Publication date |
---|---|
KR20210157621A (en) | 2021-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3167625B1 (en) | Method of optimizing parameters in a hearing aid system and a hearing aid system | |
US11917375B2 (en) | Prosthesis functionality control and data presentation | |
US10896020B2 (en) | System for processing service requests relating to unsatisfactory performance of hearing devices, and components of such system | |
US10303428B2 (en) | Electronic device with a function of smart voice service and method of adjusting output sound | |
US11882413B2 (en) | System and method for personalized fitting of hearing aids | |
US20170046120A1 (en) | Customizable Personal Sound Delivery System | |
WO2020214482A1 (en) | Self-fit hearing instruments with self-reported measures of hearing loss and listening | |
WO2020084587A2 (en) | Passive fitting techniques | |
WO2020261148A1 (en) | Prediction and identification techniques used with a hearing prosthesis | |
CN111971979A (en) | Rehabilitation and/or rehabilitation of advanced hearing prosthesis recipients | |
US11653146B2 (en) | Information processing device, information processing method, and program | |
KR102355182B1 (en) | Voice interacting method of hearing assisting apparatus using interactive process | |
Ni et al. | A real-time smartphone app for field personalization of hearing enhancement by adaptive dynamic range optimization | |
CN111226445A (en) | Advanced auxiliary device for prosthesis-assisted communication | |
US12017010B2 (en) | Sound control system and method for dental treatment | |
JP7272425B2 (en) | FITTING ASSIST DEVICE, FITTING ASSIST METHOD, AND PROGRAM | |
WO2020217494A1 (en) | Fitting assistance device, fitting assistance method, and computer-readable recording medium | |
US11902746B2 (en) | Ear level auditory system | |
US12089006B1 (en) | Ear-worn device configured for over-the-counter and prescription use | |
US12126968B2 (en) | Hearing aid adjustment system and hearing aid adjustment method | |
US20230156417A1 (en) | Hearing aid adjustment system and hearing aid adjustment method | |
EP3826328A1 (en) | Systems and methods for adjusting a gain limit of a hearing device | |
WO2023165844A1 (en) | Circuitry and method for visual speech processing | |
WO2024168048A1 (en) | Improving speech understanding of users | |
CN114302296A (en) | Automatic sound adjusting method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |