KR102355182B1 - Voice interacting method of hearing assisting apparatus using interactive process - Google Patents

Voice interacting method of hearing assisting apparatus using interactive process Download PDF

Info

Publication number
KR102355182B1
KR102355182B1 KR1020200075650A KR20200075650A KR102355182B1 KR 102355182 B1 KR102355182 B1 KR 102355182B1 KR 1020200075650 A KR1020200075650 A KR 1020200075650A KR 20200075650 A KR20200075650 A KR 20200075650A KR 102355182 B1 KR102355182 B1 KR 102355182B1
Authority
KR
South Korea
Prior art keywords
voice
user
hearing aid
content
interactive process
Prior art date
Application number
KR1020200075650A
Other languages
Korean (ko)
Other versions
KR20210157621A (en
Inventor
혁 원
Original Assignee
주식회사 이엠텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이엠텍 filed Critical 주식회사 이엠텍
Priority to KR1020200075650A priority Critical patent/KR102355182B1/en
Publication of KR20210157621A publication Critical patent/KR20210157621A/en
Application granted granted Critical
Publication of KR102355182B1 publication Critical patent/KR102355182B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/554Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 청음 보조 장치의 피팅 방법에 관한 것으로서, 특히 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자의 청각 특성별 피팅이 수행되도록 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 피팅 방법에 관한 것이다.
본 발명인 인터랙티브 프로세스를 이용한 청음 보조 장치의 피팅 방법은 청음 보조 장치의 기설정된 설정 조건에 따라 청음 보조 기능을 수행하는 단계와, 청음 보조 기능의 수행 중에 인터랙티브 프로세스를 수행하여 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 단계와, 사용자로부터의 응답 음성을 획득하고, 획득된 응답 음성의 특성에 연관된 사용자 음성 특성 또는 청각 특성 중의 적어도 하나 이상에 따라 설정 조건을 유지하거나 가변하는 단계를 포함한다.
The present invention relates to a fitting method of a hearing aid device, and more particularly, to a hearing aid using an interactive process in which fitting for each hearing characteristic of a user is performed using an interactive process including a voice conversation with a user without direct consultation with a hearing aid expert. It relates to a fitting method of an auxiliary device.
According to the present invention, a method for fitting a hearing aid device using an interactive process includes: performing a hearing aid function according to a preset condition of the hearing aid device; and transmitting to the user, acquiring a response voice from the user, and maintaining or changing a setting condition according to at least one of a user voice characteristic or an auditory characteristic related to the acquired response voice characteristic.

Description

인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법{VOICE INTERACTING METHOD OF HEARING ASSISTING APPARATUS USING INTERACTIVE PROCESS}The method of voice conversation of a hearing aid using an interactive process

본 발명은 청음 보조 장치의 음성 대화 방법에 관한 것으로서, 특히 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자의 음성 특성 및/또는 청각 특성별 피팅이 수행되도록 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법에 관한 것이다.The present invention relates to a voice conversation method of a hearing aid device, and more particularly, to perform fitting according to a user's voice characteristics and/or auditory characteristics using an interactive process including voice conversation with a user without direct consultation with a hearing aid expert. It relates to a voice conversation method of a hearing aid using an interactive process.

일반적으로 인간의 청각기관은 외이(external ear), 중이(middle ear), 내이(internal ear)로 구성된다. 이때 상기와 같은 인간의 귀에서 소리를 들을 수 있게 되는 경로를 해부학적으로 살펴보면, 우선 공기입자의 연쇄적 전달 과정으로 전해진 소리 에너지가 두개골에서 외이에 의해 모아진 후 그 외이에 모아진 소리는 외이도를 통해 고막으로 전달되어 고막을 진동시킨다. 그리고 상기와 같은 진동은 다시 중이를 통해 내이로 전달되고, 내이로 전달된 소리 에너지는 달팽이관이라 불리는 와우내부의 림프액을 움직이고, 와우내부에 있는 수천 개의 미세한 유모세포들이 림프액의 움직임을 감지하여 전기 에너지로 변환하며, 이와 같이 변환된 전기 에너지가 청신경을 통해 뇌로 전달되어 인간은 소리를 감지하게 된다.In general, the human auditory organ is composed of an external ear, a middle ear, and an internal ear. At this time, anatomically examining the path through which sound can be heard in the human ear as described above. First, sound energy transmitted through a chain transmission process of air particles is collected by the outer ear from the skull, and then the sound collected in the outer ear is transmitted through the outer ear canal. It is transmitted to the eardrum and vibrates the eardrum. And the above vibration is again transmitted to the inner ear through the middle ear, and the sound energy transferred to the inner ear moves the lymphatic fluid in the cochlea called the cochlea, and thousands of microscopic hair cells in the cochlea detect the movement of the lymph fluid and generate electrical energy In this way, the converted electrical energy is transmitted to the brain through the auditory nerve, and humans perceive sound.

그런데, 상기와 같은 외이로부터 청신경에 이르기까지의 소리 또는 전기 에너지를 전달하기 위한 기능들이 원활하지 않을 경우 청각이 저하되거나 또는 난청(難聽, impaired hearing)발생되어 통상 이러한 환자의 경우 그러한 소리를 전기 에너지를 보상해줄 수 있는 보청기(hearing aid)가 필수적 사용되고 있다. 이러한 보청기는 정상인이 들을 수 있는 대역의 음을 증폭 또는 변형하여 난청인으로 하여금 정상인과 같은 정도로 소리를 지각할However, when the functions for transmitting sound or electrical energy from the outer ear to the auditory nerve as described above are not smooth, hearing is deteriorated or impaired hearing occurs, and in general, such a sound is converted to electrical energy in such a patient. Hearing aids that can compensate for this are essential. These hearing aids amplify or modify the sound in the range that normal people can hear, so that the hearing-impaired person can perceive sound to the same degree as normal people.

수 있도록 만들어 주기 위한 장치이다. 그런데, 상기 보청기는 보통 사용 중 사용자의 귀 안에 또는 그 뒤에 착용할 만큼 충분히 작은 초소형 장치이기 때문에 보청기의 사용 전에, 사용자가 인식하기 어려운 주파수 범위를 증폭시키기 위하여 처방에 따라 보청기 피팅(fitting) 전문가에 의해 개별적으로 프로그래밍하게 된다.It is a device to make it possible. However, since the hearing aid is a very small device that is small enough to be worn inside or behind the user's ear during normal use, before using the hearing aid, consult a hearing aid fitting expert according to a prescription to amplify a frequency range that is difficult for the user to recognize. individually programmed by

이러한 보청기 피팅 전문가에 의한 프로그래밍을 위해, 전문가에 대한 반복적인 예약, 방문 및 처방의 과정이 반드시 필요하다는 점에서, 사용자의 불편함이 상당히 큰 문제점이 있다.For programming by a hearing aid fitting expert, there is a problem in that it is necessary to repeatedly make reservations, visits, and prescriptions for the expert, which causes inconvenience to the user.

본 발명은 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 및 문자 표시 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자에 적합한 피팅이 수행되도록 하며, 사용자와의 대화를 통하여 사용자의 인지 능력을 향상시키고 사회적 고립 문제를 해결할 수 있는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 제공하는 것을 목적으로 한다.The present invention enables fitting suitable for a user to be performed using an interactive process including voice conversation and text display with the user without direct consultation with a hearing aid expert, and improves the user's cognitive ability and socially An object of the present invention is to provide a voice conversation method of a hearing aid device using an interactive process capable of solving an isolation problem.

본 발명인 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법은 청음 보조 장치의 기설정된 설정 조건에 따라 청음 보조 기능을 수행하는 단계와, 청음 보조 기능의 수행 중에 음성 대화 내용을 결정하거나 선택하는 제 1 과정과, 제 1 과정에 결정되거나 선택된 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 제 2 과정과, 사용자로부터의 응답 음성을 획득하는 제 3 과정과, 제 3 과정에서의 사용자 응답 음성을 인식하고, 인식된 응답 내용에 대응하거나 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택하는 제 4 과정을 포함하는 인터랙티브 프로세스를 수행하는 단계를 포함한다.The present invention provides a method for voice conversation in a hearing aid device using an interactive process, comprising the steps of: performing a hearing aid function according to a preset condition of the hearing aid device; And, a second process of delivering the voice conversation content determined or selected in the first process to the user as sound or vibration, a third process of acquiring a response voice from the user, and recognizing the user's response voice in the third process, , performing an interactive process including a fourth process of determining or selecting new voice conversation contents corresponding to the recognized response contents or not related to the response contents.

또한, 음성 대화 방법은 획득된 사용자의 응답 음성의 특성에 연관된 사용자 음성 특성 또는 청각 특성 중의 적어도 하나 이상에 따라 설정 조건을 유지하거나 가변하는 단계를 포함하는 것이 바람직하다.In addition, the voice conversation method preferably includes the step of maintaining or varying the setting condition according to at least one of a user voice characteristic or an auditory characteristic related to the acquired characteristic of the user's response voice.

또한, 소리나 진동을 전달하는 단계는 기설정된 주기에 따라 수행되거나 음향 환경 모드 중에서 특정 모드에서 수행되는 것이 바람직하다.In addition, the step of transmitting the sound or vibration is preferably performed according to a preset cycle or performed in a specific mode among acoustic environment modes.

또한, 응답 음성의 특성은 음성의 크기, 음성의 내용, 음성 내용의 정확성 및 응답 속도 중의 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, it is preferable that the characteristics of the response voice include at least one of the volume of the voice, the content of the voice, the accuracy of the voice content, and the response speed.

또한, 인터랙티브 프로세스의 수행 단계는 음성 표출에 의해 사용자의 만족도를 확인하는 단계와, 확인 단계에서의 사용자의 응답 음성 내용에 따라 설정 조건을 유지하거나 가변하는 단계를 추가적으로 포함하는 것이 바람직하다.In addition, the performing step of the interactive process preferably includes the step of confirming the user's satisfaction by voice expression, and the step of maintaining or varying the setting condition according to the user's response voice in the confirmation step additionally.

본 발명은 보청기 전문가와의 직접적인 상담 없이 사용자와의 음성 대화 및 문자 표시 등을 포함하는 인터랙티브 프로세스를 이용하여 사용자에 적합한 피팅이 반복적으로 및 자연스러운 대화를 통하여 수행되도록 하며, 사용자와의 대화를 통하여 사용자의 인지 능력을 향상시키고 사회적 고립 문제를 해결할 수 있는 효과가 있다.The present invention uses an interactive process including voice dialogue and text display with the user without direct consultation with a hearing aid expert so that fitting suitable for the user is repeatedly and naturally performed through conversation with the user. It has the effect of improving the cognitive ability and solving the social isolation problem.

도 1은 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 수행하는 음성 대화 시스템의 구성도이다.1 is a block diagram of a voice conversation system for performing a voice conversation method of a hearing aid device using an interactive process.

이하에서, 본 발명은 실시예와 도면을 통하여 상세하게 설명된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, the present invention will be described in detail through examples and drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that various modifications, equivalents, and/or alternatives of the embodiments of the present invention are included. In connection with the description of the drawings, like reference numerals may be used for like components.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "have", "may have", "includes", or "may include" indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B”, “at least one of A or/and B”, or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, "A or B", "at least one of A and B", or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in this document may modify various elements, regardless of order and/or importance, and may modify one element to another. It is used only to distinguish it from the components, and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be referred to as a second component, and similarly, the second component may also be renamed as a first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component); When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (or configured to)" as used in this document, depending on the context, for example, "suitable for", "having the capacity to" It can be used interchangeably with "," "designed to", "adapted to", "made to", or "capable of". The term "configured (or set up to)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase "a processor configured (or configured to perform) A, B, and C" executes a dedicated processor (eg, an embedded processor), or one or more software programs stored in a memory device, to perform the corresponding operations. By doing so, it may refer to a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meanings as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, have an ideal or excessively formal meaning. not interpreted In some cases, even terms defined in this document cannot be construed to exclude embodiments of this document.

인터랙티브 프로세스는 도 1에서의 청음 보조 장치(20)나 전자 통신 장치(40)에 설치된 어플리케이션의 구동에 의해 수행되는 것으로, 사용자의 음성과 외부 음향 환경(또는 음향 환경 모드)을 주기적으로 감지하여 감시하며, 사용자와의 음성 대화 기능을 주기적으로 및/또는 비주기적으로 수행하는 과정이다. 인터랙티브 프로세스는 청음 보조 장치(20)나 전자 통신 장치(40)에 어플리케이션 형태로 설치되며, 청음 보조 장치(20)의 데이터 프로세서(11)나 전자 통신 장치(40)의 데이터 프로세서(31)에 의해 실행된다. 인터렉티브 프로세스에 의해 수행되는 음성 대화 기능 중에, 사용자의 음성의 크기, 음성의 내용, 음성 내용의 정확성, 응답 속도 등을 기준으로 하여 사용자의 음성 특성 및 청각 특성이 산정되거나 판단되어, 기설정된 설정 조건(예를 들면, 피팅값)이 수정되거나 유지된다. 이러한 음성 대화 기능의 경우, 일종의 음성 챗봇과 같으나, 음성 대화 기능 중에 사용자의 음성을 획득하여, 획득된 음성을 분석하여 설정 조건의 피팅이 수행되는 과정이, 인터랙티브 프로세스를 이용한 피팅 방법이다. 이러한 인터랙티브 프로세스를 이용한 피팅 방법의 경우, 종래와 같이 전문가에 대한 반복적인 반복적인 방문 및 원격 상담을 통해서 진행되는 것이 아니며, 음성 대화 중에 피팅 과정을 자연스럽게 진행하는 방법일 뿐만 아니라, 사용자와의 대화에 의해 사용자의 인지 능력을 향상시키고, 사회적 고립 문제를 해결하는 효과가 있다. The interactive process is performed by driving an application installed in the hearing aid device 20 or the electronic communication device 40 in FIG. 1 , and periodically detects and monitors the user's voice and the external acoustic environment (or acoustic environment mode). It is a process of periodically and/or aperiodically performing a voice conversation function with a user. The interactive process is installed in the form of an application in the hearing aid 20 or the electronic communication device 40, and is performed by the data processor 11 of the hearing aid 20 or the data processor 31 of the electronic communication device 40 is executed Among the voice conversation functions performed by the interactive process, the user's voice characteristics and auditory characteristics are calculated or determined based on the volume of the user's voice, the content of the voice, the accuracy of the voice content, the response speed, etc., and the preset condition (eg, a fitting value) is modified or maintained. In the case of such a voice conversation function, it is like a voice chatbot, but the process of acquiring the user's voice during the voice conversation function, analyzing the acquired voice, and fitting the set condition is a fitting method using an interactive process. In the case of the fitting method using such an interactive process, it is not conducted through repeated and repeated visits and remote consultations to experts as in the prior art. This has the effect of improving the user's cognitive ability and solving the social isolation problem.

도 1은 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법을 수행하는 음성 대화 시스템의 구성도이다.1 is a block diagram of a voice conversation system for performing a voice conversation method of a hearing aid device using an interactive process.

음성 대화 시스템은 사용자의 청각 기관(예를 들면, 귀 등)에 삽입되거나 부착되거나 사용자의 피부에 부착되며, 소리를 획득하여 기저장된 설정 조건에 따라 처리하여 처리된 소리를 사용자에게 소리나 진동 등으로 전달하는 청음 보조 장치(20)와, 청음 보조 장치(20)와 유선 또는 무선 통신 방식으로 데이터 통신을 수행하는 전자 통신 장치(40) 등을 포함하여 구성된다.The voice conversation system is inserted or attached to the user's hearing organ (eg, ear, etc.) or attached to the user's skin. It is configured to include a hearing aid device 20 that transmits to the device, and an electronic communication device 40 that performs data communication with the hearing aid device 20 in a wired or wireless communication method, and the like.

청음 보조 장치(20)는 사용자로부터의 입력(예를 들면, 전원 온/오프, 통신 연결, 인터랙티브 프로세스의 동작/중지 등)을 획득하여 데이터 프로세서(11)로 인가하는 입력부(1)와, 전원 상태나 인터랙티브 프로세스의 동작 상태(동작/중지 등) 등을 표시하는 표시부(3)와, 소리를 획득하여 그에 대응하는 전기 신호를 생성하여 데이터 프로세서(11)에 인가하는 마이크(5)와, 데이터 프로세서(11)로부터 전기 신호를 인가 받아 소리나 진동을 생성하여 사용자에게 전달하는 스피커(7)와, 전자 통신 장치(40)와 유선 또는 무선 통신을 수행하는 통신부(9)와, 상술된 구성요소들을 제어하며, 소리를 처리하기 위한 설정 조건을 저장하고, 마이크(5)로부터의 전기 신호를 설정 조건에 따라 처리하여, 처리된 전기 신호를 스피커(7)에 인가하거나, 통신부(9)로부터 수신된 전기 신호를 스피커(7)에 인가하여 청음 보조 기능을 수행하고, 마이크(5)로부터의 전기 신호를 통신부(9)를 통하여 전자 통신 장치(40)로 전송하는 데이터 프로세서(11) 등을 포함하여 구성된다. 다만, 전원부(미도시), 입력부(1), 표시부(3), 마이크(5), 스피커(7) 및 통신부(9) 등은 본 발명이 속하는 기술분야에서 통상의 기술자에게 당연히 인식되는 기술에 불과하여, 그 상세한 설명이 생략된다. The hearing aid 20 includes an input unit 1 that obtains an input from a user (eg, power on/off, communication connection, operation/stop of an interactive process, etc.) and applies it to the data processor 11 , and power A display unit 3 for displaying a state or an operating state (operation/stop, etc.) of an interactive process, a microphone 5 for obtaining a sound and generating an electric signal corresponding thereto and applying it to the data processor 11; The speaker 7 that receives an electrical signal from the processor 11 to generate sound or vibration and transmit it to the user, the communication unit 9 performing wired or wireless communication with the electronic communication device 40, and the above-described components control the sound, store the setting conditions for processing the sound, and process the electrical signal from the microphone 5 according to the set condition, and apply the processed electrical signal to the speaker 7 or receive from the communication unit 9 It includes a data processor 11 that applies the electrical signal to the speaker 7 to perform a hearing aid function, and transmits an electrical signal from the microphone 5 to the electronic communication device 40 through the communication unit 9 is composed by However, the power supply unit (not shown), the input unit 1, the display unit 3, the microphone 5, the speaker 7, and the communication unit 9, etc. are technically recognized by those of ordinary skill in the art to which the present invention belongs. As such, a detailed description thereof is omitted.

데이터 프로세서(11)는 상술된 청음 보조 기능 이외에, 인터랙티브 프로세스를 독립적으로 수행하거나 전자 통신 장치(40)와의 데이터 통신을 통하여 수행하는 프로세서(예를 들면, CPU, MICROPROCESSOR, MCU 등)와, 인터랙티브 프로세스를 포함하는 어플리케이션과, 소리를 처리하기 위한 설정 조건, 음향 환경 모드(예를 들면, 대화 모드, 조용한 장소 모드, TV 시청 모드 등) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(11)에 의해 수행되는 인터랙티브 프로세스를 이용한 음성 대화 방법과, 인터랙티브 프로세스의 수행 중의 피팅 방법이 하기에서 상세하게 기재된다.The data processor 11 includes a processor (eg, CPU, MICROPROCESSOR, MCU, etc.) that independently performs an interactive process or performs an interactive process through data communication with the electronic communication device 40 in addition to the above-described hearing aid function, and an interactive process storage space (for example, memory, etc.) for storing applications including is comprised of A voice conversation method using an interactive process performed by the data processor 11 and a fitting method during execution of the interactive process will be described in detail below.

전자 통신 장치(40)는 예를 들면, 스마트폰, 테블릿 등의 전자 기기에 해당되며, 사용자로부터의 입력(예를 들면, 통신 연결, 인터랙티브 프로세스의 동작/중지 등)을 획득하여 데이터 프로세서(31)에 인가하는 입력부(21)와, 청음 보조 장치(20)의 설정 조건, 음향 환경 모드 등을 표시하는 표시부(23)와, 청음 보조 장치(20)나 외부 서버 등과 유선 통신 또는 무선 통신을 수행하는 통신부(29)와, 상술된 구성요소들을 제어하여 인터랙티브 프로세스를 이용한 음성 대화 방법을 수행하는 데이터 프로세서(31) 등을 포함하여 구성된다. 다만, 전원부(미도시), 입력부(21)와, 표시부(23) 및 통신부(29) 등을 본 발명이 속하는 기술 분야에서 통상의 기술자에게 당연히 인식되는 기술에 불과하여, 그 설명이 생략된다.The electronic communication device 40 corresponds to, for example, an electronic device such as a smartphone or tablet, and obtains an input from a user (eg, communication connection, operation/stop of an interactive process, etc.) to obtain a data processor ( 31), the display unit 23 for displaying the setting conditions, acoustic environment mode, etc. of the hearing aid device 20, and wired or wireless communication with the hearing aid device 20 or an external server, etc. It is configured to include a communication unit 29 that performs, and a data processor 31 that performs a voice conversation method using an interactive process by controlling the above-described components. However, the power supply unit (not shown), the input unit 21, the display unit 23, the communication unit 29, etc. are only techniques recognized naturally by those skilled in the art to which the present invention belongs, and the description thereof will be omitted.

데이터 프로세서(31)는 통신부(29)를 제어하여 청음 보조 장치(20)와의 통신을 수행하면서 인터랙티브 프로세스를 수행하는 프로세서(예를 들면, CPU, MICROPROCESSOR, MCU 등)와, 인터랙티브 프로세스를 포함하는 어플리케이션과, 소리를 처리하기 위한 설정 조건, 음향 환경 모드(예를 들면, 대화 모드, 조용한 장소 모드, TV 시청 모드 등) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(31)에 의해 수행되는 인터랙티브 프로세스를 이용한 음성 대화 방법 및 인터랙티브 프로세스의 수행 중의 피팅 방법이 하기에서 상세하게 기재된다.The data processor 31 controls the communication unit 29 to communicate with the hearing aid 20 while performing an interactive process with a processor (eg, CPU, MICROPROCESSOR, MCU, etc.) and an application including an interactive process and a storage space (eg, memory, etc.) for storing setting conditions for processing sound, acoustic environment mode (eg, conversation mode, quiet place mode, TV watching mode, etc.), etc. . A voice conversation method using an interactive process performed by the data processor 31 and a fitting method during execution of the interactive process will be described in detail below.

본 실시예에서, 설정 조건은 사용자의 청각 기관의 특성 또는 청력 증상 또는 음향 환경 모드에 대응하는 피팅값들을 포함하여 구성된다. In the present embodiment, the setting condition is configured to include fitting values corresponding to the characteristic of the user's auditory organ or the hearing symptom or the acoustic environment mode.

먼저, 청음 보조 장치(20)가 전자 통신 장치(40)에 대하여 독립적으로 인터랙티브 프로세스를 수행하는 경우가 설명된다. 청음 보조 장치(20)는 상술된 청음 보조 기능을 수행하면서 인터랙티브 프로세서를 수행한다.First, a case in which the hearing assistance device 20 independently performs an interactive process with respect to the electronic communication device 40 will be described. The hearing assistance device 20 performs the interactive processor while performing the above-described hearing assistance function.

데이터 프로세서(11)는 인터랙티브 프로세스를 포함하는 어플리케이션을 실행하며, 기설정되거나 디폴트로 저장된 설정 조건에 따른 청음 보조 기능을 수행한다. 이 청음 보조 기능으로, 데이터 프로세서(11)는 입력부(1)에 의해 입력되거나 디폴트로 설정된 음향 환경 모드에 대응하는 설정 조건을 이용하여 마이크(5)로부터 인가된 소리를 처리하여 스피커(7)로 인가한다. 데이터 프로세서(11)는 인터랙티브 프로세스를 수행하여, 사용자의 음성과 외부 음향 환경(또는 음향 환경 모드)을 주기적으로 감지하여 감시하며, 사용자의 음성의 크기를 산정하여 저장하거나 외부 음향 환경을 판단하여 저장한다.The data processor 11 executes an application including an interactive process, and performs a hearing assistance function according to a preset or default stored setting condition. With this hearing aid function, the data processor 11 processes the sound applied from the microphone 5 using the setting conditions corresponding to the acoustic environment mode input by the input unit 1 or set by default to the speaker 7 . approve The data processor 11 performs an interactive process to periodically detect and monitor the user's voice and the external acoustic environment (or acoustic environment mode), calculate and store the user's voice, or determine and store the external acoustic environment do.

데이터 프로세서(11)는 인터랙티브 프로세스를 수행하기 위해, 음성 대화 내용의 생성 유닛과, 생성된 음성 대화 내용을 음성으로 변환시키는 음성 생성 유닛과, 사용자의 음성을 인식하기 위한 음성 인식 유닛 등을 수행한다. The data processor 11 performs an interactive process, such as a generating unit for generating voice conversation content, a voice generating unit for converting the generated voice conversation content into voice, and a voice recognition unit for recognizing a user's voice. .

음성 대화 내용의 생성 유닛은 기설정된 주기에 따라 대화를 시작하거나, 음향 환경 모드 중에서 특정 모드(예를 들면, 대화 모드, 조용한 환경 모드 등)에서 음성 대화를 시작할 수 있다. 음성 대화 내용(예를 들면, 날씨/영화/운동 등에 대한 대화 내용)은 예를 들면, 말뭉치의 구조로 어플리케이션에 포함되어 있으며, 전자 통신 장치(40)와의 통신에 의해 그 내용이 업데이트될 수 있다. 또한, 음성 대화 내용은 음향 환경 모드에 대응하는 내용(예를 들면, TV 시청 모드에서는 TV 프로그램의 내용에 대한 것, 조용한 환경 모드에서는 날씨나 운동에 대한 내용)을 포함할 수 있다. 음성 대화 내용의 생성 유닛은 음성 대화 내용을 결정하거나 선택하여 음성 생성 유닛으로 인가한다.The voice conversation content generating unit may start a conversation according to a preset period, or may start a voice conversation in a specific mode (eg, a conversation mode, a quiet environment mode, etc.) among acoustic environment modes. Voice conversation contents (eg, conversation contents about weather/movie/exercise, etc.) are, for example, included in the application in the form of a corpus, and the contents may be updated by communication with the electronic communication device 40 . . Also, the voice conversation content may include content corresponding to the acoustic environment mode (eg, content of a TV program in the TV viewing mode, and content of weather or exercise in the quiet environment mode). The voice conversation content generating unit determines or selects the voice conversation content and applies it to the voice generating unit.

또한, 음성 생성 유닛은 음성 대화 내용의 생성 유닛으로부터 인가되는 음성 대화 내용을 음성으로 변환하여 스피커(7)에 인가하여 음 방출되도록 한다. In addition, the voice generating unit converts the voice conversation content applied from the voice conversation content generating unit into voice and applies it to the speaker 7 so that the sound is emitted.

또한, 음성 인식 유닛은 마이크(5)로부터의 음성을 인식하고, 인식된 응답 내용을 음성 대화 내용의 생성 유닛으로 인가한다.Further, the voice recognition unit recognizes the voice from the microphone 5, and applies the recognized response content to the voice conversation content generating unit.

음성 대화 내용의 생성 유닛은 인가된 응답 내용에 대응하거나 관련된 신규의 음성 대화 내용을 결정하거나 선택하고, 또는 인가된 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택한다. 음성 대화 내용의 생성 유닛은 신규의 음성 대화 내용을 음성 생성 유닛으로 인가한다.The voice conversation contents generating unit determines or selects new voice conversation contents corresponding to or related to the authorized response contents, or determines or selects new voice dialogue contents not related to the authorized response contents. The voice conversation content generating unit applies the new voice conversation content to the voice generating unit.

상술된 바와 같이, 데이터 프로세서(11)는 음성 대화 내용의 생성, 음성 생성 및 음 방출, 음성 인식 등을 포함하는 음성 대화 기능인 인터랙티브 프로세스를 사용자의 명령이나 입력 없이 독립적으로 또는 능동적으로 수행할 수 있다. As described above, the data processor 11 may independently or actively perform an interactive process, which is a voice conversation function including generation of voice conversation contents, voice generation and sound emission, voice recognition, and the like, without a user's command or input. .

데이터 프로세서(11)은 기저장된 음성 대화 내용을 판독하여 재생하여 스피커(7)에 인가하고, 마이크(5)로부터의 사용자의 응답 음성을 포함하는 전기 신호를 획득하여 사용자의 음성의 크기, 음성의 내용(예를 들면, '잘 안들린다. 다시 말해 줄래' 등), 음성 내용의 정확성 또는 응답 속도 등에 연관된 사용자 음성 특성 및/또는 청각 특성을 산정되거나 판단하여, 사용자 음성 특성 및/또는 청각 특성에 따라 기설정된 설정 조건(예를 들면, 피팅값)을 수정하거나 유지한다. 음성의 크기의 경우, 예를 들면, 현재의 사용자의 음성의 크기(또는 에너지 등)가 평균적인 사용자의 음성의 크기와 같거나 작으면 데이터 프로세서(11)는 사용자가 음성을 명확하게 인식한 것(현재 설정 조건에 따른 음성을 잘 듣고 있다는 청력 특성)으로 판단하여 설정 조건을 유지하고, 그렇지 않으면 사용자가 음성을 명확하게 인식하지 못한 것(현재 설정 조건에 따른 음성을 잘 듣지 못하고 있다는 청력 특성)으로 판단하여 설정 조건을 가변시킨다. 또한, 음성 내용의 정확성에서, 데이터 프로세서(11)은 상술된 음성 인식 유닛을 통하여 사용자로부터의 음성 내용이 스피커(7)를 통하여 전달된 음성의 내용에 맞는 응답이면, 사용자가 음성을 명확하게 인식한 것으로 판단하여 설정 조건을 유지하고, 그렇지 않으면 사용자가 음성을 명확하게 인식하지 못한 것으로 판단하여 설정 조건을 가변시킨다. 또한, 데이터 프로세서(11)는 음성 대화 중에서의 사용자 응답 속도를 산정하여, 기준 응답 속도나, 이전에 산정된 평균 응답 속도와 비교하여, 사용자의 청각 특성을 판단하여 설정 조건을 가변시키거나 유지할 수 있다.The data processor 11 reads and reproduces the pre-stored voice conversation content, applies it to the speaker 7 , and acquires an electrical signal including the user's response voice from the microphone 5 to determine the size of the user's voice, By calculating or judging user voice characteristics and/or auditory characteristics related to content (eg, 'I can't hear well, can you tell me again', etc.), accuracy or response speed of voice content, etc., the user voice characteristics and/or auditory characteristics Accordingly, a preset setting condition (eg, a fitting value) is corrected or maintained. In the case of voice volume, for example, if the current user's voice volume (or energy, etc.) is equal to or smaller than the average user's voice volume, the data processor 11 clearly recognizes the user's voice. (Hearing characteristic that the voice is well heard according to the current setting condition) and maintain the setting condition, otherwise the user did not clearly recognize the voice (hearing characteristic that the voice is not well heard according to the current setting condition) to change the setting conditions. In addition, in the accuracy of the voice content, the data processor 11 clearly recognizes the voice by the user if the voice content from the user through the above-described voice recognition unit is a response that matches the content of the voice transmitted through the speaker 7 . The setting condition is maintained by judging that it has been set, otherwise it is determined that the user did not clearly recognize the voice and the setting condition is changed. In addition, the data processor 11 calculates the user's response speed during the voice conversation, and compares the reference response speed or the previously calculated average response speed to determine the user's auditory characteristics to change or maintain the setting conditions. have.

데이터 프로세서(11)는 상술된 인터랙티브 프로세스를 능동적으로 또는 독립적으로 수행하되, 이 인터랙티브 프로세스의 수행 중에, 음성 대화의 전달과, 사용자 응답 음성의 획득 및 획득된 응답 음성에 연관된 사용자 음성 특성 및/또는 청각 특성의 산정 또는 판단 과정을 반복적으로 수행한다.The data processor 11 actively or independently performs the above-described interactive process, wherein during the performance of the interactive process, the transfer of the voice conversation, the acquisition of the user response voice and the user voice characteristics associated with the acquired response voice and/or the data processor 11 The process of calculating or judging auditory characteristics is repeatedly performed.

또한, 데이터 프로세서(11)는 인터랙티브 프로세스에 따라 마이크(5)로부터 소리를 획득하여 사용자의 음성 크기를 산정하여, 평균적인 사용자의 음성 크기를 산정할 수도 있고, 음향 환경 모드를 판단할 수도 있다.In addition, the data processor 11 may obtain a sound from the microphone 5 according to an interactive process and calculate the user's voice volume, calculate the average user's voice volume, or determine the acoustic environment mode.

또한, 데이터 프로세서(11)는 인터랙티브 프로세스에 따라 스피커(7)를 통한 음성 표출에 의해 사용자의 만족도를 확인할 수도 있다. 예를 들면, 데이터 프로세서(11)가 스피커(7)를 통하여 "음성이 잘 들리시나요?"를 사용자에게 전달하고, 마이크(5)로부터의 사용자의 응답 음성 내용이 "소리는 들리지만, 말소리가 명료하지 않아"인 경우, 데이터 프로세서(11)는 2KHz 이상 고주파수 영역 이득을 증가 시키는 설정 조건의 가변을 수행하고, 다시 "음성이 잘 들리시나요?" 등을 반복적으로 수행하면서, 소리나 음성의 전체 이득의 증가 또는 감소, 압축 지점을 현재보다 증가시키거나 감소시키거나, 압축 비율을 낮추거나 높이거나 등의 설정 조건 가변을 수행하여, 사용자가 만족하는 설정 조건을 결정할 수도 있다. In addition, the data processor 11 may check the user's satisfaction by voice expression through the speaker 7 according to an interactive process. For example, the data processor 11 transmits "Can you hear your voice well?" to the user through the speaker 7, and the user's response voice content from the microphone 5 is "You can hear the sound, but the speech is clear." In the case of "I don't do it", the data processor 11 changes the setting condition to increase the gain in the high frequency region of 2KHz or more, and again "Can you hear the voice well?" While repeatedly performing the above, etc., increasing or decreasing the overall gain of sound or voice, increasing or decreasing the compression point from the present, lowering or increasing the compression ratio, etc. It is also possible to determine the setting conditions.

또한, 데이터 프로세서(11)는 가변된 설정 조건을 이용하여, 음향 환경 모드별 설정 조건을 가변 조절할 수도 있다. Also, the data processor 11 may variably adjust the setting conditions for each acoustic environment mode by using the changed setting conditions.

이러한 인터랙티브 프로세스에 의해, 데이터 프로세서(11)는 음성 대화 기능을 제공하므로, 대화와 소통을 통해서 사용자의 뇌 질환 및 인지 저하를 예방하거나 치료를 할 수 있는 효과가 있다. By such an interactive process, the data processor 11 provides a voice conversation function, so that it is possible to prevent or treat a user's brain disease and cognitive decline through conversation and communication.

상술된 바와 같이, 인터랙티브 프로세서를 이용한 피팅 방법이 청음 보조 장치(20)의 데이터 프로세서(11)에 의해 실행되는 것이 기재되었으며, 하기에서는 전자 통신 장치(40)가 청음 보조 장치(20)를 제어하여 인터랙티브 프로세스를 이용한 피팅 방법이 기재된다.As described above, it has been described that the fitting method using the interactive processor is executed by the data processor 11 of the hearing aid 20 . Hereinafter, the electronic communication device 40 controls the hearing aid 20 to A fitting method using an interactive process is described.

데이터 프로세서(31)는 인터랙티브 프로세스를 포함하는 어플리케이션을 실행하며, 통신부(29)를 통하여 청음 보조 장치(20)와 통신 연결을 유지한다. The data processor 31 executes an application including an interactive process, and maintains a communication connection with the hearing aid device 20 through the communication unit 29 .

데이터 프로세서(31)는 상술된 인터랙티브 프로세스를 수행하여 음성 대화를 시작하여, 음성 대화 내용은 데이터 프로세서(31)에 저장되며, 음성 대화 내용을 통신부(29)를 통하여 청음 보조 장치(20)로 전송한다. 데이터 프로세서(11)는 음성 대화 내용을 통신부(9)를 통하여 수신하여 스피커(7)에 인가하여 음 방출시킨다. 또한, 데이터 프로세서(11)는 마이크(5)로부터의 사용자 음성을 통신부(9)를 통하여 전자 통신 장치(40)로 전송한다. 데이터 프로세서(31)는 전송된 사용자 응답 음성에 따라 상술된 바와 같이, 사용자의 음성의 크기, 음성의 내용, 음성 내용의 정확성, 응답 속도 등을 산정하거나 판단하여, 즉 사용자 응답 음성에 연관된 음성 특성 및/또는 청각 특성을 판단하여, 설정 조건을 가변시키거나 유지시킨다. The data processor 31 performs the above-described interactive process to start a voice conversation, the voice conversation contents are stored in the data processor 31 , and the voice conversation contents are transmitted to the hearing aid device 20 through the communication unit 29 . do. The data processor 11 receives the voice conversation content through the communication unit 9 and applies it to the speaker 7 to emit sound. In addition, the data processor 11 transmits the user's voice from the microphone 5 to the electronic communication device 40 through the communication unit 9 . As described above, the data processor 31 calculates or determines the volume of the user's voice, the content of the voice, the accuracy of the voice content, the response speed, etc. according to the transmitted user response voice, that is, the voice characteristic related to the user's response voice. and/or determining an auditory characteristic to vary or maintain a set condition.

또한, 데이터 프로세서(31)는 청음 보조 장치(20)를 제어하여 설정 조건에 대한 사용자의 만족도를 확인하여, 상술된 바와 같이 설정 조건을 유지시키거나 가변시킨다.In addition, the data processor 31 controls the hearing assistance device 20 to check the user's satisfaction with the set condition, and maintains or changes the set condition as described above.

또한, 데이터 프로세서(31)는 가변된 설정 조건을 통신부(29)를 통하여 청음 보조 장치(20)로 전송하고, 데이터 프로세서(11)는 통신부(9)를 통하여 가변된 설정 조건을 수신하여 저장하며, 마이크(5)로부터의 소리나 음성을 저장된 설정 조건에 따라 음성 처리를 수행하여 스피커(7)를 통하여 음 방출시킨다. In addition, the data processor 31 transmits the changed setting condition to the hearing aid 20 through the communication unit 29 , and the data processor 11 receives and stores the changed setting condition through the communication unit 9 , , the sound or voice from the microphone 5 is processed according to the stored setting conditions, and the sound is emitted through the speaker 7 .

또한, 데이터 프로세서(31)는 설정 조건의 내용을 사용자가 확인할 수 있도록 표시부(23)를 통하여 표시하며, 입력부(21)로부터의 가변 입력에 의해 설정 조건을 가변시켜 저장할 수도 있다.In addition, the data processor 31 displays the content of the setting condition through the display unit 23 so that the user can check it, and may change and store the setting condition by a variable input from the input unit 21 .

상술된 바와 같이, 설정 조건의 가변이 이루어진 경우, 데이터 프로세서(11)는 가변된 설정 조건에 따라서 청음 보조 기능을 수행하며, 반복적으로 인터랙티브 프로세스를 수행하여 설정 조건의 유지나 가변 동작을 수행한다.As described above, when the setting condition is changed, the data processor 11 performs a hearing aid function according to the changed setting condition, and repeatedly performs an interactive process to maintain or change the setting condition.

상술된 데이터 프로세서(11) 및/또는 데이터 프로세서(31)에 의한 음성 인식 및 대화 내용의 생성의 경우, 전자 통신 장치(40)가 음성 인식 서버(미도시)에 통신 연결되어, 음성 인식 서버로 사용자의 응답 음성을 인가하고, 음성 인식 서버가 응답 음성을 인식하고, 인식된 응답 내용에 대응하는 대화 내용을 생성하여 전자 통신 장치(40)로 전송할 수도 있다. 음성 인식 서버는 보다 다양한 음성 대화 내용을 저장하며, 음성 대화 내용의 업데이트도 용이하다.In the case of voice recognition and generation of conversation content by the data processor 11 and/or data processor 31 described above, the electronic communication device 40 is communicatively connected to a voice recognition server (not shown), and the voice recognition server The user's response voice may be authorized, the voice recognition server may recognize the response voice, generate conversation content corresponding to the recognized response content, and transmit it to the electronic communication device 40 . The voice recognition server stores more various voice conversation contents, and it is easy to update the voice conversation contents.

다양한 실시 예에 따른 장치(예: 프로세서 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리가 될 수 있다.At least a portion of an apparatus (eg, a processor or functions thereof) or a method (eg, operations) according to various embodiments is stored in a computer-readable storage medium in the form of, for example, a program module It can be implemented with stored instructions. When the instruction is executed by a processor, the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, a memory.

컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD(Digital Versatile Disc), 자기-광 매체(magnetoopticalmedia)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등)등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.Computer-readable recording media include hard disks, floppy disks, magnetic media (eg, magnetic tape), optical media (eg, CD-ROM, DVD (Digital Versatile Disc), magnetic- It may include an optical medium (eg, a floptical disk), a hardware device (eg, ROM, RAM, or flash memory, etc.), etc. In addition, program instructions include It may include not only machine code but also high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate as one or more software modules to perform operations of various embodiments, and the The same goes for the station.

다양한 실시 예에 따른 프로세서 또는 프로세서에 의한 기능들은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.The processor or functions by the processor according to various embodiments may include at least one or more of the aforementioned components, some may be omitted, or may further include additional other components. Operations performed by a module, a program module, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic method. Also, some operations may be executed in a different order, omitted, or other operations may be added.

이상 설명한 바와 같이, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형의 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.As described above, the present invention is not limited to the specific preferred embodiments described above, and anyone with ordinary skill in the art to which the invention pertains can use various methods without departing from the gist of the present invention as claimed in the claims. It goes without saying that modifications are possible, and such modifications are intended to be within the scope of the claims.

20: 청음 보조 장치 40: 전자 통신 장치20: hearing aid device 40: electronic communication device

Claims (5)

청음 보조 장치의 기설정된 설정 조건에 따라 청음 보조 기능을 수행하는 단계와;
청음 보조 기능의 수행 중에 음성 대화 내용을 결정하거나 선택하는 제 1 과정과, 제 1 과정에 결정되거나 선택된 음성 대화 내용을 소리나 진동으로 사용자에게 전달하는 제 2 과정과, 사용자로부터의 응답 음성을 획득하는 제 3 과정과, 제 3 과정에서의 사용자 응답 음성을 인식하고, 인식된 응답 내용에 대응하거나 응답 내용과 관련 없는 신규의 음성 대화 내용을 결정하거나 선택하는 제 4 과정을 포함하는 인터랙티브 프로세스를 수행하는 단계를 포함하고,
음성 대화 방법은 획득된 사용자의 응답 음성의 특성에 연관된 사용자 음성 특성 및 청각 특성에 따라 설정 조건을 유지하거나 가변하는 단계를 포함하고,
응답 음성의 특성은 음성의 크기, 음성의 내용, 음성 내용의 정확성 및 응답 속도를 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.
performing a hearing aid function according to a preset condition of a hearing aid device;
A first process of determining or selecting the content of a voice conversation while performing the hearing assistance function, a second process of delivering the content of the voice conversation determined or selected in the first process to the user as sound or vibration, and obtaining a response voice from the user An interactive process is performed including a third process of performing a third process, and a fourth process of recognizing the user's response voice in the third process, and determining or selecting a new voice conversation content corresponding to the recognized response content or not related to the response content comprising the steps of
The voice conversation method includes maintaining or varying a setting condition according to a user voice characteristic and an auditory characteristic related to the acquired characteristic of the user's response voice,
A voice conversation method of a hearing aid device using an interactive process, characterized in that the characteristics of the response voice include the volume of the voice, the content of the voice, the accuracy of the voice content, and the response speed.
제 1 항에 있어서,
설정 조건은 피팅값을 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.
The method of claim 1,
The setting condition includes a fitting value. A voice conversation method of a hearing aid using an interactive process.
제 1 항에 있어서,
소리나 진동을 전달하는 단계는 기설정된 주기에 따라 수행되거나 음향 환경 모드 중에서 특정 모드에서 수행되는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.
The method of claim 1,
The step of transmitting the sound or vibration is performed according to a preset cycle or is performed in a specific mode among acoustic environment modes.
삭제delete 제 1 항에 있어서,
인터랙티브 프로세스의 수행 단계는 음성 표출에 의해 사용자의 만족도를 확인하는 단계와, 확인 단계에서의 사용자의 응답 음성 내용에 따라 설정 조건을 유지하거나 가변하는 단계를 추가적으로 포함하는 것을 특징으로 하는 인터랙티브 프로세스를 이용한 청음 보조 장치의 음성 대화 방법.
The method of claim 1,
The performing step of the interactive process further includes the step of confirming the user's satisfaction by voice expression, and the step of maintaining or varying the setting condition according to the user's response voice in the confirmation step. How to use a hearing aid for voice communication.
KR1020200075650A 2020-06-22 2020-06-22 Voice interacting method of hearing assisting apparatus using interactive process KR102355182B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200075650A KR102355182B1 (en) 2020-06-22 2020-06-22 Voice interacting method of hearing assisting apparatus using interactive process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200075650A KR102355182B1 (en) 2020-06-22 2020-06-22 Voice interacting method of hearing assisting apparatus using interactive process

Publications (2)

Publication Number Publication Date
KR20210157621A KR20210157621A (en) 2021-12-29
KR102355182B1 true KR102355182B1 (en) 2022-01-25

Family

ID=79176644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200075650A KR102355182B1 (en) 2020-06-22 2020-06-22 Voice interacting method of hearing assisting apparatus using interactive process

Country Status (1)

Country Link
KR (1) KR102355182B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150194A (en) 2001-11-14 2003-05-23 Seiko Epson Corp Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device
WO2017200080A1 (en) * 2016-05-20 2017-11-23 日本電信電話株式会社 Intercommunication method, intercommunication device, and program
US20190149927A1 (en) * 2017-11-15 2019-05-16 Starkey Laboratories, Inc. Interactive system for hearing devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150194A (en) 2001-11-14 2003-05-23 Seiko Epson Corp Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device
WO2017200080A1 (en) * 2016-05-20 2017-11-23 日本電信電話株式会社 Intercommunication method, intercommunication device, and program
US20190149927A1 (en) * 2017-11-15 2019-05-16 Starkey Laboratories, Inc. Interactive system for hearing devices

Also Published As

Publication number Publication date
KR20210157621A (en) 2021-12-29

Similar Documents

Publication Publication Date Title
EP3167625B1 (en) Method of optimizing parameters in a hearing aid system and a hearing aid system
US11917375B2 (en) Prosthesis functionality control and data presentation
US10896020B2 (en) System for processing service requests relating to unsatisfactory performance of hearing devices, and components of such system
US10303428B2 (en) Electronic device with a function of smart voice service and method of adjusting output sound
US11882413B2 (en) System and method for personalized fitting of hearing aids
US20170046120A1 (en) Customizable Personal Sound Delivery System
WO2020214482A1 (en) Self-fit hearing instruments with self-reported measures of hearing loss and listening
WO2020084587A2 (en) Passive fitting techniques
WO2020261148A1 (en) Prediction and identification techniques used with a hearing prosthesis
CN111971979A (en) Rehabilitation and/or rehabilitation of advanced hearing prosthesis recipients
US11653146B2 (en) Information processing device, information processing method, and program
KR102355182B1 (en) Voice interacting method of hearing assisting apparatus using interactive process
Ni et al. A real-time smartphone app for field personalization of hearing enhancement by adaptive dynamic range optimization
CN111226445A (en) Advanced auxiliary device for prosthesis-assisted communication
US12017010B2 (en) Sound control system and method for dental treatment
JP7272425B2 (en) FITTING ASSIST DEVICE, FITTING ASSIST METHOD, AND PROGRAM
WO2020217494A1 (en) Fitting assistance device, fitting assistance method, and computer-readable recording medium
US11902746B2 (en) Ear level auditory system
US12089006B1 (en) Ear-worn device configured for over-the-counter and prescription use
US12126968B2 (en) Hearing aid adjustment system and hearing aid adjustment method
US20230156417A1 (en) Hearing aid adjustment system and hearing aid adjustment method
EP3826328A1 (en) Systems and methods for adjusting a gain limit of a hearing device
WO2023165844A1 (en) Circuitry and method for visual speech processing
WO2024168048A1 (en) Improving speech understanding of users
CN114302296A (en) Automatic sound adjusting method, device, equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right