KR20220059621A - Electronic apparatus for performing auditory training with music, method, and computer program - Google Patents

Electronic apparatus for performing auditory training with music, method, and computer program Download PDF

Info

Publication number
KR20220059621A
KR20220059621A KR1020200144992A KR20200144992A KR20220059621A KR 20220059621 A KR20220059621 A KR 20220059621A KR 1020200144992 A KR1020200144992 A KR 1020200144992A KR 20200144992 A KR20200144992 A KR 20200144992A KR 20220059621 A KR20220059621 A KR 20220059621A
Authority
KR
South Korea
Prior art keywords
user input
training
sound
training step
query
Prior art date
Application number
KR1020200144992A
Other languages
Korean (ko)
Other versions
KR102451956B1 (en
Inventor
한우재
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200144992A priority Critical patent/KR102451956B1/en
Publication of KR20220059621A publication Critical patent/KR20220059621A/en
Application granted granted Critical
Publication of KR102451956B1 publication Critical patent/KR102451956B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • A61B5/123Audiometering evaluating hearing capacity subjective methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick

Abstract

The present invention relates to an auditory training method for an electronic device. The auditory training method comprises: a detection training step of receiving a first user input for a first query inquiring whether a performance sound is heard; a discrimination training step of receiving a second user input for a second query inquiring whether the rhythms or melodies of two sounds sound different from each other; a confirmation training step of receiving a third user input for a third query requesting to select an instrument corresponding to a sound; an understanding training step of receiving a fourth user input for a fourth query related to a sound including playing sounds of a plurality of musical instruments; and a retraining step of further performing at least one of the detection training step based on the first to fourth user inputs, the discrimination training step, the confirmation training step, and the understanding training step. The present invention provides an electronic device capable of performing auditory training based on various queries using musical instrument sounds.

Description

음악을 이용하여 청능 훈련을 수행하는 전자 장치, 방법, 및 컴퓨터 프로그램 { ELECTRONIC APPARATUS FOR PERFORMING AUDITORY TRAINING WITH MUSIC, METHOD, AND COMPUTER PROGRAM }ELECTRONIC APPARATUS FOR PERFORMING AUDITORY TRAINING WITH MUSIC, METHOD, AND COMPUTER PROGRAM }

본 개시는 청능 훈련을 수행하는 전자 장치에 관한 것으로, 보다 상세하게는, 연주음에 대한 탐지, 변별, 확인, 이해 등의 과정을 포함하는 청능 훈련을 수행하는 전자 장치에 관한 것이다.The present disclosure relates to an electronic device for performing auditory training, and more particularly, to an electronic device for performing auditory training including a process of detecting, discriminating, confirming, understanding, and the like, a performance sound.

국내 청각장애의 출현율은 총 16개의 장애유형들 중 지체장애와 시각장애에 이어 상위 3번째로써, 전체 인구의 약 6.5% (3,136,110명)가 청각장애인으로 추정되고 있다(보건복지부, 2014). 이러한 수치는 선천성난청의 조기 발견, 인구의 신속한 고령화로 노인성난청의 증가, 휴대용 음향기기 보급 확산과 산업화로 인한 소음성난청의 증가 등의 이유로 2005년부터 해마다 꾸준히 상승하고 있으며, 향후 청각장애 인구 비율은 선진국과 유사하게 전체 인구의 10% 정도가 될 것으로 전망한다.The prevalence of hearing impairment in Korea ranks third after physical disability and visual impairment among 16 disability types, and it is estimated that approximately 6.5% (3,136,110 people) of the total population are deaf (Ministry of Health and Welfare, 2014). This number has been steadily increasing every year since 2005 due to the early detection of congenital hearing loss, the increase in geriatric hearing loss due to the rapid aging of the population, the spread of portable audio devices and the increase in noise-induced hearing loss due to industrialization. is projected to account for about 10% of the total population, similar to developed countries.

청각장애인들은 청력 손실로 인하여 1차적으로 의사소통에 어려움을 갖으며, 2차적으로는 경제적 · 심리사회적 제약을 갖는다. 그러나 빠른 공학·의학 기술의 발달로 최신 보청기들은 일정 정도의 인공지능 기술을 탑재하게 되었고 인공 와우 이식술은 12개월의 유소아부터 가능하게 되어, 청각장애인들의 의사소통능력은 지난 수년간 눈에 띄게 향상되었다(Park et al, 2018). 그럼에도 정상 청력인과 언어인지 능력에서 큰 차이를 보이지 않는 조용한 청취 환경을 벗어나 일상 소음이 있는 환경에서는 여전히 상대방의 말소리 인식이 어렵고 음악을 통한 소리의 즐거움을 추구하기에는 많은 제약이 따른다(Nelson et al, 2003).Deaf people have difficulties in communicating primarily due to hearing loss, and secondarily, they have economic and psychosocial limitations. However, with the rapid development of engineering and medical technology, the latest hearing aids are equipped with a certain degree of artificial intelligence technology, and cochlear implantation is possible from 12 months of age. Park et al, 2018). Nevertheless, it is still difficult to recognize the other person's speech in an environment where there is everyday noise outside the quiet listening environment, which does not show a significant difference between the normal hearing person and the language recognition ability, and there are many restrictions in pursuing the enjoyment of sound through music (Nelson et al, 2003).

구체적으로, 외부로부터 입력되는 소리를 음향적으로 분석하고 코딩화하여 전기적 신호로 전달하는 현재의 인공와우 어음처리기법은 포락선 정보의 대부분을 전달할 수 있지만, 청력 손실로 인해 넓어진 청각 필터를 채우는 시간적 미세구조 정보는 세밀하게 전달하지 못한다(Hopkins et al, 2008). 이는 결과적으로 조용한 환경에서는 시간적 미세구조의 정보가 충분하지 않더라도 보청기 및 인공 와우의 착용 이득만으로도 포락선 정보가 주어지기에 언어를 인지하는데 큰 어려움이 없지만, 소음이 있는 환경에서는 포락선의 정보가 주어지더라도 시간적 미세구조에 대한 정보가 충분치 않기 때문에 안타깝게도 어음 이해가 불가능하게 되고(Moore, 2008) 여러 요소가 융합되어 종합적 인지를 필요로 하는 음악 청취에서도 왜곡을 일으킨다(Looi et al, 2012).Specifically, the current cochlear cochlear speech processing technique, which acoustically analyzes and encodes sound input from the outside and transmits it as an electrical signal, can deliver most of the envelope information, but the temporal fineness that fills the auditory filter widened due to hearing loss Structural information does not convey detailed information (Hopkins et al, 2008). As a result, even if the temporal microstructure information is not sufficient in a quiet environment, there is no great difficulty in recognizing a language because envelope information is given only by wearing a hearing aid and a cochlear implant, but in a noisy environment, even if envelope information is given Unfortunately, because there is not enough information on the temporal microstructure, it is impossible to understand speech (Moore, 2008), and several factors converge to cause distortion even in music listening, which requires comprehensive recognition (Looi et al, 2012).

한편, 흥미롭게도, 발화된 언어를 이해하는 데에 주요한 역할을 하는 뇌의 부분이 음악을 처리하는 데에 주요한 역할을 수행하기도 하는 것으로 알려지면서, 악기를 통한 청능 훈련의 필요성이 대두되고 있다(Gfeller et al, 2016. Anderson S et al, 2013. Asaridou et al, 2013).On the other hand, interestingly, as the part of the brain that plays a major role in understanding spoken language is known to play a major role in processing music, the need for auditory training through musical instruments is emerging (Gfeller) et al, 2016. Anderson S et al, 2013. Asaridou et al, 2013).

다만, 악기의 연주음을 통한 청능 훈련을 자동으로 제공할 수 있는 장치 내지는 시스템에 대한 기술 개발이 크게 진척되지는 못한 상황이다.However, technology development for a device or system capable of automatically providing auditory training through the playing sound of a musical instrument has not progressed significantly.

등록 특허 공보 제10-20535800000호Registered Patent Publication No. 10-20535800000

본 개시는, 악기의 연주음을 이용한 다양한 질의를 기반으로 청능 훈련을 수행할 수 있는 전자 장치를 제공한다.The present disclosure provides an electronic device capable of performing auditory training based on various queries using sound played by a musical instrument.

본 개시는, 사용자 입력의 다양한 특성을 기반으로 효과적인 재훈련 과정을 자동으로 설계할 수 있는 전자 장치 및 청능 훈련 방법을 제공한다.The present disclosure provides an electronic device capable of automatically designing an effective retraining process based on various characteristics of a user input and a hearing ability training method.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법은, 일 악기의 연주음으로 구성된 제1 사운드를 출력하고, 연주음이 들리는지 여부를 문의하는 제1 질의를 디스플레이하고, 상기 제1 질의에 응답하는 제1 사용자 입력을 수신하는, 탐지 훈련 단계, 각각 일 악기의 연주음으로 구성된 제2 사운드 및 제3 사운드를 출력하고, 상기 제2 사운드 및 상기 제3 사운드의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 제2 질의를 디스플레이하고, 상기 제2 질의에 응답하는 제2 사용자 입력을 수신하는, 변별 훈련 단계, 일 악기의 연주음으로 구성된 제4 사운드를 출력하고, 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 제3 질의를 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신하는, 확인 훈련 단계, 복수의 악기의 연주 소리를 포함하는 제5 사운드를 출력하고, 상기 제5 사운드에 대응되는 상기 복수의 악기 중 적어도 하나와 관련된 제4 질의를 디스플레이하고, 상기 제4 질의에 응답하는 제4 사용자 입력을 수신하는, 이해 훈련 단계, 상기 제1 사용자 입력, 상기 제2 사용자 입력, 상기 제3 사용자 입력 및 상기 제4 사용자 입력 중 적어도 하나를 기반으로, 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나를 추가로 수행하는, 재훈련 단계를 포함한다.The auditory training method of an electronic device according to an embodiment of the present disclosure includes outputting a first sound composed of a performance sound of a musical instrument, displaying a first query for inquiring whether a performance sound is heard, and performing the first query A detection training step of receiving a first user input in response to, outputting a second sound and a third sound each composed of a performance sound of a musical instrument, and at least one of a rhythm and a melody of the second sound and the third sound A discrimination training step of displaying a second query inquiring whether or not sounds different from each other, receiving a second user input in response to the second query, outputting a fourth sound composed of a performance sound of one instrument, and plural Displaying a third query for requesting to select a musical instrument corresponding to the fourth sound from among musical instruments of , and receiving a third user input for selecting at least one of the plurality of musical instruments in response to the third query step, outputting a fifth sound including performance sounds of a plurality of musical instruments, displaying a fourth query related to at least one of the plurality of musical instruments corresponding to the fifth sound, and responding to the fourth query Receiving a user input, an understanding training step, a detection training step, a discrimination training step, a confirmation training based on at least one of the first user input, the second user input, the third user input, and the fourth user input and a retraining step, further performing at least one of the step and the comprehension training step.

이때, 상기 재훈련 단계는, 상기 제1 사용자 입력이 오답인 경우 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고, 상기 제1 사용자 입력이 정답이고 상기 제2 사용자 입력이 오답인 경우 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고, 상기 제1 사용자 입력 및 상기 제2 사용자 입력이 각각 정답이고 상기 제3 사용자 입력이 오답인 경우 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고, 상기 제1 사용자 입력, 상기 제2 사용자 입력 및 상기 제3 사용자 입력이 각각 정답이고 상기 제4 사용자 입력이 오답인 경우 이해 훈련 단계를 추가로 수행할 수 있다.In this case, in the retraining step, when the first user input is an incorrect answer, a detection training step, a discrimination training step, a confirmation training step, and an understanding training step are additionally performed, and the first user input is a correct answer and the second user When the input is an incorrect answer, a discrimination training step, a confirmation training step, and an understanding training step are additionally performed, and when the first user input and the second user input are each correct answer and the third user input is an incorrect answer, a confirmation training step; The understanding training step may be additionally performed, and when the first user input, the second user input, and the third user input are each correct answer and the fourth user input is an incorrect answer, the understanding training step may be additionally performed.

상기 전자 장치의 청능 훈련 방법은, 상기 제1 내지 제4 질의 중 적어도 하나의 난이도 및 상기 제1 내지 제4 사용자 입력 중 적어도 하나의 정답 여부에 따라, 상기 재훈련 단계에서 수행되는 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나의 난이도를 조정하는 단계를 더 포함할 수 있다.The hearing ability training method of the electronic device includes: a detection training step performed in the retraining step according to the difficulty level of at least one of the first to fourth queries and the correct answer of at least one of the first to fourth user inputs; The method may further include adjusting the difficulty of at least one of the discrimination training step, the confirmation training step, and the understanding training step.

이때, 상기 변별 훈련 단계는, 제1 난이도에 대응되는 상기 제2 질의를 디스플레이할 수 있다. 이 경우, 상기 재훈련 단계는, 상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 오답인 경우, 상기 제1 난이도보다 낮거나 같은 제2 난이도에 대응되는 변별 훈련 단계를 추가로 수행하고, 상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 정답인 경우, 상기 제1 난이도보다 높거나 같은 제3 난이도에 대응되는 변별 훈련 단계를 추가로 수행할 수 있다.In this case, in the discrimination training step, the second query corresponding to the first difficulty level may be displayed. In this case, in the retraining step, if the second user input received according to the second query in the discrimination training step is an incorrect answer, a discrimination training step corresponding to a second difficulty level equal to or lower than the first difficulty level is performed. In the discrimination training step, if the second user input received according to the second query is the correct answer, a discrimination training step corresponding to a third difficulty level higher than or equal to the first difficulty level is additionally performed. can

여기서, 상기 전자 장치의 청능 훈련 방법은, 상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 정답인 경우, 상기 제2 사용자 입력의 수신에 소요된 시간을 변별 훈련 단계의 훈련 이력을 기반으로 획득된 사용자 입력의 수신에 소요되는 평균 시간과 비교하는 단계를 더 포함할 수 있다. 이 경우, 상기 재훈련 단계는, 상기 제2 사용자 입력의 수신에 소요된 시간이 상기 평균 시간에 임계 시간을 더한 시간보다 길거나 같은 경우, 상기 제1 난이도에 대응되는 변별 훈련 단계를 추가로 수행하고, 상기 제2 사용자 입력의 수신에 소요된 시간이 상기 평균 시간에 상기 임계 시간을 더한 시간보다 짧은 경우, 상기 제1 난이도보다 높은 난이도에 대응되는 변별 훈련 단계를 추가로 수행할 수 있다.Here, in the hearing ability training method of the electronic device, when the second user input received according to the second query in the discrimination training step is a correct answer, the time taken for receiving the second user input is determined in the discrimination training step The method may further include comparing an average time required to receive a user input obtained based on the training history. In this case, in the retraining step, if the time taken to receive the second user input is longer than or equal to the average time plus the threshold time, the discrimination training step corresponding to the first difficulty level is additionally performed, , when the time taken to receive the second user input is shorter than the average time plus the threshold time, a discrimination training step corresponding to a difficulty higher than the first difficulty level may be additionally performed.

한편, 상기 확인 훈련 단계는, 건반 악기, 관악기, 타악기, 현악기 중 적어도 하나를 포함하는 복수의 군에 해당하는 복수의 악기 중 하나의 악기의 연주음으로 구성된 제4 사운드를 출력하고, 상기 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 상기 제3 질의를 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신할 수 있다. 이 경우, 상기 전자 장치의 청능 훈련 방법은, 상기 확인 훈련 단계에서 상기 제3 질의에 따라 수신된 상기 제3 사용자 입력이 오답인 경우, 상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되는지 식별하는 단계를 더 포함할 수 있다. 그리고, 상기 재훈련 단계는, 상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되는 경우, 확인 훈련 단계를 제1 횟수만큼 추가로 수행하고, 상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되지 않는 경우, 확인 훈련 단계를 상기 제1 횟수보다 많은 제2 횟수만큼 추가로 수행할 수 있다.Meanwhile, in the confirmation training step, a fourth sound composed of a performance sound of one of a plurality of musical instruments corresponding to a plurality of groups including at least one of a keyboard instrument, a wind instrument, a percussion instrument, and a string instrument is output, and the plurality of The third query for requesting to select a musical instrument corresponding to the fourth sound from among musical instruments may be displayed, and a third user input for selecting at least one of the plurality of musical instruments may be received in response to the third query. In this case, in the hearing ability training method of the electronic device, when the third user input received according to the third query in the confirmation training step is an incorrect answer, the instrument selected according to the third user input is applied to the fourth sound It may further include the step of identifying whether it is included in the same group as the corresponding musical instrument. In the retraining step, when the instrument selected according to the third user input is included in the same group as the instrument corresponding to the fourth sound, the confirmation training step is additionally performed a first number of times, and the third When the instrument selected according to the user input is not included in the same group as the instrument corresponding to the fourth sound, the confirmation training step may be additionally performed a second number of times greater than the first number.

한편, 상기 전자 장치의 성능 훈련 방법은, 주변 소음의 크기를 측정하는 단계를 더 포함할 수 있다. 상기 재훈련 단계는, 상기 측정된 주변 소음의 크기에 대응되는 난이도를 기반으로, 상기 탐지 훈련 단계, 상기 변별 훈련 단계, 상기 확인 훈련 단계 및 상기 이해 훈련 단계 중 적어도 하나를 추가로 수행할 수 있다.Meanwhile, the method for training the performance of the electronic device may further include measuring the level of ambient noise. In the retraining step, at least one of the detection training step, the discrimination training step, the confirmation training step, and the understanding training step may be additionally performed based on the degree of difficulty corresponding to the measured ambient noise level. .

본 개시의 일 실시 예에 따른 전자 장치는, 스피커, 디스플레이, 상기 스피커 및 상기 디스플레이와 연결된 프로세서를 포함한다. 상기 프로세서는, 일 악기의 연주음으로 구성된 제1 사운드를 상기 스피커를 통해 출력하고, 연주음이 들리는지 여부를 문의하는 제1 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제1 질의에 응답하는 제1 사용자 입력을 수신하는, 탐지 훈련 단계를 수행하고, 각각 일 악기의 연주음으로 구성된 제2 사운드 및 제3 사운드를 상기 스피커를 통해 출력하고, 상기 제2 사운드 및 상기 제3 사운드의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 제2 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제2 질의에 응답하는 제2 사용자 입력을 수신하는, 변별 훈련 단계를 수행하고, 일 악기의 연주음으로 구성된 제4 사운드를 상기 스피커를 통해 출력하고, 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 제3 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신하는, 확인 훈련 단계를 수행하고, 복수의 악기의 연주 소리를 포함하는 제5 사운드를 상기 스피커를 통해 출력하고, 상기 제5 사운드에 대응되는 상기 복수의 악기 중 적어도 하나와 관련된 제4 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제4 질의에 응답하는 제4 사용자 입력을 수신하는, 이해 훈련 단계를 수행하고, 상기 제1 사용자 입력, 상기 제2 사용자 입력, 상기 제3 사용자 입력 및 상기 제4 사용자 입력 중 적어도 하나를 기반으로, 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나를 추가로 수행한다.An electronic device according to an embodiment of the present disclosure includes a speaker, a display, and a processor connected to the speaker and the display. The processor outputs a first sound composed of a performance sound of a musical instrument through the speaker, displays a first query for inquiring whether a performance sound is heard through the display, and responds to the first query 1 performing a detection training step of receiving a user input, outputting a second sound and a third sound each composed of a performance sound of a musical instrument through the speaker, and rhythm and melody of the second sound and the third sound A second query for inquiring whether at least one of the sounds is different from each other is displayed through the display, and a discrimination training step of receiving a second user input in response to the second query is performed, and the playing sound of one instrument outputting a fourth sound composed of A confirmation training step of receiving a third user input for selecting at least one of the musical instruments of performing a comprehension training step of displaying a fourth query related to at least one of the plurality of instruments through the display, and receiving a fourth user input in response to the fourth query, the first user input, the first At least one of a detection training step, a discrimination training step, a confirmation training step, and an understanding training step is additionally performed based on at least one of the second user input, the third user input, and the fourth user input.

본 개시에 따른 전자 장치 및 청능 훈련 방법은, 악기의 연주음을 다양한 형태로 출력하는 한편 그에 따른 다양한 질의를 제공하여 청능 훈련의 단계 별로 목적에 맞는 정보를 수집할 수 있다는 효과가 있다.The electronic device and the auditory training method according to the present disclosure are effective in that it is possible to collect information suitable for each stage of auditory training by outputting the performance sound of a musical instrument in various forms and providing various queries corresponding thereto.

본 개시에 따른 전자 장치 및 청능 훈련 방법은, 단계 별로 수집된 사용자 입력의 특성에 따라 사용자의 개별 청각 능력이 고려된 효율적인 재훈련 과정을 제공한다는 효과가 있다.The electronic device and the auditory ability training method according to the present disclosure have an effect of providing an efficient retraining process in which the individual auditory ability of the user is considered according to the characteristics of the user input collected for each step.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 탐지 훈련 단계를 설명하기 위한 도면,
도 4a 내지 도 4c는 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 변별 훈련 단계를 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 확인 훈련 단계를 설명하기 위한 도면,
도 6은 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 이해 훈련 단계를 설명하기 위한 도면,
도 7은 본 개시의 일 실시 예에 따른 청능 훈련 방법을 설명하기 위한 알고리즘,
도 8은 본 개시의 일 실시 예에 따른 청능 훈련 방법을 설명하기 위한 흐름도, 그리고
도 9는 본 개시의 다양한 실시 예에 따른 전자 장치의 상세한 구성을 설명하기 위한 블록도이다.
1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure;
3 is a view for explaining a detection training step performed by an electronic device according to an embodiment of the present disclosure;
4A to 4C are diagrams for explaining a discrimination training step performed by an electronic device according to an embodiment of the present disclosure;
5 is a view for explaining a verification training step performed by an electronic device according to an embodiment of the present disclosure;
6 is a view for explaining an understanding training step performed by an electronic device according to an embodiment of the present disclosure;
7 is an algorithm for explaining a hearing training method according to an embodiment of the present disclosure;
8 is a flowchart for explaining a hearing training method according to an embodiment of the present disclosure, and
9 is a block diagram illustrating a detailed configuration of an electronic device according to various embodiments of the present disclosure;

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meanings defined herein, and in the absence of specific definitions, they may be interpreted based on the general content of the present specification and common technical common sense in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number such as “first” and “second” may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. As an example, the use order or arrangement order of components combined with such an ordinal number should not be limited by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented in individual specific hardware, and thus at least one processor. can be implemented as

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when it is said that a certain part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 프로세서(130)를 포함할 수 있다.Referring to FIG. 1 , the electronic device 100 may include a speaker 110 , a display 120 , and a processor 130 .

전자 장치(100)는 스마트폰, 태블릿 PC, 노트북 PC, 데스크탑 PC, 키오스크, TV 등 다양한 기기로 구현될 수 있다.The electronic device 100 may be implemented as various devices such as a smartphone, a tablet PC, a notebook PC, a desktop PC, a kiosk, and a TV.

스피커(110)는 다양한 정보를 청각적으로 제공하기 위한 구성으로, 전기적인 오디오 신호를 변환하여 소리를 출력하기 위한 종래의 다양한 구성을 포함할 수 있다.The speaker 110 is a configuration for providing a variety of information aurally, and may include various conventional configurations for converting an electrical audio signal to output a sound.

디스플레이(120)는 다양한 정보를 시각적으로 제공하기 위한 구성이다.The display 120 is configured to visually provide various information.

디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 120 may be implemented as a liquid crystal display (LCD), a plasma display panel (PDP), an organic light emitting diode (OLED), a transparent OLED (TOLED), a micro LED, etc., but is not limited thereto. It may include various known types of displays.

디스플레이(120)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.The display 120 may be implemented in the form of a touch screen capable of sensing a user's touch manipulation, or may be implemented as a flexible display that can be folded or bent.

프로세서(130)는 전자 장치(100)에 포함된 구성들과 연결되어 전자 장치(100)를 전반적으로 제어하기 위한 구성이다.The processor 130 is a configuration for overall control of the electronic device 100 by being connected to components included in the electronic device 100 .

프로세서(130)는 전자 장치(100)의 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써 후술할 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 130 may perform operations according to various embodiments to be described later by executing at least one instruction stored in the memory of the electronic device 100 .

프로세서(130)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다. 또한, 프로세서(140)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.The processor 130 is a general-purpose processor such as a central processing unit (CPU) and an application processor (AP), a graphics-only processor such as a graphic processing unit (GPU), a vision processing unit (VPU), etc. It may be implemented as an intelligence-only processor or the like. In addition, the processor 140 may include a volatile memory such as SRAM.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure.

도 2를 참조하면, 프로세서(130)는 스피커(110) 및 디스플레이(120)를 이용하여 S210 내지 S250 단계를 수행할 수 있다.Referring to FIG. 2 , the processor 130 may perform steps S210 to S250 using the speaker 110 and the display 120 .

구체적으로, 프로세서(130)는 탐지 훈련(S210), 변별 훈련(S220), 확인 훈련(S230), 이해 훈련(S240)을 순차적으로 수행하는 한편, 상술한 단계들 각각에서 수신된 사용자 입력에 따라 재훈련(S250)을 수행할 수 있다.Specifically, the processor 130 sequentially performs the detection training (S210), the discrimination training (S220), the confirmation training (S230), and the understanding training (S240), while according to the user input received in each of the above steps. Retraining (S250) may be performed.

이하 도면들을 통해 상술한 각 단계들에 대해 보다 구체적으로 설명한다.Hereinafter, each of the above-described steps will be described in more detail with reference to the drawings.

탐지 훈련(S210)은, 청능 훈련의 대상인 사용자에게 연주음이 들리는지 여부를 확인하기 위한 단계이다.Detection training ( S210 ) is a step for confirming whether a performance sound is heard by a user who is the target of auditory training.

탐지 훈련(S210)에서, 본 개시의 일 실시 예에 따른 프로세서(130)는 스피커(110)를 통해 일 악기의 연주음으로 구성된 사운드를 출력할 수 있다.In the detection training ( S210 ), the processor 130 according to an embodiment of the present disclosure may output a sound composed of a performance sound of a musical instrument through the speaker 110 .

여기서, 사운드는, 기설정된 복수의 악기(ex. 피아노, 오르간, 플루트, 클라리넷, 북, 심벌즈, 기타, 바이올린 등) 중 임의로 선택된 악기의 연주음을 포함할 수 있다.Here, the sound may include a performance sound of an instrument arbitrarily selected from among a plurality of preset musical instruments (eg, piano, organ, flute, clarinet, drum, cymbal, guitar, violin, etc.).

또한, 사운드는, 기설정된 복수의 곡/노래 중 임의로 선택된 곡을 연주하는 연주음을 포함할 수 있다.Also, the sound may include a performance sound for playing a song arbitrarily selected from among a plurality of preset songs/songs.

그리고, 프로세서(130)는 연주음이 들리는지 여부를 문의하는 질의를 디스플레이(120) 상에 디스플레이할 수 있다. In addition, the processor 130 may display on the display 120 a query to inquire whether a performance sound is heard.

그 결과, 질의에 응답하는 사용자 입력이 수신될 수 있다. As a result, user input in response to the query may be received.

여기서, 사용자 입력은, 연주음이 들리는지 여부(ex. 네/아니오)에 대한 선택에 해당할 수 있다.Here, the user input may correspond to a selection of whether or not a performance sound is heard (eg, yes/no).

관련하여, 도 3은 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 탐지 훈련 단계를 설명하기 위한 도면이다. 도 3은 전자 장치(100)가 태블릿 PC로 구현된 상황을 가정한다.In relation to this, FIG. 3 is a diagram for explaining a detection training step performed by an electronic device according to an embodiment of the present disclosure. FIG. 3 assumes that the electronic device 100 is implemented as a tablet PC.

도 3을 참조하면, 전자 장치(100)는 일 악기의 연주음을 포함하는 사운드(310)를 출력할 수 있다.Referring to FIG. 3 , the electronic device 100 may output a sound 310 including a performance sound of a musical instrument.

그리고, 전자 장치(100)는 “악기의 연주 소리가 들리시나요?”라는 질의를 포함하는 UI(320)를 디스플레이할 수 있다.In addition, the electronic device 100 may display the UI 320 including the query “Do you hear the sound of the instrument playing?”

이때, 전자 장치(100)는 UI(320)에 포함된 “네” 또는 “아니오”를 선택하는 사용자 입력을 수신할 수 있다.In this case, the electronic device 100 may receive a user input for selecting “yes” or “no” included in the UI 320 .

프로세서(130)는 UI(320)에 대한 사용자 입력이 수신됨에 따라 변별 훈련(S220) 단계로 넘어갈 수 있다. As the user input to the UI 320 is received, the processor 130 may proceed to the discrimination training (S220) step.

이 경우, 변별 훈련(S220) 단계로 넘어가기 전에, 프로세서(130)는 사용자 입력의 정답 여부에 대한 정보를 디스플레이 할 수도 있다.In this case, before proceeding to the discrimination training ( S220 ), the processor 130 may display information on whether the user input is correct or not.

구체적인 예로, 악기의 연주음을 포함하는 사운드(310)가 출력되는 동안 UI(320)의 “네”를 터치하는 사용자 입력이 수신된 경우, 프로세서(130)는 사용자 입력이 정답임을 알리는 정보(ex. “정답”, “맞아요. 악기가 연주 중이었어요. 바이올린의 연주 소리였답니다.”)를 디스플레이(120)에 표시할 수 있다.As a specific example, when a user input of touching “yes” of the UI 320 is received while the sound 310 including the sound of the instrument is output, the processor 130 provides information indicating that the user input is the correct answer (ex. . “Correct answer”, “That’s right. The instrument was playing. It was the sound of the violin playing.”) can be displayed on the display 120 .

한편, UI(320)가 디스플레이 된 시점으로부터 기설정된 시간이 지났음에도 사용자 입력이 수신되지 않는 경우, 프로세서(130)는 사용자 입력이 수신되지 않은 상태에서 변별 훈련(S220) 단계로 넘어갈 수도 있다.Meanwhile, when a user input is not received even after a preset time has elapsed from the time when the UI 320 is displayed, the processor 130 may proceed to the discrimination training step S220 in a state in which the user input is not received.

변별 훈련(S220)은, 청능 훈련의 대상인 사용자가 연주음 간의 차이를 구분할 수 있는지 여부를 확인하기 위한 단계이다. 구체적으로, 변별 훈련(S220)은, 사용자가 연주음의 멜로디 및/또는 리듬의 동일성/차이점을 인지할 수 있는지 여부를 확인하기 위한 단계이다.The discrimination training ( S220 ) is a step for confirming whether the user, who is the target of the auditory training, can distinguish the difference between the played sounds. Specifically, the discrimination training ( S220 ) is a step for confirming whether the user can recognize the sameness/difference between the melody and/or the rhythm of the played sound.

변별 훈련(S220)에서, 프로세서(130)는 각각 일 악기의 연주음으로 구성된 두 가지 사운드를 스피커(110)를 통해 출력할 수 있다.In the discrimination training ( S220 ), the processor 130 may output two sounds each composed of a performance sound of one instrument through the speaker 110 .

여기서, 각 사운드는 임의로 선택된 일 악기가 임의로 선택된 곡/노래를 연주한 연주음을 포함할 수 있다. 이때, 두 가지 사운드의 악기는 서로 동일할 수도 다를 수도 있으며, 두 가지 사운드의 곡/노래 역시 서로 동일할 수도 다를 수도 있다.Here, each sound may include a performance sound obtained by performing an arbitrarily selected song/song by an arbitrarily selected instrument. In this case, the instruments of the two sounds may be the same or different, and the songs/songs of the two sounds may also be the same or different.

그리고, 프로세서(130)는 두 가지 사운드의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 질의를 디스플레이 할 수 있다.In addition, the processor 130 may display a query to inquire whether at least one of the rhythms and melodies of the two sounds sounds different from each other.

리듬 및 멜로디는 곡(노래) 자체를 구성하는 요소이므로, 해당 질의는 단순히 각 사운드의 곡/노래가 서로 동일하게 들리는지 다르게 들리는지를 물어보는 질의로 구성될 수도 있다.Since rhythm and melody are elements constituting the song (song) itself, the corresponding query may simply consist of a query asking whether the song/song of each sound sounds the same or different.

이렇듯 질의가 디스플레이 된 결과, 해당 질의에 응답하는 사용자 입력이 수신될 수 있다.As a result of the query being displayed in this way, a user input in response to the query may be received.

구체적인 예로, 첫 번째로 연주된 곡과 두 번째로 연주된 곡이 서로 같은/다른 곡임을 나타내는 사용자 입력이 수신될 수 있다.As a specific example, a user input indicating that the first played song and the second played song are the same/different songs may be received.

한편, 변별 훈련(S220) 단계의 다른 실시 예에 따르면, 프로세서(130)는 두 가지 사운드의 악기가 서로 다르게 들리는지 여부를 문의하는 질의를 디스플레이 할 수도 있다.Meanwhile, according to another embodiment of the discrimination training (S220) step, the processor 130 may display a query to inquire whether the instruments of the two sounds sound different from each other.

이 경우, 첫 번째 곡을 연주한 악기와 두 번째 곡을 연주한 악기가 서로 같은/다른 악기임을 나타내는 사용자 입력이 수신될 수 있다.In this case, a user input indicating that the instrument playing the first song and the instrument playing the second song are the same/different instruments may be received.

도 4a 내지 도 4c는 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 변별 훈련 단계를 설명하기 위한 도면이다.4A to 4C are diagrams for explaining a discrimination training step performed by an electronic device according to an embodiment of the present disclosure.

도 4a를 참조하면, 전자 장치(100)는 일 악기의 연주음을 포함하는 첫 번째 사운드(411)를 출력할 수 있다. Referring to FIG. 4A , the electronic device 100 may output a first sound 411 including a performance sound of a musical instrument.

그리고, 전자 장치(100)는 두 가지 연주음이 출력됨을 안내하는 UI(421)를 디스플레이 할 수 있다.In addition, the electronic device 100 may display a UI 421 guiding that two performance sounds are output.

이어서, 도 4b를 참조하면, 전자 장치(100)는 일 악기의 연주음을 포함하는 두 번째 사운드(411)를 출력할 수 있다.Subsequently, referring to FIG. 4B , the electronic device 100 may output a second sound 411 including a performance sound of one instrument.

그리고, 도 4c를 참조하면, 전자 장치(100)는 “첫 번째로 연주된 곡과 두 번째로 연주된 곡이 같은가요?”라는 질의를 포함하는 UI(422)를 디스플레이 할 수 있다. And, referring to FIG. 4C , the electronic device 100 may display a UI 422 including a query “Is the first played song and the second played song the same?”

다만, 비록 도 4c의 질의는, 악기가 동일한지 여부와 무관하게 두 곡의 리듬 및 멜로디가 서로 동일한지 여부를 물어보는 질의에 해당하나, 이 밖에도 두 가지 이상의 사운드의 변별 능력을 시험하는 다양한 응용 질문이 가능함은 물론이다.However, although the query of FIG. 4C corresponds to a query asking whether the rhythm and melody of two songs are the same regardless of whether the instruments are the same, there are other various applications that test the ability to discriminate between two or more sounds. Of course, you can ask questions.

여기서, 사용자 입력이 수신됨에 따라 “네”, “아니오”, “다시 들어 보기” 등이 선택될 수 있다.Here, as the user input is received, “yes”, “no”, “listen again”, etc. may be selected.

“다시 들어 보기”가 선택되는 경우, 상술한 도 4a 내지 도 4b의 과정이 다시 수행된 후 도 4c의 UI(422)가 제공될 수 있다.When “listen again” is selected, the UI 422 of FIG. 4C may be provided after the process of FIGS. 4A to 4B is performed again.

프로세서(130)는 UI(422)에 대한 사용자 입력이 수신됨에 따라 확인 훈련(S230) 단계로 넘어갈 수 있다. As the user input to the UI 422 is received, the processor 130 may proceed to the confirmation training (S230) step.

이 경우, 확인 훈련(S230) 단계로 넘어가기 전에, 프로세서(130)는 사용자 입력의 정답 여부에 대한 정보를 디스플레이 할 수도 있다.In this case, before proceeding to the confirmation training (S230) step, the processor 130 may display information on whether the user input is correct or not.

구체적인 예로, 도 4a 및 도 4b에서 각각 출력된 사운드들(411, 412)의 리듬 및 멜로디가 서로 다른 경우를 가정한다.As a specific example, it is assumed that the rhythm and melody of the sounds 411 and 412 output in FIGS. 4A and 4B are different from each other.

이때, 도 4c의 UI(420)의 “아니오”를 터치하는 사용자 입력이 수신된 경우, 프로세서(130)는 사용자 입력이 정답임을 알리는 정보(ex. “정답”, “맞아요. 첫 번째 곡과 두 번째 곡은 다르답니다.”)를 디스플레이(120)에 표시할 수 있다.At this time, when a user input of touching “No” of the UI 420 of FIG. 4C is received, the processor 130 provides information indicating that the user input is the correct answer (eg, “Correct”, “That’s right. First song and two The second song is different.”) may be displayed on the display 120 .

한편, UI(422)가 디스플레이 된 시점으로부터 기설정된 시간이 지났음에도 사용자 입력이 수신되지 않는 경우, 프로세서(130)는 사용자 입력이 수신되지 않은 상태에서 확인 훈련(S230) 단계로 넘어갈 수도 있다.Meanwhile, when a user input is not received even after a preset time has elapsed from the time when the UI 422 is displayed, the processor 130 may proceed to the confirmation training step S230 in a state in which the user input is not received.

확인 훈련(S230) 단계는, 청능 훈령의 대상인 사용자가 연주음의 구체적인 특성(ex. 악기가 무엇인지, 리듬의 속도, 박자, 멜로디를 구성하는 음의 수, 멜로디의 분위기 등)을 얼마나 잘 이해했는지 여부를 확인하기 위한 단계이다.In the confirmation training (S230) step, how well the user who is the target of the auditory command understands the specific characteristics of the played sound (eg, what the instrument is, the speed of the rhythm, the rhythm, the number of notes composing the melody, the atmosphere of the melody, etc.) This is a step to check whether or not

확인 훈련(S230)에서, 본 개시의 일 실시 예에 따른 프로세서(130)는 일 악기의 연주음으로 구성된 사운드를 출력할 수 있다.In the confirmation training ( S230 ), the processor 130 according to an embodiment of the present disclosure may output a sound composed of a performance sound of one instrument.

본 사운드는, 기설정된 복수의 악기 중 임의로 선택된 하나의 악기의 연주음일 수 있다. 본 사운드에 포함되는 연주음의 곡/노래 역시 임의로 선택된 것일 수 있다.The present sound may be a performance sound of one arbitrarily selected instrument from among a plurality of preset musical instruments. A song/song of a performance sound included in the present sound may also be arbitrarily selected.

여기서, 프로세서(130)는 기설정된 복수의 악기 중 출력된 사운드에 대응되는 악기를 선택하도록 요청하는 질의를 디스플레이 하도록 디스플레이(120)를 제어할 수 있다.Here, the processor 130 may control the display 120 to display a query requesting to select a musical instrument corresponding to the output sound from among a plurality of preset musical instruments.

그 결과, 해당 질의에 응답하여 기설정된 복수의 악기 중 적어도 하나를 선택하는 사용자 입력이 수신될 수 있다.As a result, a user input for selecting at least one of a plurality of preset musical instruments in response to a corresponding query may be received.

구체적인 예로, 프로세서(130)는 기설정된 복수의 악기 각각을 나타내는 UI 항목들을 표시할 수 있다. 그리고, UI 항목들 중 적어도 하나를 터치하는 사용자의 터치가 입력될 수 있다. 그 결과, 터치된 UI 항목이 나타내는 악기가 사용자 입력에 따라 선택될 수 있다.As a specific example, the processor 130 may display UI items representing each of a plurality of preset musical instruments. In addition, a user's touch touching at least one of the UI items may be input. As a result, the instrument indicated by the touched UI item may be selected according to the user input.

관련하여, 도 5는 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 확인 훈련 단계를 설명하기 위한 도면이다.In relation to this, FIG. 5 is a diagram for explaining a confirmation training step performed by an electronic device according to an embodiment of the present disclosure.

도 5를 참조하면, 전자 장치(100)는 일 악기의 연주음을 포함하는 사운드(510)를 스피커(110)를 통해 출력할 수 있다.Referring to FIG. 5 , the electronic device 100 may output a sound 510 including a performance sound of a musical instrument through the speaker 110 .

여기서, 전자 장치(100)는 출력되는 연주음이 피아노, 바이올린, 실로폰, 기타 등의 악기들 중 어떤 악기의 연주음인지 문의하는 질의를 포함하는 UI(520)를 디스플레이 할 수 있다.Here, the electronic device 100 may display the UI 520 including a query to inquire whether the output performance sound is of a musical instrument, such as a piano, a violin, a xylophone, or a guitar.

이때, 전자 장치(100)는 UI(520)에 포함된 악기 항목들 중 하나를 선택(터치)하는 사용자 입력을 수신할 수 있다.In this case, the electronic device 100 may receive a user input for selecting (touching) one of the musical instrument items included in the UI 520 .

프로세서(130)는 UI(520)에 대한 사용자 입력이 수신됨에 따라 이해 훈련(S240) 단계로 넘어갈 수 있다. As the user input to the UI 520 is received, the processor 130 may proceed to the understanding training (S240) step.

이 경우, 이해 훈련(S240) 단계로 넘어가기 전에, 프로세서(130)는 사용자 입력의 정답 여부에 대한 정보를 디스플레이 할 수도 있다.In this case, before proceeding to the understanding training (S240) step, the processor 130 may display information on whether the user input is correct or not.

구체적인 예로, 도 5에서 출력된 사운드(510)가 피아노의 연주음을 포함하는 경우를 가정한다.As a specific example, it is assumed that the sound 510 output in FIG. 5 includes a piano performance sound.

이때, 만약 도 5의 UI(520) 내에서 바이올린을 선택하는 사용자 입력이 수신된 경우, 프로세서(130)는 사용자 입력이 정답이 아님을 알리는 정보(ex. “정답이 아닙니다.”, “아니에요. 피아노의 연주 소리였어요.”)를 디스플레이(120)에 표시할 수 있다.At this time, if a user input for selecting a violin in the UI 520 of FIG. 5 is received, the processor 130 provides information indicating that the user input is not a correct answer (eg, “not correct answer”, “no. It was the sound of the piano playing.”) may be displayed on the display 120 .

한편, 도 5의 UI(520)가 디스플레이 된 시점으로부터 기설정된 시간이 지났음에도 사용자 입력이 수신되지 않는 경우, 프로세서(130)는 사용자 입력이 수신되지 않은 상태에서 이해 훈련(S240) 단계로 넘어갈 수도 있다.On the other hand, if the user input is not received even after a preset time has elapsed from the time when the UI 520 of FIG. 5 is displayed, the processor 130 may proceed to the understanding training (S240) step in a state in which the user input is not received. there is.

이해 훈련(S240)은, 청능 훈련의 대상인 사용자가 연주음에 대한 보다 심화된 정보(ex. 화성)를 인지하고 있는지 여부를 확인하기 위한 단계이다.The understanding training ( S240 ) is a step for confirming whether the user who is the target of the auditory training recognizes more in-depth information (eg, harmony) about the performance sound.

이해 훈련(S240)에서, 본 개시의 일 실시 예에 따른 프로세서(130)는 스피커(110)를 통해 복수의 악기의 연주 소리를 포함하는 사운드를 출력할 수 있다.In the comprehension training ( S240 ), the processor 130 according to an embodiment of the present disclosure may output a sound including performance sounds of a plurality of musical instruments through the speaker 110 .

여기서, 사운드는 서로 다른 악기들이 적절한 화성에 따라 연주하는 연주음을 포함할 수 있다.Here, the sound may include performance sounds played by different musical instruments according to appropriate harmony.

이때, 프로세서(130)는 출력되는 사운드(연주음)의 복수의 악기 중 적어도 하나와 관련된 질의를 디스플레이 하도록 디스플레이(120)를 제어할 수 있다.In this case, the processor 130 may control the display 120 to display a query related to at least one of a plurality of musical instruments of the output sound (played sound).

예를 들어, 본 질의는, 연주 중인 악기의 수가 몇 개인지, 가장 높은 음계를 연주하는 악기가 무엇인지, 가장 낮은 음계를 연주하는 악기가 무엇인지 등 다양한 심화 질문을 포함할 수 있다.For example, this query may include a variety of in-depth questions, such as how many instruments are being played, which instrument plays the highest scale, and which instrument plays the lowest scale.

그리고, 프로세서(130)는 해당 질의에 응답하는 사용자 입력을 수신할 수 있다.In addition, the processor 130 may receive a user input in response to a corresponding query.

관련하여, 도 6은 본 개시의 일 실시 예에 따라 전자 장치가 수행하는 이해 훈련 단계를 설명하기 위한 도면이다.In relation to this, FIG. 6 is a diagram for explaining an understanding training step performed by an electronic device according to an embodiment of the present disclosure.

도 6을 참조하면, 전자 장치(100)는 복수의 악기가 연주하는 연주음을 포함하는 사운드(610)를 출력할 수 있다.Referring to FIG. 6 , the electronic device 100 may output a sound 610 including performance sounds played by a plurality of musical instruments.

그리고, 전자 장치(100)는 연주 중인 악기가 몇 개인지 물어보는 질의를 포함하는 UI(620)를 디스플레이 할 수 있다.In addition, the electronic device 100 may display the UI 620 including a query asking how many instruments are being played.

여기서, 연주 중인 악기의 개수를 선택하는 사용자 입력이 수신될 수 있다.Here, a user input for selecting the number of musical instruments being played may be received.

프로세서(130)는 UI(620)에 대한 사용자 입력이 수신됨에 따라 재훈련 (S250) 단계로 넘어갈 수 있다.As the user input to the UI 620 is received, the processor 130 may proceed to the retraining (S250) step.

이 경우, 재훈련(S250) 단계로 넘어가기 전에, 프로세서(130)는 사용자 입력의 정답 여부에 대한 정보를 디스플레이 할 수 있다.In this case, before proceeding to the retraining (S250) step, the processor 130 may display information on whether the user input is correct or not.

다만, 도 6의 UI(620)가 디스플레이 된 시점으로부터 기설정된 시간이 지났음에도 사용자 입력이 수신되지 않는 경우, 프로세서(130)는 사용자 입력이 수신되지 않은 상태에서 재훈련(S250) 단계로 넘어갈 수도 있다.However, if the user input is not received even after a preset time has elapsed from the time when the UI 620 of FIG. 6 is displayed, the processor 130 may go to the retraining (S250) step in a state in which the user input is not received. there is.

이렇듯, 각 단계에서 하나 이상의 악기의 연주음 및 연주음에 대한 질의/답변이 이용됨에 따라, 비교적 직관적인 요소(악기, 리듬, 멜로디)만을 이용한 청능 훈련이 가능하다.As such, as the performance sound of one or more instruments and the question/answer for the performance sound are used in each stage, auditory training using only relatively intuitive elements (instrument, rhythm, melody) is possible.

특히, 종래의 연구들에 따르면, 인공 와우 이식술을 받은 실험 대상자들 중 비교적 나이가 어린 유아기 대상자들에 대한 청능 훈련의 효과가 청소년기 이상의 대상자들에 대한 청능 훈련의 효과보다 더 크다는 점이 밝혀진 바 있다.In particular, according to prior studies, it has been found that the effect of auditory training on relatively young infants among experimental subjects who received cochlear implantation is greater than the effect of auditory training on subjects in adolescence or older.

따라서, 인공 와우 이식술을 받은 대상자들은 유아기 시절부터 가능한 한 일찍 청능 훈련을 받기 시작할 필요성이 있다.Therefore, there is a need for subjects who have undergone cochlear implantation to start receiving auditory training as early as possible from infancy.

이를 고려했을 때, 본 개시에 따른 청능 훈련 방법이 악기 연주에 따른 직관적인 요소(악기, 리듬, 멜로디)만을 이용한다는 점은, 어린 나이의 대상자들도 쉽게 접근할 수 있다는 점에서 큰 장점이 된다.Considering this, the fact that the auditory training method according to the present disclosure uses only intuitive elements (instrument, rhythm, melody) according to musical instrument performance is a great advantage in that it can be easily accessed even by subjects at a young age. .

한편, 재훈련 단계(S250)는, 탐지 훈련, 변별 훈련, 확인 훈련, 이해 훈련 중 적어도 하나를 추가로 수행하기 위한 단계이다.Meanwhile, the retraining step S250 is a step for additionally performing at least one of detection training, discrimination training, confirmation training, and understanding training.

구체적으로, 프로세서(130)는 상술한 S210 내지 S240 과정에서 수신된 사용자 입력들 중 적어도 하나를 기반으로, 탐지/변별/확인/이해 중 적어도 하나의 훈련 과정을 추가로 수행할 수 있다.Specifically, the processor 130 may additionally perform at least one training process of detection/discrimination/confirmation/understanding based on at least one of the user inputs received in steps S210 to S240 described above.

본 개시의 일 실시 예에 따르면, 프로세서(130)는 수신된 사용자 입력의 정답 여부에 따라 적어도 하나의 단계를 추가로 수행할 수 있다.According to an embodiment of the present disclosure, the processor 130 may additionally perform at least one step according to whether the received user input is a correct answer.

관련하여, 도 7은 본 개시의 일 실시 예에 따른 청능 훈련 방법을 설명하기 위한 알고리즘이다.In relation to this, FIG. 7 is an algorithm for explaining a hearing ability training method according to an embodiment of the present disclosure.

도 7을 참조하면, 상술한 S210 내지 S240 단계가 수행된 후, 재훈련 단계(S2500)는 S710 내지 S740의 판단 과정에 따라 S210 내지 S240 단계 중 적어도 하나의 단계를 추가로 수행할 수 있다.Referring to FIG. 7 , after the above-described steps S210 to S240 are performed, the retraining step ( S2500 ) may additionally perform at least one of steps S210 to S240 according to the determination process of S710 to S740 .

일 예로, S210(탐지 훈련) 단계에서 수신된 사용자 입력이 오답인 경우(S710 - N), 프로세서(130)는 탐지 훈련, 변별 훈련, 확인 훈련 및 이해 훈련을 추가로 수행할 수 있다(S210 내지 S240).For example, when the user input received in step S210 (detection training) is an incorrect answer (S710 - N), the processor 130 may additionally perform detection training, discrimination training, confirmation training, and understanding training (S210 to S210 to N). S240).

다른 예로, S210 단계에서 수신된 사용자 입력은 정답이지만(S710 - Y), S220(변별 훈련) 단계에서 수신된 사용자 입력이 오답인 경우(S720 - N), 프로세서(130)는 변별 훈련, 확인 훈련 및 이해 훈련을 추가로 수행할 수 있다(S220 내지 S240).As another example, if the user input received in step S210 is a correct answer (S710 - Y), but the user input received in step S220 (discrimination training) is an incorrect answer (S720 - N), the processor 130 performs discrimination training, confirmation training And understanding training may be additionally performed (S220 to S240).

다른 예로, S210 및 S220 단계에서 수신된 사용자 입력은 정답이지만(S710 - Y, S720 - Y), S230(확인 훈련) 단계에서 수신된 사용자 입력이 오답인 경우(S730 - N), 프로세서(130)는 확인 훈련 및 이해 훈련을 추가로 수행할 수 있다(S230 및 S240).As another example, if the user input received in steps S210 and S220 is a correct answer (S710 - Y, S720 - Y), but the user input received in step S230 (confirmation training) is an incorrect answer (S730 - N), the processor 130 may additionally perform confirmation training and understanding training (S230 and S240).

다른 예로, S210 내지 S230 단계에서 수신된 사용자 입력은 정답이지만(S710 - Y, S720 - Y, S730 - Y), S240(확인 훈련) 단계에서 수신된 사용자 입력이 오답인 경우(S740 - N), 이해 훈련을 추가로 수행할 수 있다(S240).As another example, if the user input received in steps S210 to S230 is a correct answer (S710 - Y, S720 - Y, S730 - Y), but the user input received in step S240 (confirmation training) is an incorrect answer (S740 - N), Understanding training may be additionally performed (S240).

상술한 탐지, 변별, 확인, 이해 훈련의 실시 예들을 고려했을 때, 늦게 수행되는 훈련일수록 그 난이도가 상대적으로 높으므로(예를 들어, 일반적으로 탐지 훈련보다는 변별 훈련의 난이도가 비교적 높음), 도 7의 실시 예를 통해 난이도에 따른 단계적 재훈련이 가능하다는 장점이 있다.Considering the above-described examples of detection, discrimination, confirmation, and understanding training, the later the training is, the higher the difficulty (for example, the difficulty of discrimination training is generally higher than that of detection training), There is an advantage that step-by-step retraining according to the difficulty is possible through the embodiment of 7 .

한편, 도 7과 달리, S210 내지 S240 단계에서 수신된 사용자 입력들의 정답 여부와 무관하게 재훈련 단계(S250)에서 탐지/변별/확인/이해 훈련이 모두 수행되는 실시 예도 물론 가능하다.Meanwhile, unlike FIG. 7 , an embodiment in which all detection/discrimination/confirmation/understanding training is performed in the retraining step ( S250 ) regardless of whether the user inputs received in steps S210 to S240 are correct is also possible.

한편, 본 개시의 일 실시 예에 따르면, 프로세서(130)는 S210 내지 S240 단계에서 수신된 사용자 입력들 중 적어도 하나의 정답 여부 및/또는 S210 내지 S240 단계에서 제공된 질의들 중 적어도 하나의 난이도에 따라, 재훈련 단계(S250)에서 수행되는 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나의 난이도를 조정할 수 있다.Meanwhile, according to an embodiment of the present disclosure, the processor 130 determines whether at least one of the user inputs received in steps S210 to S240 is correct and/or the difficulty of at least one of the queries provided in steps S210 to S240. , it is possible to adjust the difficulty of at least one of the detection training step, the discrimination training step, the confirmation training step, and the understanding training step performed in the retraining step ( S250 ).

관련하여, 도 8은 본 개시의 일 실시 예에 따른 청능 훈련 방법을 설명하기 위한 흐름도이다.In relation to this, FIG. 8 is a flowchart illustrating a hearing ability training method according to an embodiment of the present disclosure.

도 8을 참조하면, S210 내지 S240 단계가 수행된 이후, 프로세서(130)는 재훈련에서 수행될 탐지, 변별, 확인, 이해 훈련 중 적어도 하나의 난이도 및/또는 횟수를 결정할 수 있다(S810).Referring to FIG. 8 , after steps S210 to S240 are performed, the processor 130 may determine the difficulty and/or number of at least one of detection, discrimination, confirmation, and understanding training to be performed in retraining ( S810 ).

그리고, 재훈련 단계(S820)에서, 프로세서(130)는 결정된 난이도/횟수에 따라 탐지, 변별, 확인, 이해 훈련 중 적어도 하나를 추가로 수 행할 수 있다.And, in the retraining step (S820), the processor 130 may additionally perform at least one of detection, discrimination, confirmation, and understanding training according to the determined difficulty/number of times.

구체적으로, 프로세서(130)는 S210 내지 S240 단계에서 수신된 사용자 입력들 중 적어도 하나의 정답 여부에 따라 재훈련 단계(S250)에 포함되는 훈련의 난이도를 조정할 수 있다.Specifically, the processor 130 may adjust the difficulty of training included in the retraining step S250 according to whether at least one of the user inputs received in steps S210 to S240 is correct.

일 예로, S220 단계(변별 훈련)이 제1 난이도에 해당하는 상황을 가정할 수 있다. 즉, S220 단계에서 제공되는 질의에 대한 답변의 난이도가 제1 난이도에 해당하는 상황이다.As an example, it may be assumed that step S220 (discrimination training) corresponds to the first difficulty level. That is, the difficulty level of answering the query provided in step S220 corresponds to the first level of difficulty.

여기서, 만약 S220 단계의 질의에 따라 수신된 사용자 입력이 오답인 경우, 재훈련 단계(S250)는, 제1 난이도보다 낮거나 같은 제2 난이도에 따라 변별 훈련을 추가로 수행할 수 있다.Here, if the user input received according to the query in step S220 is an incorrect answer, in the retraining step ( S250 ), discrimination training may be additionally performed according to a second difficulty level that is lower than or equal to the first difficulty level.

반면, 만약 S220 단계의 질의에 따라 수신된 사용자 입력이 정답인 경우, 재훈련 단계(S250)는, 제1 난이도보다 높거나 같은 제3 난이도에 따라 변별 훈련을 추가로 수행할 수 있다.On the other hand, if the user input received according to the query in step S220 is the correct answer, in the retraining step ( S250 ), discrimination training may be additionally performed according to a third difficulty level that is higher than or equal to the first difficulty level.

또한, 프로세서(130)는 S210 내지 S240 단계에서 수신된 사용자 입력들 중 적어도 하나가 수신되는 데에 걸린 시간에 따라, 재훈련 단계(S250)에 포함되는 훈련의 난이도를 조정할 수도 있다.In addition, the processor 130 may adjust the difficulty of training included in the retraining step ( S250 ) according to the time it takes for at least one of the user inputs received in steps S210 to S240 to be received.

구체적인 예로, 변별 훈련(S220) 단계에서 제공된 질의에 따라 수신된 사용자 입력이 정답인 경우, 프로세서(130)는 해당 사용자 입력의 수신에 소요된 시간(ex. 질의가 디스플레이 된 시점부터 사용자 입력이 수신된 시점까지)을 사용자 입력의 수신에 소요되는 평균 시간과 비교할 수 있다.As a specific example, when the user input received according to the query provided in the discrimination training step S220 is the correct answer, the processor 130 receives the user input from the time taken to receive the corresponding user input (eg, from the time the query is displayed). time) can be compared with the average time required to receive user input.

평균 시간은, 과거에 수행된 한 번 이상의 변별 훈련 단계의 훈련 이력을 기반으로 획득된 것일 수 있다. 일 예로, 프로세서(130)는 (동일한) 사용자가 과거 변별 훈련을 수행한 이력(ex. 사용자 입력 수신에 소요된 시간, 정답률, 훈련 횟수/빈도 등)을 통해 과거 변별 훈련 단계에 있어 사용자 입력이 수신되는 데에 소요된 시간의 평균을 계산할 수 있다.The average time may be obtained based on a training history of one or more discrimination training steps performed in the past. As an example, the processor 130 determines that the user input in the past discrimination training stage through the (same) user's past discrimination training history (eg, time taken to receive user input, correct answer rate, number of training times/frequency, etc.) You can calculate the average of the time it took to be received.

여기서, 만약 S220 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 길거나 같은 경우, 재훈련 단계(S250)에서, 프로세서(130)는 S220 단계의 난이도와 동일한 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.Here, if the time taken to receive the user input in step S220 is longer than or equal to the average time plus the threshold time, in the retraining step (S250), the processor 130 according to the same difficulty as the difficulty of step S220 A discrimination training step may be additionally performed.

반면, S220 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 짧은 경우, 재훈련 단계(S250)에서, 프로세서(130)는 S220 단계의 난이도보다 높은 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.On the other hand, if the time taken to receive the user input in step S220 is shorter than the average time plus the threshold time, in the retraining step (S250), the processor 130 performs discrimination training according to the difficulty higher than that of the step S220. Additional steps may be performed.

이렇듯, 정답 여부뿐만 아니라 정답을 고르는 데에 걸린 시간까지 고려된 맞춤형 재훈련이 수행됨으로써, 사용자 개인을 위한 최적의 청능 훈련이 수행될 수 있다는 효과가 있다.As such, by performing customized retraining that takes into account not only the correct answer but also the time taken to select the correct answer, there is an effect that optimal hearing training for an individual user can be performed.

한편, 프로세서(130)는 S210 내지 S240 단계에서 수신된 사용자 입력들 중 적어도 하나에 따라 재훈련 단계(S250)에서 수행되는 훈련의 횟수를 조정할 수도 있다.Meanwhile, the processor 130 may adjust the number of times of training performed in the retraining step ( S250 ) according to at least one of the user inputs received in steps S210 to S240 .

일 실시 예에 따라, S210, S220, S240(탐지, 변별, 이해) 단계에서 수신된 사용자 입력들은 정답이지만 S230(확인) 단계에서 수신된 사용자 입력은 오답인 경우를 가정한다.According to an embodiment, it is assumed that the user inputs received in steps S210, S220, and S240 (detection, discrimination, understanding) are correct answers, but the user input received in steps S230 (confirmation) is an incorrect answer.

이 경우, 재훈련 단계(S250)에서, 프로세서(130)는 탐지 훈련, 변별 훈련, 이해 훈련은 각각 동일한 횟수만큼 추가로 수행하되, 확인 훈련만큼은 해당 횟수보다 더 많은 횟수만큼 추가로 수행할 수 있다.In this case, in the retraining step (S250), the processor 130 additionally performs the detection training, the discrimination training, and the understanding training the same number of times, but the confirmation training can be additionally performed more times than the corresponding number. .

한편, 일 실시 예에 따라, S230 단계(확인)에서 전자 장치(100)가 복수의 군에 해당하는 복수의 악기 중 하나의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that the electronic device 100 outputs a sound composed of a performance sound of one instrument among a plurality of instruments corresponding to a plurality of groups in step S230 (confirmation).

복수의 군은, 일 예로 소리 생성 원리에 따라 구분되어 건반 악기, 관악기, 타악기, 현악기 중 적어도 하나를 포함할 수 있으나, 이 밖에도 다양한 기준(ex. 전통 악기/현대 악기, 동양 악기/서양 악기)으로 구분된 군들을 포함할 수 있다.The plurality of groups may include, for example, at least one of a keyboard instrument, a wind instrument, a percussion instrument, and a string instrument by being classified according to a sound generation principle, but in addition to various criteria (ex. traditional instrument/modern instrument, oriental instrument/western instrument) may include groups separated by .

이때, S230 단계에서, 전자 장치(100)는 복수의 군에 해당하는 복수의 악기 중 출력된 사운드(연주음)를 연주한 악기를 선택하도록 요청하는 질의를 디스플레이 하고, 질의에 대한 응답(사용자 입력)을 수신할 수 있다.In this case, in step S230 , the electronic device 100 displays a query requesting to select a musical instrument that played the output sound (played sound) from among a plurality of musical instruments corresponding to a plurality of groups, and responds to the query (user input). ) can be received.

여기서, 만약 수신된 사용자 입력이 오답인 경우(: 다른 악기를 선택), 프로세서(130)는 사용자 입력에 따라 선택된 악기가 출력된 사운드를 연주한 악기(: 정답)와 동일한 군에 포함되는지 식별할 수 있다.Here, if the received user input is an incorrect answer (: select another instrument), the processor 130 identifies whether the instrument selected according to the user input is included in the same group as the instrument (correct answer) that played the output sound. can

만약, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되는 경우, 재훈련 단계(S250)에서, 프로세서(130)는 확인 훈련 단계를 제1 횟수만큼 추가로 수행할 수 있다.If the selected instrument is included in the same group as the instrument that played the corresponding sound, in the retraining step S250 , the processor 130 may additionally perform the confirmation training step a first number of times.

예를 들어, S230 단계(확인)에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 동일한 군(현악기)에 포함되는 색소폰인 경우를 가정한다. 이 경우, 프로세서(130)는 재훈련 단계(S250)에서 확인 훈련을 3회 수행할 수 있다.For example, it is assumed that the performance sound output in step S230 (confirmation) is a performance sound of a clarinet, and the instrument selected by the user is a saxophone included in the same group (string instrument) as the clarinet. In this case, the processor 130 may perform the confirmation training three times in the retraining step (S250).

반면, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되지 않는 경우, 재훈련 단계(S250)에서, 프로세서(130)는 확인 훈련 단계를 제1 횟수보다 많은 제2 횟수만큼 추가로 수행할 수 있다.On the other hand, if the selected instrument is not included in the same group as the instrument that played the sound, in the retraining step (S250), the processor 130 additionally performs the confirmation training step a second number of times greater than the first number. can

예를 들어, S230 단계(확인)에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 다른 군에 속하는 피아노인 경우를 가정한다. 이 경우, 프로세서(130)는 재훈련 단계(S250)에서 확인 훈련을 3회보다 많은 6회 수행할 수 있다.For example, it is assumed that the performance sound output in step S230 (confirmation) is a performance sound of a clarinet, and the instrument selected by the user is a piano belonging to a group different from the clarinet. In this case, the processor 130 may perform the confirmation training 6 times more than 3 times in the retraining step (S250).

이렇듯, 확인 훈련 단계(S230)에서 사용자가 선택한 악기가 정답이 아닌 경우, 본 실시 예에 따른 전자 장치(100)는 선택된 악기가 연주된 악기와 유사한지(ex. 동일한 군에 포함됨) 여부에 따라 사용자의 인지 능력을 다르게 측정하고 재훈련 과정을 다르게 수행할 수 있다. 그 결과, 개별 사용자(청능 훈련 대상자)를 위한 최적의 맞춤형 재훈련 과정이 자동으로 섬세하게 구축될 수 있다.As such, when the instrument selected by the user is not the correct answer in the confirmation training step ( S230 ), the electronic device 100 according to the present embodiment determines whether the selected instrument is similar to the played instrument (eg, included in the same group) It can measure the user's cognitive abilities differently and perform the retraining process differently. As a result, the optimal customized retraining process for individual users (audience training subjects) can be automatically and delicately constructed.

한편, 일 실시 예에 따라, S240 단계(이해)에서 전자 장치(100)가 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in step S240 (understanding), the electronic device 100 outputs a sound composed of playing sounds of a plurality of musical instruments corresponding to the same group.

그리고, S240 단계(이해)에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In addition, in step S240 (understanding), it is assumed that a query is provided to inquire about the number of musical instruments that have played the played sound.

이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, S250 단계(재훈련)의 이해 훈련 과정에서, 프로세서(130)는 복수의 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.In this case, if the user input in response to the above-mentioned query is the correct answer, in the understanding training process of step S250 (retraining), the processor 130 outputs a sound composed of the playing sounds of a plurality of instruments corresponding to a plurality of groups. and can provide related queries.

반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, S250 단계(재훈련)의 이해 훈련 과정에서, 프로세서(130)는 여전히 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned question is an incorrect answer, in the understanding training process of step S250 (retraining), the processor 130 still outputs a sound composed of the playing sounds of a plurality of instruments corresponding to the same group and , and can provide related queries.

한편, 일 실시 예에 따라, S240 단계(이해)에서 전자 장치(100)가 복수의 군(ex. 2개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in step S240 (understanding), the electronic device 100 outputs sounds composed of performances of a plurality of musical instruments corresponding to a plurality of groups (eg, two groups).

그리고, S240 단계(이해)에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In addition, in step S240 (understanding), it is assumed that a query is provided to inquire about the number of musical instruments that have played the played sound.

이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, S250 단계(재훈련)의 이해 훈련 과정에서, 프로세서(130)는 상술한 복수의 군(ex. 2개의 군)보다 더 많은 수의 복수의 군(ex. 3개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.At this time, if the user input in response to the above-mentioned query is the correct answer, in the understanding training process of step S250 (retraining), the processor 130 performs a higher number than the above-described plurality of groups (eg, two groups). A sound composed of playing sounds of a plurality of musical instruments corresponding to a plurality of groups (eg, three groups) may be output, and a related query may be provided.

반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, S250 단계(재훈련)의 이해 훈련 과정에서, 프로세서(130)는 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned query is an incorrect answer, in the understanding training process of step S250 (retraining), the processor 130 outputs a sound composed of the playing sounds of a plurality of instruments corresponding to the same group, You can provide related queries.

다양한 군에 해당하는 악기들이 함께 연주됨에 따라 이해 훈련의 난이도가 높아진다는 점에서, 상술한 실시 예에 따라 사용자의 인지 능력에 맞는 난이도의 재훈련이 수행될 수 있다.Since the difficulty of comprehension training increases as musical instruments corresponding to various groups are played together, retraining with a difficulty level suitable for the user's cognitive ability may be performed according to the above-described embodiment.

한편, 본 개시의 일 실시 예에 따른 프로세서(130)는 주변 소음에 따라 재훈련 단계(S250)의 난이도를 조정할 수도 있다.On the other hand, the processor 130 according to an embodiment of the present disclosure may adjust the difficulty of the retraining step (S250) according to the ambient noise.

일 예로, 프로세서(130)는 적어도 하나의 센서(ex. 소음 센서(마이크))를 이용하여 주변 소음의 크기를 측정할 수 있다.For example, the processor 130 may measure the level of ambient noise using at least one sensor (eg, a noise sensor (microphone)).

그리고, 재훈련 단계(S250)에서, 프로세서(130)는 측정된 주변 소음의 크기에 대응되는 난이도를 기반으로, 탐지 훈련, 변별 훈련, 확인 훈련, 이해 훈련 중 적어도 하나를 추가로 수행할 수 있다.And, in the retraining step (S250), the processor 130 may additionally perform at least one of detection training, discrimination training, confirmation training, and understanding training based on the difficulty corresponding to the measured magnitude of ambient noise. .

구체적으로, 주변 소음의 크기가 클수록, 프로세서(130)는 재훈련 단계에서 추가 수행되는 적어도 하나의 훈련의 난이도를 하향 조정할 수 있다. 반대로, 주변 소음의 크기가 작을수록, 프로세서(130)는 재훈련 단계에서 추가 수행되는 적어도 하나의 훈련의 난이도를 상향 조정할 수 있다.Specifically, as the level of ambient noise increases, the processor 130 may lower the difficulty of at least one training additionally performed in the retraining step. Conversely, as the level of ambient noise decreases, the processor 130 may increase the difficulty of at least one training additionally performed in the retraining step.

소음이 심할수록 다양한 소리의 구분/인지에 어려움을 겪는 인공 와우 이식 대상자의 일반적인 상황을 고려했을 때, 주변 소음에 따라 난이도를 조정하는 상술한 실시 예는 청능 훈련에 있어 유의미한 장점을 가질 수 있다.Considering the general situation of a cochlear implant recipient who has difficulty in distinguishing/recognizing various sounds as the noise increases, the above-described embodiment of adjusting the difficulty according to ambient noise may have a significant advantage in auditory training.

한편, 상술한 S210 내지 S250 단계에서 출력되는 사운드들의 크기(ex. dB)는, 사용자에 따라 기설정된 소리 크기 범위 내일 수 있다. Meanwhile, the sound levels (eg, dB) output in the above-described steps S210 to S250 may be within a sound level range preset according to the user.

인공 와우를 이식받았거나 및/또는 보청기를 착용한 사용자들의 경우, 개별적으로 소리 인지의 특성이 천차만별이기 때문에, 사용자 별로 듣기 편한 소리 크기 범위가 전문가 또는 가이드라인에 따라 정해질 수 있다. In the case of users who have received a cochlear implant and/or wear a hearing aid, since sound recognition characteristics are different for each user, a sound loudness range that is comfortable for each user may be determined according to an expert or a guideline.

이 경우, 사용자 본인, 보호자, 또는 전문가의 사용자 조작이 전자 장치(100)에 입력됨에 따라, 사용자를 위한 소리 크기 범위가 설정될 수 있다.In this case, as a user manipulation by the user himself/herself, a guardian, or an expert is input to the electronic device 100 , a sound volume range for the user may be set.

한편, 본 개시의 일 실시 예에 따르면, 프로세서(130)는 사용자의 단계 별 정답 여부를 예측하도록 훈련된 적어도 하나의 인공지능 모델을 이용하여, 청능 훈련의 성과(사용자의 청능 향상)를 식별할 수 있다.On the other hand, according to an embodiment of the present disclosure, the processor 130 uses at least one artificial intelligence model trained to predict the correct answer for each step of the user to identify the performance of hearing training (improving the user's hearing). can

본 인공지능 모델은, 기설정된 기간 동안 특정 사용자의 훈련 단계 별 사용자 입력의 정답 여부를 기반으로, 이후 수행되는 청능 훈련에서 해당 사용자의 정답 여부를 예측하도록 훈련될 수 있다.This artificial intelligence model may be trained to predict whether or not the corresponding user is correct in the auditory training performed thereafter, based on whether the user input is correct for each training stage of the specific user for a preset period.

본 인공지능 모델은, 전자 장치(100) 및/또는 적어도 하나의 외부 장치를 통해 훈련된 것일 수 있으며, 전자 장치(100)의 메모리에 신경망 형태의 데이터로 저장될 수 있다. 본 인공지능 모델은 CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), GAN(Generateve Adhesive Network) 및 심층 Q-네트워크 (Deep Q-Networks) 등에 해당할 수 있으나, 상술한 예들에만 한정되는 것은 아니다.This artificial intelligence model may be trained through the electronic device 100 and/or at least one external device, and may be stored in the memory of the electronic device 100 as data in the form of a neural network. This artificial intelligence model consists of CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network), GAN It may correspond to (Generateve Adhesive Network) and Deep Q-Networks, but is not limited to the above-described examples.

일 예로, 본 인공지능 모델은, 일주일 동안 수행된 각 훈련 단계에 대한 정보 및 각 훈련 단계에서 수신된 사용자 입력의 정답 여부에 따라 훈련될 수 있다.As an example, the present artificial intelligence model may be trained according to information on each training step performed for a week and whether a user input received in each training step is correct or not.

각 훈련 단계에 대한 정보는, 각 훈련 단계가 탐지/변별/확인/이해 중 무엇인지에 대한 정보, 출력된 사운드(연주음)와 관련된 악기의 종류 및 수에 대한 정보, 출력된 사운드의 연주 곡의 리듬 및 멜로디에 대한 정보, 출력된 질의에 대한 정보 등을 포함할 수 있다.Information on each training stage includes information on whether each training stage is detection/discrimination/confirmation/understanding, information on the type and number of instruments related to the output sound (played sound), and the performance of the output sound It may include information about the rhythm and melody, information about the output query, and the like.

여기서, 인공지능 모델은, 각 훈련 단계에 대한 정보를 입력에 대한 훈련 데이터로, 각 훈련 단계에서 수신된 사용자 입력의 정답 여부를 출력에 대한 훈련 데이터로 하여 훈련될 수 있다.Here, the artificial intelligence model may be trained by using information about each training step as training data for the input, and using whether the user input received in each training step is correct or not as training data for the output.

상술한 과정에 따라 인공지능 모델이 훈련되면, 프로세서(130)는 현재 수행 중인 훈련 단계(ex. 변별)에서 출력되는 사운드 및 질의에 대한 정보를 인공지능 모델에 입력할 수 있다.When the artificial intelligence model is trained according to the above-described process, the processor 130 may input sound and query information output in the currently performed training stage (eg, discrimination) to the artificial intelligence model.

여기서, 인공지능 모델은 해당 질의에 대하여 수신될 사용자 입력이 정답일지 오답일지 여부를 판단할 수 있다(이때, 정답 확률 및 오답 확률의 형태로 출력 데이터가 획득될 수 있다).Here, the artificial intelligence model may determine whether a user input to be received with respect to a corresponding query is a correct answer or an incorrect answer (in this case, output data may be obtained in the form of a correct answer probability and an incorrect answer probability).

그리고, 프로세서(130)는 실제 수신된 사용자 입력의 정답 여부와 인공지능 모델의 판단 내용(정답 여부)을 비교함으로써, 훈련의 성과를 평가할 수 있다.In addition, the processor 130 may evaluate the training performance by comparing whether the actual received user input is correct or not and the determination content (correct answer) of the artificial intelligence model.

일 예로, 인공지능 모델이 오답을 예측했음에도 사용자 입력이 정답인 경우, 프로세서(130)는 성과 점수를 증가시킬 수 있다.For example, when the user input is a correct answer even though the artificial intelligence model predicts an incorrect answer, the processor 130 may increase the performance score.

다른 예로, 인공지능 모델이 정답을 예측했음에도 사용자 입력이 오답인 경우, 프로세서(130)는 성과 점수를 감소시킬 수 있다.As another example, if the user input is an incorrect answer even though the artificial intelligence model predicts the correct answer, the processor 130 may decrease the performance score.

다른 예로, 인공지능 모델의 예측(정답 또는 오답)에 맞는 사용자 입력이 수신된 경우, 프로세서(130)는 성과 점수를 유지할 수 있다.As another example, when a user input that matches the prediction (correct or incorrect) of the artificial intelligence model is received, the processor 130 may maintain a performance score.

한편, 프로세서(130)는 청능 훈련이 계속적으로 수행되면서 수신되는 사용자 입력에 따라 인공지능 모델을 추가적으로 훈련/업데이트 할 수 있다.Meanwhile, the processor 130 may additionally train/update the artificial intelligence model according to a user input received while auditory training is continuously performed.

종래 다양한 연구에 따르면, 특정 사용자에 대하여 비교적 장기적으로 청능 훈련이 수행되어야 그 효과가 더욱 분명하다는 것이 알려진 바 있다. 다만, 구체적인 기간 내지는 방법이 명확히 정의된 상황은 아니다. 상술한 실시 예와 같이 인공지능 모델을 이용함으로써, 사용자의 청능 향상 추이가 명확히 설명될 수 있으며, 그에 따라 개인적 또는 보편적인 청능 훈련 과정의 최적 기간 내지는 최적 방법이 도출되기 위한 주요한 정보가 수집될 수 있음에 의의가 있다.According to various studies in the prior art, it has been known that the effect is more evident when hearing training is performed for a specific user for a relatively long time. However, the specific period or method is not clearly defined. By using the artificial intelligence model as in the above-described embodiment, the user's hearing improvement trend can be clearly explained, and accordingly, important information for deriving the optimal period or optimal method of the individual or universal hearing training process can be collected. It is meaningful to have

한편, 상술한 다양한 실시 예들은 서로 저촉되지 않는 한도 내에서 다양한 방식으로 결합, 조합되거나 또는 응용될 수 있다. 즉, 본 개시에 따른 전자 장치의 청능 훈련 방법이 상술한 다양한 실시 예들 각각에만 한정되는 것은 아니다.On the other hand, the above-described various embodiments may be combined, combined, or applied in various ways within the limits that do not conflict with each other. That is, the hearing ability training method of the electronic device according to the present disclosure is not limited to each of the above-described various embodiments.

도 9는 본 개시의 다양한 실시 예에 따른 전자 장치의 상세한 구성을 설명하기 위한 블록도이다.9 is a block diagram illustrating a detailed configuration of an electronic device according to various embodiments of the present disclosure;

도 9를 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 프로세서(130) 외에 메모리(140), 사용자 입력부(150), 통신부(160) 등을 더 포함할 수도 있다.Referring to FIG. 9 , the electronic device 100 may further include a memory 140 , a user input unit 150 , a communication unit 160 , etc. in addition to the speaker 110 , the display 120 , and the processor 130 .

메모리(140)는 전자 장치(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 전자 장치(100)의 구성요소와 관련된 적어도 하나의 인스트럭션 또는 데이터를 저장하기 위한 구성이다. The memory 140 is a configuration for storing an operating system (OS) for controlling overall operations of the components of the electronic device 100 and at least one instruction or data related to the components of the electronic device 100 . .

프로세서(130)는 메모리(140)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 본 개시의 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 130 may perform operations according to various embodiments of the present disclosure by executing at least one instruction stored in the memory 140 .

일 예로, 메모리(140)는 본 개시에 따른 청능 훈련 방법을 수행하기 위한 적어도 하나의 애플리케이션에 대한 정보를 포함할 수 있다.As an example, the memory 140 may include information on at least one application for performing the hearing training method according to the present disclosure.

이때, 프로세서(130)는 해당 애플리케이션을 실행함으로써 본 개시의 다양한 실시 예에 따른 청능 훈련 방법을 수행할 수 있다.In this case, the processor 130 may perform the hearing ability training method according to various embodiments of the present disclosure by executing the corresponding application.

사용자 입력부(150)는 전자 장치(100)에 대한 사용자의 명령 및/또는 전자 장치(100)의 동작에 필요한 사용자의 정보를 수신하기 위한 구성이다. The user input unit 150 is configured to receive a user's command for the electronic device 100 and/or user information required for the operation of the electronic device 100 .

사용자 입력부(150)는 하나 이상의 버튼, 터치스크린, 마이크, 카메라 등 다양한 구성을 포함할 수 있다.The user input unit 150 may include various components such as one or more buttons, a touch screen, a microphone, and a camera.

일 예로, 상술한 훈련 단계들(S210 내지 S250) 각각에서 수신되는 사용자 입력은 디스플레이(120) 상에 구비된 터치스크린에 대한 터치 방식일 수 있으나, 이에 한정되지 않는다.For example, the user input received in each of the above-described training steps ( S210 to S250 ) may be a touch method for a touch screen provided on the display 120 , but is not limited thereto.

통신부(160)는 전자 장치(100)가 적어도 하나의 외부 장치와 통신을 수행하기 위한 구성으로 회로를 포함할 수 있다.The communication unit 160 may include a circuit as a configuration for the electronic device 100 to communicate with at least one external device.

통신부(160)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(160)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.The communication unit 160 may be connected to an external device based on a network implemented through wired communication and/or wireless communication. In this case, the communication unit 160 may be directly connected to an external device, or may be connected to an external electronic device through one or more external servers (eg, Internet Service Providers (ISPs)) that provide a network.

네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.The network may be a personal area network (PAN), a local area network (LAN), a wide area network (WAN), etc. depending on the area or size, and depending on the openness of the network, an intranet, It may be an extranet or the Internet.

무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communication includes long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G) mobile communication, code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), WiBro (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), at least one of the communication methods such as Zigbee may include

유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. 여기서, 통신부(150)는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and ThunderBolt. Here, the communication unit 150 may include a network interface or a network chip according to the above-described wired/wireless communication method. Meanwhile, the communication method is not limited to the above-described example, and may include a communication method newly appearing according to the development of technology.

일 예로, 프로세서(130)는 본 개시의 다양한 실시 예에 따른 상술한 청능 훈련 방법을 수행하기 위한 애플리케이션을 실행함으로써 통신부(160)를 통해 적어도 하나의 외부 서버와 연결될 수 있다. As an example, the processor 130 may be connected to at least one external server through the communication unit 160 by executing an application for performing the above-described auditory training method according to various embodiments of the present disclosure.

이때, 프로세서(130)는 통신부(160)를 통해 외부 서버로부터 애플리케이션과 관련된 정보(ex. 웹 페이지, 사운드 정보, UI 정보 등)를 수신할 수 있다. In this case, the processor 130 may receive application-related information (eg, a web page, sound information, UI information, etc.) from an external server through the communication unit 160 .

그리고, 각 훈련 단계들(S210 내지 S250)을 수행하는 과정에서, 프로세서(130)는 수신된 정보에 따라 다양한 사운드/UI를 출력할 수 있다.And, in the process of performing each of the training steps ( S210 to S250 ), the processor 130 may output various sounds/UIs according to the received information.

한편, 프로세서(130)는 각 훈련 단계들(S210 내지 S250)에서 출력되는 사운드에 대한 오디오 신호를 통신부(160)를 통해 적어도 하나의 스피커 장치로 전송할 수 있다.Meanwhile, the processor 130 may transmit an audio signal for the sound output in each of the training steps S210 to S250 to at least one speaker device through the communication unit 160 .

구체적인 예로, 프로세서(130)는 블루투스 통신 방식을 통해 해당 오디오 신호를 무선 이어폰, 무선 헤드폰, 무선 스피커 등의 스피커 장치로 전송할 수 있다.As a specific example, the processor 130 may transmit a corresponding audio signal to a speaker device such as a wireless earphone, a wireless headphone, or a wireless speaker through a Bluetooth communication method.

그 결과, 각 단계들(S210 내지 S250)에서 사용자 입력을 유도하기 위한 상술한 질의들은 상술한 스피커 장치를 통해 출력될 수 있다.As a result, the above-described queries for inducing user input in each of the steps S210 to S250 may be output through the above-described speaker device.

한편, 도시되지는 않았으나, 전자 장치(100)는 스피커 외에 (유선) 오디오 출력 단자를 더 포함할 수도 있다. Meanwhile, although not shown, the electronic device 100 may further include a (wired) audio output terminal in addition to the speaker.

이 경우, 전자 장치(100)는 오디오 출력 단자를 통해 각 훈련 단계들(S210 내지 S250)에서 출력되는 사운드에 대한 오디오 신호를 적어도 하나의 스피커 장치(ex. 이어폰/헤드폰, 스피커 등)로 전송할 수 있다. 그 결과, 해당 스피커 장치에서 사운드가 출력될 수 있다.In this case, the electronic device 100 may transmit an audio signal for the sound output in each training step ( S210 to S250 ) to at least one speaker device (eg, earphone/headphone, speaker, etc.) through the audio output terminal. there is. As a result, sound may be output from the corresponding speaker device.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다. On the other hand, the computer instructions or computer program for performing the processing operation in the electronic device 100 according to various embodiments of the present disclosure described above is a non-transitory computer-readable medium. can be stored in When the computer instructions or computer program stored in the non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation in the electronic device 100 according to various embodiments described above.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, not a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is generally used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of

100: 전자 장치 110: 스피커
120: 디스플레이 130: 프로세서
100: electronic device 110: speaker
120: display 130: processor

Claims (9)

전자 장치의 청능 훈련 방법에 있어서,
일 악기의 연주음으로 구성된 제1 사운드를 출력하고, 연주음이 들리는지 여부를 문의하는 제1 질의를 디스플레이하고, 상기 제1 질의에 응답하는 제1 사용자 입력을 수신하는, 탐지 훈련 단계;
각각 일 악기의 연주음으로 구성된 제2 사운드 및 제3 사운드를 출력하고, 상기 제2 사운드 및 상기 제3 사운드의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 제2 질의를 디스플레이하고, 상기 제2 질의에 응답하는 제2 사용자 입력을 수신하는, 변별 훈련 단계;
일 악기의 연주음으로 구성된 제4 사운드를 출력하고, 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 제3 질의를 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신하는, 확인 훈련 단계;
복수의 악기의 연주 소리를 포함하는 제5 사운드를 출력하고, 상기 제5 사운드에 대응되는 상기 복수의 악기 중 적어도 하나와 관련된 제4 질의를 디스플레이하고, 상기 제4 질의에 응답하는 제4 사용자 입력을 수신하는, 이해 훈련 단계; 및
상기 제1 사용자 입력, 상기 제2 사용자 입력, 상기 제3 사용자 입력 및 상기 제4 사용자 입력 중 적어도 하나를 기반으로, 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나를 추가로 수행하는, 재훈련 단계;를 포함하는, 전자 장치의 청능 훈련 방법.
In the hearing training method of an electronic device,
a detection training step of outputting a first sound composed of a performance sound of a musical instrument, displaying a first query to inquire whether a performance sound is heard, and receiving a first user input in response to the first query;
outputting a second sound and a third sound composed of a performance sound of a musical instrument, respectively, and displaying a second query to inquire whether at least one of a rhythm and a melody of the second sound and the third sound is different from each other; , a discrimination training step of receiving a second user input in response to the second query;
outputting a fourth sound composed of a performance sound of one instrument, displaying a third query requesting to select a musical instrument corresponding to the fourth sound from among a plurality of instruments, and responding to the third query from among the plurality of instruments a confirmation training step of receiving a third user input for selecting at least one;
outputting a fifth sound including performance sounds of a plurality of musical instruments, displaying a fourth query related to at least one of the plurality of musical instruments corresponding to the fifth sound, and a fourth user input responding to the fourth query To receive, understanding training stage; and
At least one of a detection training step, a discrimination training step, a confirmation training step, and an understanding training step is added based on at least one of the first user input, the second user input, the third user input, and the fourth user input Performing with, retraining step; including, auditory training method of an electronic device.
제1항에 있어서,
상기 재훈련 단계는,
상기 제1 사용자 입력이 오답인 경우 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고,
상기 제1 사용자 입력이 정답이고 상기 제2 사용자 입력이 오답인 경우 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고,
상기 제1 사용자 입력 및 상기 제2 사용자 입력이 각각 정답이고 상기 제3 사용자 입력이 오답인 경우 확인 훈련 단계 및 이해 훈련 단계를 추가로 수행하고,
상기 제1 사용자 입력, 상기 제2 사용자 입력 및 상기 제3 사용자 입력이 각각 정답이고 상기 제4 사용자 입력이 오답인 경우 이해 훈련 단계를 추가로 수행하는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The retraining step is
If the first user input is an incorrect answer, additionally performing a detection training step, a discrimination training step, a confirmation training step, and an understanding training step,
When the first user input is a correct answer and the second user input is an incorrect answer, a discrimination training step, a confirmation training step, and an understanding training step are additionally performed;
When the first user input and the second user input are each correct answer and the third user input is an incorrect answer, a confirmation training step and an understanding training step are additionally performed,
When the first user input, the second user input, and the third user input are each a correct answer and the fourth user input is an incorrect answer, a comprehension training step is additionally performed.
제1항에 있어서,
상기 전자 장치의 청능 훈련 방법은,
상기 제1 내지 제4 질의 중 적어도 하나의 난이도 및 상기 제1 내지 제4 사용자 입력 중 적어도 하나의 정답 여부에 따라, 상기 재훈련 단계에서 수행되는 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나의 난이도를 조정하는 단계;를 더 포함하는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The hearing ability training method of the electronic device,
A detection training step, discrimination training step, confirmation training step, and understanding performed in the retraining step according to the difficulty of at least one of the first to fourth queries and whether at least one of the first to fourth user inputs is correct. Adjusting the difficulty of at least one of the training steps; further comprising, the hearing ability training method of the electronic device.
제3항에 있어서,
상기 변별 훈련 단계는,
제1 난이도에 대응되는 상기 제2 질의를 디스플레이하고,
상기 재훈련 단계는,
상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 오답인 경우, 상기 제1 난이도보다 낮거나 같은 제2 난이도에 대응되는 변별 훈련 단계를 추가로 수행하고,
상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 정답인 경우, 상기 제1 난이도보다 높거나 같은 제3 난이도에 대응되는 변별 훈련 단계를 추가로 수행하는, 전자 장치의 청능 훈련 방법.
4. The method of claim 3,
The discrimination training step is
Display the second query corresponding to the first difficulty level,
The retraining step is
If the second user input received according to the second query in the discrimination training step is an incorrect answer, additionally performing a discrimination training step corresponding to a second difficulty level that is lower than or equal to the first difficulty level;
In the discrimination training step, when the second user input received according to the second query is a correct answer, a discrimination training step corresponding to a third difficulty level higher than or equal to the first difficulty level is additionally performed. training method.
제4항에 있어서,
상기 전자 장치의 청능 훈련 방법은,
상기 변별 훈련 단계에서 상기 제2 질의에 따라 수신된 상기 제2 사용자 입력이 정답인 경우, 상기 제2 사용자 입력의 수신에 소요된 시간을 변별 훈련 단계의 훈련 이력을 기반으로 획득된 사용자 입력의 수신에 소요되는 평균 시간과 비교하는 단계;를 더 포함하고,
상기 재훈련 단계는,
상기 제2 사용자 입력의 수신에 소요된 시간이 상기 평균 시간에 임계 시간을 더한 시간보다 길거나 같은 경우, 상기 제1 난이도에 대응되는 변별 훈련 단계를 추가로 수행하고,
상기 제2 사용자 입력의 수신에 소요된 시간이 상기 평균 시간에 상기 임계 시간을 더한 시간보다 짧은 경우, 상기 제1 난이도보다 높은 난이도에 대응되는 변별 훈련 단계를 추가로 수행하는, 전자 장치의 청능 훈련 방법.
5. The method of claim 4,
The hearing ability training method of the electronic device,
When the second user input received according to the second query in the discrimination training step is the correct answer, the time taken to receive the second user input is the received user input based on the training history of the discrimination training step Comparing with the average time spent on; further comprising,
The retraining step is
If the time taken to receive the second user input is longer than or equal to the average time plus the threshold time, a discrimination training step corresponding to the first difficulty level is additionally performed;
When the time taken to receive the second user input is shorter than the average time plus the threshold time, a discrimination training step corresponding to a difficulty higher than the first difficulty level is additionally performed. Way.
제1항에 있어서,
상기 확인 훈련 단계는,
건반 악기, 관악기, 타악기, 현악기 중 적어도 하나를 포함하는 복수의 군에 해당하는 복수의 악기 중 하나의 악기의 연주음으로 구성된 제4 사운드를 출력하고, 상기 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 상기 제3 질의를 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신하고,
상기 전자 장치의 청능 훈련 방법은,
상기 확인 훈련 단계에서 상기 제3 질의에 따라 수신된 상기 제3 사용자 입력이 오답인 경우, 상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되는지 식별하는 단계;를 더 포함하고,
상기 재훈련 단계는,
상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되는 경우, 확인 훈련 단계를 제1 횟수만큼 추가로 수행하고,
상기 제3 사용자 입력에 따라 선택된 악기가 상기 제4 사운드에 대응되는 악기와 동일한 군에 포함되지 않는 경우, 확인 훈련 단계를 상기 제1 횟수보다 많은 제2 횟수만큼 추가로 수행하는, 전자 장치의 성능 훈련 방법.
According to claim 1,
The verification training step is
Outputs a fourth sound composed of a performance sound of one of a plurality of musical instruments corresponding to a plurality of groups including at least one of a keyboard instrument, a wind instrument, a percussion instrument, and a string instrument, and corresponds to the fourth sound among the plurality of musical instruments Displaying the third query requesting to select a musical instrument to be used, receiving a third user input for selecting at least one of the plurality of musical instruments in response to the third query,
The hearing ability training method of the electronic device,
In the confirmation training step, when the third user input received according to the third query is an incorrect answer, identifying whether the instrument selected according to the third user input is included in the same group as the instrument corresponding to the fourth sound further including;
The retraining step is
When the instrument selected according to the third user input is included in the same group as the instrument corresponding to the fourth sound, the confirmation training step is additionally performed a first number of times,
When the musical instrument selected according to the third user input is not included in the same group as the musical instrument corresponding to the fourth sound, the confirmation training step is additionally performed a second number of times greater than the first number. training method.
제1항에 있어서,
상기 전자 장치의 성능 훈련 방법은,
주변 소음의 크기를 측정하는 단계;를 더 포함하고,
상기 재훈련 단계는,
상기 측정된 주변 소음의 크기에 대응되는 난이도를 기반으로, 상기 탐지 훈련 단계, 상기 변별 훈련 단계, 상기 확인 훈련 단계 및 상기 이해 훈련 단계 중 적어도 하나를 추가로 수행하는, 전자 장치의 성능 훈련 방법.
According to claim 1,
The method of training the performance of the electronic device,
Measuring the level of ambient noise; further comprising,
The retraining step is
The performance training method of an electronic device, wherein at least one of the detection training step, the discrimination training step, the confirmation training step, and the understanding training step is additionally performed based on the degree of difficulty corresponding to the measured ambient noise level.
전자 장치에 있어서,
스피커;
디스플레이; 및
상기 스피커 및 상기 디스플레이와 연결된 프로세서;를 포함하고,
상기 프로세서는,
일 악기의 연주음으로 구성된 제1 사운드를 상기 스피커를 통해 출력하고, 연주음이 들리는지 여부를 문의하는 제1 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제1 질의에 응답하는 제1 사용자 입력을 수신하는, 탐지 훈련 단계를 수행하고,
각각 일 악기의 연주음으로 구성된 제2 사운드 및 제3 사운드를 상기 스피커를 통해 출력하고, 상기 제2 사운드 및 상기 제3 사운드의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 제2 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제2 질의에 응답하는 제2 사용자 입력을 수신하는, 변별 훈련 단계를 수행하고,
일 악기의 연주음으로 구성된 제4 사운드를 상기 스피커를 통해 출력하고, 복수의 악기 중 상기 제4 사운드에 대응되는 악기를 선택하도록 요청하는 제3 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제3 질의에 응답하여 상기 복수의 악기 중 적어도 하나를 선택하는 제3 사용자 입력을 수신하는, 확인 훈련 단계를 수행하고,
복수의 악기의 연주 소리를 포함하는 제5 사운드를 상기 스피커를 통해 출력하고, 상기 제5 사운드에 대응되는 상기 복수의 악기 중 적어도 하나와 관련된 제4 질의를 상기 디스플레이를 통해 디스플레이하고, 상기 제4 질의에 응답하는 제4 사용자 입력을 수신하는, 이해 훈련 단계를 수행하고,
상기 제1 사용자 입력, 상기 제2 사용자 입력, 상기 제3 사용자 입력 및 상기 제4 사용자 입력 중 적어도 하나를 기반으로, 탐지 훈련 단계, 변별 훈련 단계, 확인 훈련 단계 및 이해 훈련 단계 중 적어도 하나를 추가로 수행하는, 재훈련 단계를 수행하는, 전자 장치.
In an electronic device,
speaker;
display; and
Including; a processor connected to the speaker and the display;
The processor is
A first sound composed of a performance sound of a musical instrument is output through the speaker, a first query for inquiring whether a performance sound is heard is displayed through the display, and a first user input in response to the first query is received. receiving, performing a detection training step;
A second inquiring whether at least one of a rhythm and a melody of the second sound and the third sound is different from each other by outputting a second sound and a third sound each composed of a performance sound of a musical instrument through the speaker performing a discrimination training step of displaying a query through the display and receiving a second user input in response to the second query;
outputting a fourth sound composed of a performance sound of one instrument through the speaker, displaying a third query requesting to select an instrument corresponding to the fourth sound from among a plurality of instruments, through the display, and the third query performing a confirmation training step of receiving a third user input for selecting at least one of the plurality of instruments in response to;
outputting a fifth sound including performance sounds of a plurality of instruments through the speaker, displaying a fourth query related to at least one of the plurality of instruments corresponding to the fifth sound through the display, and the fourth performing a comprehension training step of receiving a fourth user input in response to a query;
At least one of a detection training step, a discrimination training step, a confirmation training step, and an understanding training step is added based on at least one of the first user input, the second user input, the third user input, and the fourth user input An electronic device that performs a retraining step.
컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램에 있어서,
전자 장치의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 청능 훈련 방법을 수행하도록 하는, 컴퓨터 프로그램.
In the computer program stored in a computer-readable medium,
A computer program executed by a processor of an electronic device to cause the electronic device to perform the auditory training method of claim 1 .
KR1020200144992A 2020-11-03 2020-11-03 Electronic apparatus for performing auditory training with music, method, and computer program KR102451956B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200144992A KR102451956B1 (en) 2020-11-03 2020-11-03 Electronic apparatus for performing auditory training with music, method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200144992A KR102451956B1 (en) 2020-11-03 2020-11-03 Electronic apparatus for performing auditory training with music, method, and computer program

Publications (2)

Publication Number Publication Date
KR20220059621A true KR20220059621A (en) 2022-05-10
KR102451956B1 KR102451956B1 (en) 2022-10-07

Family

ID=81592043

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200144992A KR102451956B1 (en) 2020-11-03 2020-11-03 Electronic apparatus for performing auditory training with music, method, and computer program

Country Status (1)

Country Link
KR (1) KR102451956B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034723A1 (en) * 2022-08-12 2024-02-15 올리브유니온(주) Method, device, and computer program for providing auditory ability level assessment and auditory ability training service

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140275737A1 (en) * 2013-03-15 2014-09-18 The Regents Of The University Of Michigan Personalized auditory-somatosensory stimulation to treat tinnitus
KR20170010602A (en) * 2015-07-20 2017-02-01 한림대학교 산학협력단 Infants' vocal development evaluation device, and system and method of auditory rehabilitation for infants
EP3170479A1 (en) * 2015-11-17 2017-05-24 Neuromod Devices Limited An apparatus and method for treating a neurological disorder of the auditory system
WO2018106839A2 (en) * 2016-12-06 2018-06-14 Nocira, Llc Systems and methods for treating neurological disorders
KR101984991B1 (en) * 2018-10-15 2019-06-03 신수연 Device for training of listening ability based on user characteristics
KR102053580B1 (en) 2019-05-24 2019-12-06 신수연 Auditoty training device for setting the training difficulty in response to user listening ability

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140275737A1 (en) * 2013-03-15 2014-09-18 The Regents Of The University Of Michigan Personalized auditory-somatosensory stimulation to treat tinnitus
KR20170010602A (en) * 2015-07-20 2017-02-01 한림대학교 산학협력단 Infants' vocal development evaluation device, and system and method of auditory rehabilitation for infants
EP3170479A1 (en) * 2015-11-17 2017-05-24 Neuromod Devices Limited An apparatus and method for treating a neurological disorder of the auditory system
WO2018106839A2 (en) * 2016-12-06 2018-06-14 Nocira, Llc Systems and methods for treating neurological disorders
KR101984991B1 (en) * 2018-10-15 2019-06-03 신수연 Device for training of listening ability based on user characteristics
KR102053580B1 (en) 2019-05-24 2019-12-06 신수연 Auditoty training device for setting the training difficulty in response to user listening ability

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034723A1 (en) * 2022-08-12 2024-02-15 올리브유니온(주) Method, device, and computer program for providing auditory ability level assessment and auditory ability training service

Also Published As

Publication number Publication date
KR102451956B1 (en) 2022-10-07

Similar Documents

Publication Publication Date Title
Tong et al. Processing dependencies between segmental and suprasegmental features in Mandarin Chinese
KR20110090066A (en) Portable sound source playing apparatus for testing hearing ability and method for performing thereof
US10108395B2 (en) Audio device with auditory system display and methods for use therewith
WO2018038235A1 (en) Auditory training device, auditory training method, and program
KR101909128B1 (en) Multimedia playing apparatus for outputting modulated sound according to hearing characteristic of a user and method for performing thereof
Maarefvand et al. A cochlear implant user with exceptional musical hearing ability
KR102451956B1 (en) Electronic apparatus for performing auditory training with music, method, and computer program
Hu et al. Development of the Mandarin speech banana
Ooster et al. Speech audiometry at home: automated listening tests via smart speakers with normal-hearing and hearing-impaired listeners
US20220036878A1 (en) Speech assessment using data from ear-wearable devices
CN106572818A (en) Hearing system with user-specific programming
Uys et al. The influence of non-linear frequency compression on the perception of music by adults with a moderate to severe hearing loss: Subjective impressions
JP7191269B1 (en) Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health
KR101676018B1 (en) Sound source playing apparatus for compensating output sound source signal and method of performing thereof
Scharine et al. Natural regularity of correlated acoustic frequency and intensity in music and speech: Auditory scene analysis mechanisms account for integrality of pitch and loudness
KR20180072182A (en) System for practicing musical instrument and method for supporting the practice
KR102429108B1 (en) Electronic apparatus for performing auditory training based on singing, method, and computer program
KR20110018829A (en) Portable sound source playing apparatus for testing hearing ability and method for performing thereof
JP6639857B2 (en) Hearing test apparatus, hearing test method and hearing test program
Veispak et al. Speech audiometry in Estonia: Estonian words in noise (EWIN) test
Monson High-frequency energy in singing and speech
KR20210158020A (en) Apparatus for generating test sound based hearing threshold and method of the same
Pittman et al. Detecting and learning new words: The impact of advancing age and hearing loss
Gfeller Music perception of cochlear implant recipients and implications for counseling and (re) habilitation
KR102350890B1 (en) Portable hearing test device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant