KR102429108B1 - Electronic apparatus for performing auditory training based on singing, method, and computer program - Google Patents

Electronic apparatus for performing auditory training based on singing, method, and computer program Download PDF

Info

Publication number
KR102429108B1
KR102429108B1 KR1020200151111A KR20200151111A KR102429108B1 KR 102429108 B1 KR102429108 B1 KR 102429108B1 KR 1020200151111 A KR1020200151111 A KR 1020200151111A KR 20200151111 A KR20200151111 A KR 20200151111A KR 102429108 B1 KR102429108 B1 KR 102429108B1
Authority
KR
South Korea
Prior art keywords
training
user
song
electronic device
matching rate
Prior art date
Application number
KR1020200151111A
Other languages
Korean (ko)
Other versions
KR20220064716A (en
Inventor
한우재
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200151111A priority Critical patent/KR102429108B1/en
Publication of KR20220064716A publication Critical patent/KR20220064716A/en
Application granted granted Critical
Publication of KR102429108B1 publication Critical patent/KR102429108B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

전자 장치의 청능 훈련 방법이 개시된다. 본 청능 훈련 방법은, 사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계, 선택된 난이도에 대응되는 노래를 출력하고, 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계, 출력된 노래의 오디오 신호와 사용자 음성의 오디오 신호 간의 일치율을 기반으로 훈련 단계를 추가로 수행할지 여부를 결정하는 단계를 포함한다.Disclosed is a method for training an hearing ability of an electronic device. The present auditory training method includes the steps of selecting the difficulty level of training based on user information, outputting a song corresponding to the selected difficulty level, displaying a UI (User Interface) guiding the user to sing along the output song, and receiving the user's voice. and determining whether to additionally perform the training step based on a matching rate between the input received, the training step, and the output audio signal of the song and the audio signal of the user's voice.

Description

노래 부르기를 기반으로 청능 훈련을 수행하는 전자 장치, 방법, 및 컴퓨터 프로그램 { ELECTRONIC APPARATUS FOR PERFORMING AUDITORY TRAINING BASED ON SINGING, METHOD, AND COMPUTER PROGRAM }ELECTRONIC APPARATUS FOR PERFORMING AUDITORY TRAINING BASED ON SINGING, METHOD, AND COMPUTER PROGRAM }

본 개시는 노래를 따라 부르게 함으로써 청능 훈련을 수행하는 전자 장치 및 청능 훈련 방법에 관한 것이다.The present disclosure relates to an electronic device for performing auditory training by singing along to a song, and to an auditory training method.

인공 와우 이식을 받았거나 보청기를 착용한 청각장애인들에 대한 청능 훈련의 효과가 입증되면서 다양한 청능 훈련이 개발 및 수행되고 있다.Various hearing training has been developed and performed as the effectiveness of hearing training for hearing impaired people who have received a cochlear implant or wear a hearing aid has been proven.

특히, 발화된 언어를 이해하는 데에 주요한 역할을 하는 뇌의 부분이 음악을 처리하는 데에도 주요한 역할을 수행한다는 점이 알려지면서, 흘러나오는 노래를 따라 부르게 함으로써 청능 훈련을 하는 방식이 고안되었다.In particular, as it is known that the part of the brain, which plays a major role in understanding spoken language, also plays a major role in processing music, a method of performing auditory training by having them sing along to a flowing song was devised.

다만, 종래의 청능 훈련은, 훈련 별로 전문가의 직접 참여 하에 이루어졌다는 점에서 불편함이 있었다.However, the conventional hearing training was inconvenient in that it was performed under the direct participation of experts for each training.

등록 특허 공보 제10-19849910000호(사용자 특성 기반의 청능 훈련 장치)Registered Patent Publication No. 10-19849910000 (user characteristic-based hearing training device)

본 개시는 노래 부르기 훈련을 위한 User Interface를 제공하는 전자 장치 및 청능 훈련 방법을 제공한다.The present disclosure provides an electronic device that provides a user interface for singing training and an auditory training method.

본 개시는 노래를 따라 부르는 사용자 정보에 따라 사용자의 청능 훈련의 난이도 및/또는 횟수를 설정하는 전자 장치 및 청능 훈련 방법을 제공한다.The present disclosure provides an electronic device and an auditory training method for setting the difficulty and/or number of hearing training for a user according to user information about singing along to a song.

본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present disclosure are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Moreover, it will be readily apparent that the objects and advantages of the present disclosure may be realized by the means and combinations thereof indicated in the claims.

본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법은, 사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계, 상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계, 상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계를 포함한다.The auditory perception training method of an electronic device according to an embodiment of the present disclosure includes selecting a difficulty level of training based on user information, outputting a song corresponding to the selected difficulty level, and inducing the user to sing along with the output song A training step of displaying a user interface (UI) and receiving a user voice, the step of determining whether to additionally perform the training step based on a matching rate between the outputted song audio signal and the user voice audio signal includes

이때, 상기 사용자 정보는, 사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부 및 청능 훈련 이력 중 적어도 하나에 대한 정보를 포함할 수 있다.In this case, the user information may include information on at least one of the user's age, whether or not the cochlear implant is implanted, the timing of the cochlear implantation, whether the hearing aid is used, and the hearing ability training history.

그리고, 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는, 상기 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 상기 훈련 단계를 추가로 수행하는 것으로 결정할 수 있다. 여기서, 상기 기설정된 일치율은, 상기 출력된 노래의 오디오 신호와 상기 출력된 노래를 따라 부른 정상인의 음성의 오디오 신호 간의 일치율일 수 있다.In addition, the determining whether to additionally perform the training step may include performing the training step additionally when the matching rate is lower than a value obtained by subtracting a threshold value from a preset matching rate. Here, the preset matching rate may be a matching rate between the audio signal of the output song and the audio signal of a voice of a normal person sang along with the output song.

상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는, 상기 일치율이 상기 기설정된 일치율에서 상기 임계치를 차감한 값보다 높거나 같은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정할 수 있다.The determining whether to additionally perform the training step may include determining not to additionally perform the training step when the matching rate is greater than or equal to a value obtained by subtracting the threshold from the preset matching rate.

한편, 상기 전자 장치의 청능 훈련 방법은, 상기 훈련 단계가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우, 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 상기 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교하는 단계, 상기 마지막으로 수행된 훈련 단계의 일치율이 상기 평균 일치율보다 낮은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는 단계를 더 포함할 수 있다.On the other hand, in the hearing ability training method of the electronic device, when the number of consecutively performed training steps is equal to or greater than a predetermined number of times, the concordance rate of the last training step among the continuously performed training steps is calculated as the successively performed training. The method may further include comparing with an average matching rate of the steps, and determining not to perform the training step further when the matching rate of the last training step is lower than the average matching rate.

또한, 상기 전자 장치의 청능 훈련 방법은, 주변 소음의 크기를 측정하는 단계를 더 포함할 수도 있다. 이 경우, 상기 난이도를 선택하는 단계는, 상기 사용자 정보 및 상기 주변 소음의 크기를 기반으로 상기 훈련의 난이도를 선택할 수 있다.Also, the method for training the hearing ability of the electronic device may further include measuring the level of ambient noise. In this case, the selecting of the difficulty may include selecting the difficulty of the training based on the user information and the level of the ambient noise.

또한, 상기 전자 장치의 청능 훈련 방법은, 주변 소음의 피치(pitch)를 식별하는 단계를 더 포함할 수도 있다. 이 경우, 상기 훈련 단계는, 상기 식별된 피치와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI를 디스플레이 하고, 사용자 음성을 입력 받을 수 있다.Also, the method for training the hearing ability of the electronic device may further include identifying a pitch of ambient noise. In this case, the training step may output a song corresponding to a pitch in which the difference between the identified pitch and the frequency is a predetermined number or more, display a UI inducing the user to sing along the output song, and receive a user's voice. .

본 개시의 일 실시 예에 따른 전자 장치는, 스피커, 디스플레이, 마이크, 프로세서를 포함한다. 상기 프로세서는, 사용자 정보를 기반으로 훈련의 난이도를 선택하고, 상기 스피커를 통해 상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 디스플레이를 통해 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 상기 마이크를 통해 사용자 음성을 입력 받는, 훈련 단계를 수행하고, 상기 사용자 음성의 오디오 신호와 상기 출력된 노래의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정한다.An electronic device according to an embodiment of the present disclosure includes a speaker, a display, a microphone, and a processor. The processor selects a difficulty level of training based on user information, outputs a song corresponding to the selected difficulty level through the speaker, and induces a user to sing along the output song through the display (User Interface) displays, performs a training step of receiving a user's voice through the microphone, and determines whether to further perform the training step based on a matching rate between the audio signal of the user's voice and the audio signal of the output song do.

본 개시에 따른 전자 장치 및 청능 훈련 방법은, 사용자 정보에 맞는 난이도의 노래 부르기 훈련을 제공하고, 사용자의 훈련 성과에 따라 적합한 반복 훈련을 제공한다는 효과가 있다.The electronic device and hearing ability training method according to the present disclosure are effective in providing singing training with a difficulty level suitable for user information and providing repeated training suitable according to the user's training performance.

본 개시의 일부 실시 예에 따른 전자 장치 및 청능 훈련 방법은, 훈련의 반복에 따른 성과를 객관적으로 실시간 평가하여 최적의 반복 횟수를 결정한다는 효과가 있다.The electronic device and the auditory training method according to some embodiments of the present disclosure have an effect of determining the optimal number of repetitions by objectively real-time evaluation of performance according to repetition of training.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 훈련 과정을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 사용자 음성과 목표 음성(노래)의 일치도를 비교하는 동작을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 추가 훈련 수행 여부에 따라 훈련을 반복하는 동작을 설명하기 위한 알고리즘,
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 훈련 횟수에 따라 훈련 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘, 그리고
도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.
1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure;
3 is a view for explaining a training process of an electronic device according to an embodiment of the present disclosure;
4 is a diagram for explaining an operation of comparing a degree of matching between a user's voice and a target voice (song) by an electronic device according to an embodiment of the present disclosure;
5 is an algorithm for explaining an operation in which an electronic device repeats training depending on whether additional training is performed according to an embodiment of the present disclosure;
6 is an algorithm for explaining an operation in which an electronic device determines whether training is terminated according to the number of training sessions, according to an embodiment of the present disclosure;
7 is a block diagram illustrating a configuration and operation of an electronic device according to various embodiments of the present disclosure.

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meaning defined in the present specification, and if there is no specific term definition, it may be interpreted based on the general content of the present specification and common technical knowledge in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number, such as "first" and "second", may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. For example, the components combined with such an ordinal number should not be limited in the order of use or arrangement by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented as individual specific hardware, and thus at least one processor. can be implemented as

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included without excluding other components unless otherwise stated.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 프로세서(140)를 포함할 수 있다.Referring to FIG. 1 , the electronic device 100 may include a speaker 110 , a display 120 , a microphone 130 , and a processor 140 .

전자 장치(100)는 스마트폰, 태블릿 PC, 노트북 PC, 데스크탑 PC, 키오스크, TV 등 다양한 기기로 구현될 수 있다. 다만, 도 1과 달리, 전자 장치(100)는 서버로 구현되거나 또는 셋탑박스 등의 제어 장치로 구현될 수도 있다. 이 경우, 전자 장치(100)는 스피커, 디스플레이, 마이크 중 적어도 하나를 포함하는 외부 장치와 연결될 수 있다.The electronic device 100 may be implemented as various devices such as a smart phone, a tablet PC, a notebook PC, a desktop PC, a kiosk, and a TV. However, unlike FIG. 1 , the electronic device 100 may be implemented as a server or as a control device such as a set-top box. In this case, the electronic device 100 may be connected to an external device including at least one of a speaker, a display, and a microphone.

스피커(110)는 다양한 정보를 청각적으로 제공하기 위한 구성으로, 전기적인 오디오 신호를 변환하여 소리를 출력하기 위한 종래의 다양한 구성을 포함할 수 있다.The speaker 110 is a configuration for providing a variety of information audibly, and may include various conventional configurations for converting an electrical audio signal to output a sound.

디스플레이(120)는 다양한 정보를 시각적으로 제공하기 위한 구성이다.The display 120 is configured to visually provide various information.

디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 120 may be implemented as a liquid crystal display (LCD), a plasma display panel (PDP), an organic light emitting diode (OLED), a transparent OLED (TOLED), a micro LED, etc., but is not limited thereto. It may include various known types of displays.

디스플레이(120)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.The display 120 may be implemented in the form of a touch screen capable of sensing a user's touch manipulation, or may be implemented as a flexible display that can be folded or bent.

마이크(130)는 입력된 소리를 전기적인 오디오 신호로 변환하기 위한 적어도 하나의 회로를 포함할 수 있다.The microphone 130 may include at least one circuit for converting an input sound into an electrical audio signal.

프로세서(140)는 전자 장치(100)에 포함된 구성들과 연결되어 전자 장치(100)를 전반적으로 제어하기 위한 구성이다.The processor 140 is a configuration for controlling the electronic device 100 as a whole by being connected to components included in the electronic device 100 .

프로세서(140)는 전자 장치(100)의 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써 후술할 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 140 may perform operations according to various embodiments to be described later by executing at least one instruction stored in the memory of the electronic device 100 .

프로세서(140)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다. 또한, 프로세서(140)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.The processor 140 is a general-purpose processor such as a central processing unit (CPU), an application processor (AP), etc., a graphics-only processor such as a graphic processing unit (GPU), a vision processing unit (VPU), or the like, or artificial It may be implemented as an intelligence-only processor or the like. In addition, the processor 140 may include a volatile memory such as SRAM.

이하 도면들을 통해, 사용자에게 청능 훈련(노래 따라 부르기)을 제공하는 전자 장치(100)의 동작들을 설명한다.Hereinafter, operations of the electronic device 100 that provide auditory training (sing along to a song) to a user will be described with reference to the drawings.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure.

도 2를 참조하면, 프로세서(140)는 사용자 정보를 기반으로 청능 훈련의 난이도를 선택할 수 있다(S210).Referring to FIG. 2 , the processor 140 may select a difficulty level of hearing training based on user information ( S210 ).

사용자 정보는, 사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부, 청능 훈련 이력 등 사용자에 대한 다양한 정보를 포함할 수 있다. 또한, 사용자 정보는, 사용자에 대한 청력 검사 결과에 따라 획득된 사용자를 위한 최적의 소리 크기(Most Comfortable Loudness)에 대한 정보를 더 포함할 수도 있다.The user information may include various information about the user, such as the age of the user, whether or not the cochlear implant has been implanted, the timing of the cochlear implantation, whether the hearing aid is used, and the hearing ability training history. In addition, the user information may further include information on an optimal loudness for the user (Most Comfortable Loudness) obtained according to a result of a hearing test for the user.

여기서, 사용자는 청능 훈련의 대상자이며, 와우 이식 수술을 받았거나 또는 보청기를 착용한 청각장애인에 해당할 수 있으나 이에 한정되지 않는다.Here, the user is a subject of hearing training, and may correspond to a hearing impaired person who has undergone a cochlear implant surgery or wears a hearing aid, but is not limited thereto.

난이도는, 복수의 단계(ex. 1 내지 5 단계)로 기설정될 수 있으며, 청능 훈련의 대상인 노래(멜로디 및 리듬)는 난이도 단계 별로 기설정될 수도 있다.The difficulty level may be preset to a plurality of stages (eg, stages 1 to 5), and songs (melody and rhythm) that are the target of auditory training may be preset for each difficulty stage.

이때, 난이도에 따라 노래의 멜로디 또는 리듬이 변경될 수도 있다. 예를 들어, 난이도가 높을수록 노래의 리듬이 빨라지거나 멜로디가 복잡해질 수 있다.In this case, the melody or rhythm of the song may be changed according to the difficulty. For example, the higher the difficulty, the faster the rhythm of the song or the more complex the melody.

일 실시 예로, 프로세서(140)는 사용자의 연령이 어릴수록 더 낮은 난이도를 선택할 수 있다.In an embodiment, the processor 140 may select a lower difficulty level as the age of the user is younger.

또한, 일 실시 예로, 프로세서(140)는 사용자가 와우 이식을 받은 시기(또는 보청기를 사용하기 시작한 시기)와 현 시점 간의 기간 차이가 짧을수록 더 낮은 난이도를 선택할 수 있다.Also, according to an embodiment, the processor 140 may select a lower difficulty level as the difference between the time when the user received a cochlear implant (or when the user started using the hearing aid) and the current time is shorter.

또한, 일 실시 예로, 프로세서(140)는 (과거의) 청능 훈련 이력을 기반으로 청능 훈련(노래 부르기)에 이용될 노래의 난이도를 선택할 수 있다.Also, according to an embodiment, the processor 140 may select a difficulty level of a song to be used for auditory training (singing a song) based on a (past) auditory training history.

청능 훈련 이력은, 사용자의 청능 훈련(노래 부르기) 횟수, 기간, 빈도 등에 대한 정보를 포함할 수 있다. 또한, 청능 훈련 이력은, 과거에 사용자가 수행한 청능 훈련의 난이도(: 노래의 난이도)에 대한 정보를 포함할 수 있다.The auditory training history may include information on the number, period, frequency, etc. of the user's auditory training (singing). In addition, the auditory training history may include information on the difficulty of the auditory training performed by the user in the past (the difficulty of the song).

청능 훈련 이력은, 전자 장치(100)를 통해 수행된 청능 훈련의 이력 외에, 적어도 하나의 외부 장치(100)를 통해 수행되거나 또는 전문가의 도움을 통해 수행된 청능 훈련의 이력을 추가로 포함할 수도 있다.Auditory training history, in addition to the history of auditory training performed through the electronic device 100, may further include a history of auditory training performed through the at least one external device 100 or with the help of an expert. have.

복수의 사용자의 청능 수행 이력이 전자 장치(100)에 저장되어 있는 경우, 프로세서(140)는 복수의 사용자 중 현재 로그인 등을 수행한 사용자의 청능 훈련 이력을 통해 노래의 난이도를 선택할 수도 있다.When the auditory performance histories of a plurality of users are stored in the electronic device 100 , the processor 140 may select the difficulty of a song through the auditory training histories of users who have currently logged in, etc. among the plurality of users.

구체적인 예로, 프로세서(140)는 청능 훈련을 수행한 횟수에 따라 청능 훈련의 난이도를 선택할 수 있다.As a specific example, the processor 140 may select the difficulty level of auditory training according to the number of times the auditory training is performed.

여기서, 프로세서(140)는 청능 훈련을 수행한 횟수 또는 빈도(ex. 최근 일정 기간 동안의 청능 훈련 횟수)가 적은 사용자일수록 청능 훈련의 난이도를 더 낮게 설정할 수 있다.Here, the processor 140 may set the difficulty of the auditory training to be lower as the number or frequency (eg, the number of times of hearing training during a recent certain period) is less.

또한, 프로세서(140)는 사용자가 과거에 수행한 청능 훈련의 난이도를 이용하여 현재 수행될 청능 훈련의 난이도를 선택할 수도 있다.In addition, the processor 140 may select the difficulty level of the auditory training to be performed currently by using the difficulty level of the auditory training performed by the user in the past.

일 예로, 프로세서(140)는 과거 사용자가 수행한 청능 훈련 중 가장 높은 난이도(: 노래의 난이도)의 청능 훈련을 식별하고, 해당 난이도보다 한 단계 높은 난이도를 선택할 수 있다.For example, the processor 140 may identify auditory training of the highest difficulty (ie, difficulty of a song) among auditory training performed by the user in the past, and select a difficulty level higher than the corresponding difficulty level.

다른 예로, 프로세서(140)는 과거 사용자가 수행한 청능 훈련 중 난이도가 가장 높으면서 성공한 청능 훈련의 난이도를 식별하고, 해당 난이도보다 한 단계 높은 난이도를 선택할 수 있다.As another example, the processor 140 may identify a difficulty level of a successful auditory training exercise with the highest difficulty among auditory training exercises performed by a user in the past, and select a difficulty level higher than the corresponding difficulty level.

여기서, 성공한 청능 훈련이란, 사용자가 청능 훈련에서 제공된 노래를 성공적으로 따라 부른 경우를 의미할 수 있다.Here, the successful auditory training may mean a case in which the user successfully sang along to a song provided in the auditory training.

일 예로, 노래에 해당하는 오디오 신호와 노래를 따라 부른 사용자 음성(오디오 신호) 간의 일치율이 일정 비율 이상인 경우, 청능 훈련이 성공한 것으로 판단될 수 있다. 다만, 이에 한정되지 않는다.For example, when the agreement rate between the audio signal corresponding to the song and the user's voice (audio signal) sung along with the song is equal to or greater than a certain ratio, it may be determined that the auditory training has been successful. However, the present invention is not limited thereto.

청능 훈련의 성공 여부는, 각 청능 훈련이 수행될 때마다 전자 장치(100)를 통해 판단될 수 있으며, 청능 훈련의 성공 여부를 판단하는 구체적인 실시 예는 S230 단계에서 후술한다.Whether or not the auditory training is successful may be determined through the electronic device 100 whenever each auditory training is performed, and a specific embodiment of determining whether the auditory training is successful will be described later in step S230.

한편, 청능 훈련 이력은, 노래 부르기에 해당하는 청능 훈련 외에, 악기의 연주음 듣기와 같은 다른 방식의 청능 훈련에 대한 이력을 더 포함할 수도 있다.Meanwhile, the auditory training history may further include, in addition to auditory training corresponding to singing, a history of auditory training in other methods such as listening to a performance sound of a musical instrument.

악기의 연주음 듣기로 구성된 청능 훈련은, 일 예로, 악기의 연주음에 대한 탐지, 변별, 확인, 이해 단계로 구성된 청능 훈련에 해당할 수 있다. 여기서, 탐지는 악기의 연주음이 들리는지 여부를 확인하는 훈련이고, 변별은 연주음들의 멜로디 및/또는 리듬의 동일성/차이점을 구분하는 훈련이며, 확인은 연주음의 구체적인 특성(악기, 리듬의 속도, 멜로디 등)에 대한 이해 정도를 확인하기 위한 훈련이며, 이해는 연주음에 대한 보다 심화된 정보(ex. 화성)를 인지하고 있는지 확인하기 위한 훈련일 수 있다.The auditory training consisting of listening to the playing sound of the instrument may correspond to, for example, auditory training consisting of the steps of detecting, discriminating, confirming, and understanding the playing sound of the musical instrument. Here, detection is training to check whether or not the playing sound of the instrument is heard, discrimination is training to distinguish the sameness/difference in melody and/or rhythm of the played sounds, and checking is the specific characteristic of the played sound (instrument, rhythm of This is a training to check the level of understanding of speed, melody, etc.), and understanding may be training to check whether more in-depth information (ex. harmony) is recognized about the played sound.

구체적인 예로, 탐지 단계는, 일 악기의 연주음으로 구성된 사운드를 출력하고, 연주음이 들리는지 여부를 문의하는 질의를 디스플레이 하고, 질의에 응답하는 제사용자 입력을 수신할 수 있다. 변별 단계는, 각각 일 악기의 연주음으로 구성된 사운드들을 순차적으로 출력하고, 사운드들의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 질의를 디스플레이 하고, 질의에 응답하는 사용자 입력을 수신할 수 있다. 확인 단계는, 일 악기의 연주음으로 구성된 사운드를 출력하고, 복수의 악기 중 해당 사운드에 대응되는 악기를 선택하도록 요청하는 질의를 디스플레이 하고, 질의에 응답하여 복수의 악기 중 적어도 하나를 선택하는 사용자 입력을 수신할 수 있다. 이해 단계는, 복수의 악기의 연주 소리를 포함하는 하나의 연주음에 해당하는 사운드를 출력하고, 해당 사운드를 구성하는 (연주한) 악기의 수를 묻는 질의를 디스플레이 하고, 질의에 응답하는 사용자 입력을 수신할 수 있다.As a specific example, the detection step may include outputting a sound composed of a performance sound of a musical instrument, displaying a query asking whether a performance sound is heard, and receiving a user input in response to the query. In the discriminating step, sequentially outputting sounds composed of a performance sound of each instrument, displaying a query asking whether at least one of a rhythm and a melody of the sounds sounds different from each other, and receiving a user input in response to the query can In the confirmation step, the user outputs a sound composed of a performance sound of one instrument, displays a query requesting to select an instrument corresponding to the corresponding sound from among a plurality of instruments, and selects at least one of the plurality of instruments in response to the query input can be received. In the understanding step, outputting a sound corresponding to one performance sound including performance sounds of a plurality of musical instruments, displaying a query asking for the number of (played) instruments constituting the sound, and a user input responding to the query can receive

이때, 전자 장치(100)에 저장된 청능 훈련 이력에는, 상술한 탐지/변별/확인/이해 단계에서 각 단계의 질의에 응답하는 사용자 입력의 정답 여부에 대한 정보, 정답 여부에 따라 판별된 사용자의 청각 인지 능력에 대한 정보가 포함될 수 있다.At this time, the hearing ability training history stored in the electronic device 100 includes information on whether the user input in response to the query of each step in the detection/discrimination/check/understanding step described above is correct, and the user's hearing determined according to the correct answer. Information on cognitive abilities may be included.

이 경우, 프로세서(140)는 상술한 다른 청능 훈련(악기의 연주음 듣기)을 통해 획득된 사용자의 청각 인지 능력에 따라, 청능 훈련(노래 부르기)의 난이도를 선택할 수 있다. In this case, the processor 140 may select the difficulty level of the auditory training (singing a song) according to the user's auditory cognitive ability acquired through the above-described other auditory training (listening to the sound of a musical instrument).

즉, 프로세서(140)는 사용자의 청각 인지 능력에 매칭되는 난이도의 청능 훈련(노래 부르기)을 수행할 수 있으며, 사용자의 청각 인지 능력이 높을수록 청능 훈련(노래 부르기)의 난이도를 높일 수 있다.That is, the processor 140 may perform auditory training (singing) of difficulty matching the auditory cognitive ability of the user, and may increase the difficulty of the auditory training (singing) as the user's auditory cognitive ability increases.

한편, 프로세서(140)는 상술한 사용자 정보 외에 주변 소음의 크기를 추가로 고려하여 청능 훈련의 난이도를 선택할 수도 있다.On the other hand, the processor 140 may select the difficulty of hearing ability training in addition to the above-described user information in consideration of the level of ambient noise.

이 경우, 프로세서(140)는 마이크(130)를 통해 주변 소음의 크기를 측정할 수 있으며, 측정된 소음의 크기가 클수록 더 낮은 난이도를 선택할 수 있다.In this case, the processor 140 may measure the level of ambient noise through the microphone 130 , and may select a lower difficulty level as the measured noise level increases.

구체적인 예로, 사용자 정보에 따라 난이도가 3단계로 선택된 상태에서 주변 소음의 크기가 임계치 이상인 것으로 식별되면, 프로세서(140)는 난이도를 한 단계 줄여 2단계의 난이도를 선택할 수 있다.As a specific example, if it is identified that the level of ambient noise is greater than or equal to the threshold while the level of difficulty is selected as three levels according to user information, the processor 140 may reduce the level of difficulty by one level to select the level of difficulty of the second level.

상술한 다양한 실시 예들에 따라 난이도가 선택되면, 프로세서(140)는 해당 난이도의 청능 훈련을 수행할 수 있다(S220).When the difficulty level is selected according to the above-described various embodiments, the processor 140 may perform auditory training of the corresponding difficulty level (S220).

구체적으로, 프로세서(140)는 선택된 난이도에 대응되는 노래를 스피커(110)를 통해 출력하고, 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이(120) 상에 디스플레이 하고, 마이크(130)를 통해 사용자 음성을 입력 받을 수 있다.Specifically, the processor 140 outputs a song corresponding to the selected difficulty level through the speaker 110, displays a UI (User Interface) guiding the user to sing along the output song on the display 120, and a microphone ( 130) can receive the user's voice input.

이때, 프로세서(140)는 사용자의 청력 검사 결과에 따라 결정된 최적의 소리 크기(Most Comfortable Loudness)로 노래를 출력할 수도 있다.In this case, the processor 140 may output the song at the most comfortable loudness determined according to the user's hearing test result.

또한, 프로세서(140)는 주변 소음의 피치에 따라 선택된 노래를 출력할 수 있다.In addition, the processor 140 may output the selected song according to the pitch of the ambient noise.

구체적으로, 프로세서(140)는 마이크(130)를 통해 수신된 주변 소음의 피치(진동수)를 식별할 수 있다. 이때, 프로세서(140)는 주변 소음을 구성하는 오디오 신호 중 비중이 가장 높은 진동수를 이용하여 주변 소음의 피치 또는 주변 소음의 피치 범위를 식별할 수 있다.Specifically, the processor 140 may identify the pitch (frequency) of the ambient noise received through the microphone 130 . In this case, the processor 140 may identify the pitch of the ambient noise or the pitch range of the ambient noise by using the frequency with the highest weight among the audio signals constituting the ambient noise.

그리고, 프로세서(140)는 식별된 주변 소음의 피치(또는 피치 범위)와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력할 수 있다.In addition, the processor 140 may output a song corresponding to a pitch in which a difference between a pitch (or a pitch range) and a frequency of the identified ambient noise is a predetermined number or more.

구체적으로, 프로세서(140)는 주변 소음의 주된 피치(ex. 비중이 가장 높은 진동수)와 진동수 차이가 일정 수 이상인 피치를 주된 피치로 하는 노래를 출력할 수 있다.Specifically, the processor 140 may output a song having as the main pitch a pitch in which a difference in frequency is greater than or equal to a predetermined number or more from the main pitch of the ambient noise (eg, the frequency with the highest specific gravity).

이 경우, 주변 소음과 노래가 명확히 구분될 가능성이 높아지므로, 훈련에 미치는 주변 소음의 영향이 비교적 감소할 수 있다.In this case, since ambient noise and singing are more likely to be clearly distinguished, the effect of ambient noise on training can be relatively reduced.

도 3은 본 개시의 일 실시 예에 따른 전자 장치의 훈련 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a training process of an electronic device according to an embodiment of the present disclosure.

도 3을 참조하면, 전자 장치(100)는 노래(310)를 출력하는 한편, 노래(310)를 따라 부르도록 유도하는 UI(320)를 디스플레이 할 수 있다.Referring to FIG. 3 , the electronic device 100 may output a song 310 and display a UI 320 induced to sing along to the song 310 .

여기서, UI(320)는 출력되는 노래(310)의 악보(325) 등 가이드 정보를 포함할 수 있다.Here, the UI 320 may include guide information such as the sheet music 325 of the song 310 to be output.

구체적인 예로, 도 3을 참조하면, 전자 장치(100)는 현재 따라 부르기가 진행되고(출력되고) 있는 노래의 진행 부분을 실시간으로 알려주기 위해 UI(320)의 악보(325) 내 가사에 강조 표시를 하거나, 피치(pitch)의 높낮이 변화를 직관적으로 알려주기 위한 화살표를 악보(325) 내에 표시할 수 있다.As a specific example, referring to FIG. 3 , the electronic device 100 highlights the lyrics in the sheet music 325 of the UI 320 in order to inform in real time the progress of a song that is currently being sung along (output). Or, an arrow for intuitively indicating a change in pitch (pitch) in height may be displayed in the sheet music 325 .

도 3을 참조하면, UI(320)는 현재 출력되고 있는 노래(310)의 재생을 일시정지하기 위한 '일시정지' 항목, 현재 출력되고 있는 노래(310)의 재생(따라 부르기)을 처음부터 다시 시작하기 위한 '처음부터' 항목 등을 포함할 수 있다. '일시정지' 항목이 사용자의 터치 등을 통해 선택되는 경우, '일시정지' 항목은 '재생' 항목으로 변경될 수 있다.Referring to FIG. 3 , the UI 320 restarts the 'pause' item for pausing the playback of the currently output song 310 and the playback (sing along) of the currently output song 310 from the beginning. It can include a 'from scratch' item to start with. When the 'pause' item is selected through a user's touch or the like, the 'pause' item may be changed to a 'play' item.

한편, 비록 도 3은 노래(310)가 출력됨과 동시에 노래를 따라 부르도록 유도하는 UI(320)가 디스플레이 되는 상황만을 도시하였으나, 노래의 출력이 완료된(노래가 끝남) 이후에 노래를 따라 부르도록 유도하는 UI가 별도로 제공되는 것도 물론 가능하다.On the other hand, although FIG. 3 shows only a situation in which the UI 320 for inducing singing along to the song 310 is displayed at the same time as the song 310 is output, the song is to be sung after the output of the song is completed (the song ends). Of course, it is also possible that the inducing UI is provided separately.

도 3을 참조하면, UI(320)에 따라 노래를 따라 부르는 사용자 음성(330)이 마이크(130)를 통해 입력될 수 있다.Referring to FIG. 3 , a user voice 330 singing along to a song according to the UI 320 may be input through the microphone 130 .

한편, 도 3과 같이 전자 장치(100)가 노래를 출력함과 동시에 사용자 음성이 입력되는 경우, 프로세서(140)는 마이크를 통해 수신된 오디오 신호 중 사용자 음성에 해당하는 오디오 신호만을 추출할 수 있다.Meanwhile, as shown in FIG. 3 , when the electronic device 100 outputs a song and a user voice is input at the same time, the processor 140 may extract only an audio signal corresponding to the user voice from among the audio signals received through the microphone. .

구체적으로, 프로세서(140)는 마이크(130)를 통해 수신된 오디오 신호 중 출력된 노래에 해당하는 오디오 신호와 매칭되는 부분을 제거하여 사용자 음성에 해당하는 오디오 신호만을 추출할 수 있다.Specifically, the processor 140 may extract only the audio signal corresponding to the user's voice by removing a portion matching the audio signal corresponding to the output song among the audio signals received through the microphone 130 .

또는, 프로세서(140)는 사용자의 목소리만을 인식하도록 훈련된 인공지능 모델을 이용할 수도 있다.Alternatively, the processor 140 may use an artificial intelligence model trained to recognize only the user's voice.

여기서, 인공지능 모델은, 오디오 신호가 입력되면, 특정한 사용자의 목소리에 해당하는 오디오 신호만을 추출하도록 훈련될 수 있다. 구체적으로, 인공지능 모델은, 해당 사용자의 다양한 발화/노래에 해당하는 오디오 신호를 훈련 데이터로 하여 훈련될 수 있다.Here, when an audio signal is input, the artificial intelligence model may be trained to extract only an audio signal corresponding to a specific user's voice. Specifically, the artificial intelligence model may be trained using audio signals corresponding to various utterances/songs of the corresponding user as training data.

이 경우, 프로세서(140)는 마이크(130)를 통해 수신된 오디오 신호를 인공지능 모델에 입력하여, 사용자 음성에 해당하는 오디오 신호만을 획득할 수 있다.In this case, the processor 140 may input the audio signal received through the microphone 130 into the artificial intelligence model to obtain only the audio signal corresponding to the user's voice.

한편, 사용자 음성에 해당하는 오디오 신호만을 추출하기 위해, 프로세서(140)는 종래의 모듈 또는 인공지능 모델을 이용하여 마이크(130)를 통해 수신된 오디오 신호의 노이즈를 제거할 수도 있다.Meanwhile, in order to extract only the audio signal corresponding to the user's voice, the processor 140 may remove noise from the audio signal received through the microphone 130 using a conventional module or artificial intelligence model.

사용자 음성에 해당하는 오디오 신호가 추출되면, 프로세서(140)는 사용자 음성을 기반으로 훈련(S220)을 추가로 수행할 지 여부를 결정할 수 있다(S230).When the audio signal corresponding to the user's voice is extracted, the processor 140 may determine whether to additionally perform training (S220) based on the user's voice (S230).

관련하여, 도 4는 본 개시의 일 실시 예에 따른 전자 장치가 사용자 음성과 목표 음성(노래)의 일치도를 비교하는 동작을 설명하기 위한 도면이다.In relation to this, FIG. 4 is a diagram for describing an operation in which an electronic device compares a degree of matching between a user's voice and a target voice (song) according to an embodiment of the present disclosure.

도 4를 참조하면, 스피커(110)를 통해 출력된 노래의 오디오 신호(420)와 사용자 음성의 오디오 신호(410) 간의 일치율을 기반으로, 프로세서(140)는 훈련 단계(S220)를 추가로 수행할지 여부를 결정할 수 있다.Referring to FIG. 4 , based on the matching rate between the audio signal 420 of the song output through the speaker 110 and the audio signal 410 of the user's voice, the processor 140 additionally performs a training step S220 . You can decide whether to

구체적으로, 프로세서(140)는 일치율에 따라 훈련 단계(S220)의 노래 부르기가 성공했는지 여부를 판단할 수 있다. 여기서, 프로세서(140)는 훈련 단계(S220)의 노래 부르기가 성공한 것으로 판단된 경우 추가 훈련을 추가로 수행하지 않는 것으로 결정하고, 훈련 단계(S220)의 노래 부르기가 성공하지 않은 것으로 판단된 경우 추가 훈련을 추가로 수행하는 것으로 결정할 수 있다.Specifically, the processor 140 may determine whether singing in the training step S220 is successful according to the matching rate. Here, the processor 140 determines not to perform additional training additionally when it is determined that singing in the training step S220 is successful, and when it is determined that singing in the training step S220 is not successful, add It may be decided to conduct additional training.

일치율은, 오디오 신호의 시간 별 진폭, 진동수, 맵시 등의 요소들 중 적어도 하나의 일치율에 해당할 수 있다.The coincidence rate may correspond to the coincidence rate of at least one of factors such as amplitude, frequency, and fashion for each time of the audio signal.

이때, 프로세서(140)는 오디오 신호 간의 진폭, 진동수 등을 비교하여 일치율을 출력하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수 있다. 구체적으로, 프로세서(140)는 사용자 음성의 오디오 신호 및 출력된 노래의 오디오 신호를 인공지능 모델에 입력하여, 일치율을 식별할 수 있다.In this case, the processor 140 may use at least one artificial intelligence model trained to output a matching rate by comparing amplitudes, frequencies, etc. between audio signals. Specifically, the processor 140 may input the audio signal of the user's voice and the audio signal of the output song to the AI model to identify the matching rate.

또는, 일치율은, 오디오 신호가 나타내는 소리의 멜로디, 박자 등의 요소들의 일치율에 해당할 수 있다. 여기서, 멜로디는 피치에 해당하므로 진동수를 통해 식별될 수 있고, 박자는 진폭 등의 급격한 변화가 감지되는 시점들을 통해 식별될 수 있다.Alternatively, the coincidence rate may correspond to the coincidence rate of elements such as melody and time signature of a sound represented by the audio signal. Here, since the melody corresponds to the pitch, it can be identified through the frequency, and the beat can be identified through the points in time when a sudden change in amplitude, etc. is sensed.

한편, 일 예로, 일치율은, 피치의 변화 방향(상승 또는 하강)에 대한 일치 여부를 의미할 수도 있다.Meanwhile, as an example, the coincidence rate may mean whether the pitch coincides with the change direction (rising or falling) of the pitch.

구체적으로, 출력되는 노래의 피치(계이름)가 동일한 옥타브 내의 “솔-미-미-파-레-레”인 경우, 프로세서(140)는 출력되는 노래의 피치의 변화 방향을 “하강-유지-상승-하강-유지”로 식별할 수 있다.Specifically, when the pitch of the output song is “sol-mi-mi-pa-re-re” within the same octave, the processor 140 sets the direction of change in the pitch of the output song as “fall-maintain- It can be identified as “rising-falling-holding”.

여기서, 만약 노래를 따라 부르는 사용자 음성의 피치가 동일한 옥타브 내의 “솔-미(샵)-미(샵)-파-도-도”인 경우, 프로세서(140)는 사용자 음성의 피치의 변화 방향을 “하강-유지-상승-하강-유지”로 식별할 수 있다.Here, if the pitch of the user's voice singing along with the song is "sol-mi (sharp)-mi (sharp)-pa-do-do" within the same octave, the processor 140 determines the direction of change in the pitch of the user's voice. It can be identified as “fall-hold-rise-fall-hold”.

이 경우, 비록 피치의 절대음은 다르지만, 프로세서(140)는 피치의 변화 방향이 서로 일치하는 것으로 식별할 수 있다.In this case, although the absolute pitch of the pitch is different, the processor 140 may identify that the pitch change directions coincide with each other.

일반적으로, 청각 장애인이 아니더라도 노래의 절대음을 명확히 맞추지 못하는 경우가 많기 때문에, 상술한 실시 예와 같이 피치의 변화 방향을 통해 일치율을 식별함으로써, 노래를 성공적으로 따라 불렀는지 여부를 판단하는 것도 가능하다.In general, since there are many cases where even people who are not deaf cannot clearly match the absolute tone of a song, it is also possible to determine whether or not the song has been sung successfully by identifying the coincidence rate through the direction of pitch change as in the above-described embodiment. do.

한편, 일 실시 예에 따르면, 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 프로세서(140)는 훈련(S220)이 성공하지 못한 것으로 식별하고, 훈련을 추가로 수행하는 것으로 결정할 수 있다.Meanwhile, according to an embodiment, when the matching rate is lower than a value obtained by subtracting the threshold from the preset matching rate, the processor 140 may identify that the training S220 has not been successful and may determine to perform additional training. .

반면, 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 높거나 같은 경우, 프로세서(140)는 훈련(S220)이 성공한 것으로 식별하고, 훈련을 추가로 수행하지 않는 것으로 결정할 수 있다.On the other hand, when the matching rate is higher than or equal to the value obtained by subtracting the threshold from the preset matching rate, the processor 140 may identify that the training S220 has been successful and determine that training is not additionally performed.

여기서, 기설정된 일치율은, 출력된 노래와 출력된 노래를 따라 부른 정상인의 음성 간의 일치율에 해당할 수 있다.Here, the preset matching rate may correspond to a matching rate between the output song and the voice of a normal person singing along with the output song.

정상인은, 청각 장애를 겪지 않고, 인공 와우 이식을 받지 않았으며, 보청기를 착용하지 않은 사람일 수 있다. 또한, 정상인은, 사용자와의 나이 차이가 일정 나이 미만인 사람일 수 있다.A normal person may be a person who has not suffered a hearing impairment, has not received a cochlear implant, and does not wear a hearing aid. Also, the normal person may be a person whose age difference with the user is less than a certain age.

구체적으로, 기설정된 일치율은, 훈련(S220) 단계에서 대상이 된 노래와 동일한 노래를 (듣고) 따라 부른 적어도 한 명의 정상인의 음성의 오디오 신호와 해당 노래의 오디오 신호 간의 일치율에 해당할 수 있다.Specifically, the preset matching rate may correspond to a matching rate between the audio signal of the voice of at least one normal person who sang along (listening to) the same song as the target song in the training (S220) step and the audio signal of the corresponding song.

이때, 기설정된 일치율은, 정상인 각각의 음성으로부터 획득된 일치율의 평균 값에 해당할 수 있으나, 이에 한정되지 않는다.In this case, the preset coincidence rate may correspond to an average value of the coincidence rates obtained from each normal voice, but is not limited thereto.

한편, 도 5는 본 개시의 일 실시 예에 따른 전자 장치가 추가 훈련 수행 여부에 따라 훈련을 반복하는 동작을 설명하기 위한 알고리즘이다.Meanwhile, FIG. 5 is an algorithm for explaining an operation in which the electronic device repeats training according to whether or not additional training is performed according to an embodiment of the present disclosure.

도 5를 참조하면, 상술한 S230 단계에서 일치율에 따라 훈련이 추가로 수행되는 것으로 결정된 경우, 프로세서(140)는 상술한 S220 단계의 훈련을 추가로 수행할 수 있다.Referring to FIG. 5 , when it is determined that training is additionally performed according to the coincidence rate in step S230 described above, the processor 140 may additionally perform the training in step S220 described above.

이때, 앞서 S220 단계에서 이용되었던 노래와 동일한 노래가 이용되거나 또는 S220 단계에서 이용된 노래의 난이도와 동일한 난이도의 노래가 이용될 수도 있으나, 이에 한정되는 것은 아니다.In this case, the same song as the song previously used in step S220 may be used, or a song having the same difficulty as the song used in step S220 may be used, but is not limited thereto.

또한, 프로세서(140)는 재차 수행된 S220 단계 다음으로 다시금 추가 훈련이 필요한지 여부를 식별하기 위해 S230 단계를 수행할 수 있다.In addition, the processor 140 may perform step S230 to identify whether additional training is required again after step S220 performed again.

이 경우, 사용자가 노래를 성공적으로 따라 부를 때까지 훈련이 한 번 이상 반복될 수도 있다.In this case, the training may be repeated one or more times until the user successfully sings along to the song.

다만, 일반적으로 청능 훈련의 효과는 청능 훈련이 중장기(ex. 수개월) 이상 진행되어야 커질 수 있다는 점이 밝혀진 바 있기 때문에, 단기간의 반복 훈련에만 집중하는 것은 효율적이지 않을 수 있다. However, in general, since it has been revealed that auditory training can only be effective if auditory training is performed over a mid- to long-term (ex. several months), it may not be effective to focus only on short-term repetitive training.

관련하여, 본 개시의 일 실시 예에 따른 프로세서(140)는, 연속적으로 수행되는 훈련 과정 별로 훈련의 성과를 측정하고, 측정된 성과에 따라 훈련 횟수를 제한할 수 있다.In relation to this, the processor 140 according to an embodiment of the present disclosure may measure a training performance for each continuously performed training process, and limit the number of training sessions according to the measured performance.

관련하여, 도 6은 본 개시의 일 실시 예에 따른 전자 장치가 훈련 횟수에 따라 훈련 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘이다. 도 6의 알고리즘은 상술한 도 5의 알고리즘이 진행되는 도중에 진행될 수 있다.6 is an algorithm for explaining an operation in which the electronic device determines whether training is terminated according to the number of training sessions according to an embodiment of the present disclosure. The algorithm of FIG. 6 may be performed while the algorithm of FIG. 5 is in progress.

도 6을 참조하면, 프로세서(140)는 훈련 단계(S220)가 연속적으로 수행된 횟수가 기설정된 횟수(ex. 5회) 이상인지 여부를 식별할 수 있다(S610).Referring to FIG. 6 , the processor 140 may identify whether the number of consecutive training steps ( S220 ) is greater than or equal to a preset number (eg, 5 times) ( S610 ).

만약, 훈련 단계(S220)가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우(S610 - Y), 프로세서(140)는 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교할 수 있다(S620).If the number of consecutively performed training steps S220 is greater than or equal to the preset number (S610 - Y), the processor 140 continuously performs the matching rate of the last training step among the continuously performed training steps. It can be compared with the average coincidence rate of the trained training steps (S620).

여기서, 일치율은, 상술하였듯 사용자가 부른 노래와 출력된 노래 간의 일치율에 해당한다.Here, the coincidence rate corresponds to the coincidence rate between the song sung by the user and the output song as described above.

도 6을 참조하면, 만약 마지막으로 수행된 훈련 단계의 일치율이 평균 일치율보다 낮은 경우(S630 - Y), 프로세서(140)는 훈련 단계를 추가로 수행하지 않는 것으로 결정할 수 있다(S640). 이 경우, 프로세서(140)는 S230의 판단 결과와 무관하게 도 5의 과정을 중단할 수 있다.Referring to FIG. 6 , if the matching rate of the last training step is lower than the average matching ratio (S630 - Y), the processor 140 may determine not to additionally perform the training step (S640). In this case, the processor 140 may stop the process of FIG. 5 irrespective of the determination result of S230 .

이렇듯, 상술한 도 6의 실시 예에 따른 전자 장치(100)는 반복 훈련의 효율성이 떨어지는 시점을 객관적으로 식별하여 훈련을 중단할 수 있고, 그 결과 효율성이 보장되는 범위 내에서만 반복 훈련을 수행할 수 있다는 효과가 있다.As such, the electronic device 100 according to the above-described embodiment of FIG. 6 can objectively identify a point in time when the efficiency of repetitive training is low and stop training, and as a result, it is possible to perform repetitive training only within the range where the efficiency is guaranteed. It has the effect that it can.

한편, 도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.Meanwhile, FIG. 7 is a block diagram for explaining the configuration and operation of an electronic device according to various embodiments of the present disclosure.

도 7을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 프로세서(140) 외에 메모리(150), 사용자 입력부(160), 통신부(170) 등을 더 포함할 수도 있다.Referring to FIG. 7 , the electronic device 100 further includes a memory 150 , a user input unit 160 , a communication unit 170 , etc. in addition to the speaker 110 , the display 120 , the microphone 130 , and the processor 140 . may include

메모리(150)는 전자 장치(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 전자 장치(100)의 구성요소와 관련된 적어도 하나의 인스트럭션 또는 데이터를 저장하기 위한 구성이다. The memory 150 is a configuration for storing an operating system (OS) for controlling overall operations of the components of the electronic device 100 and at least one instruction or data related to the components of the electronic device 100 . .

프로세서(140)는 메모리(150)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 본 개시의 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 140 may perform operations according to various embodiments of the present disclosure by executing at least one instruction stored in the memory 150 .

일 예로, 메모리(150)는 본 개시에 따른 상술한 청능 훈련 방법을 수행하기 위한 적어도 하나의 애플리케이션에 대한 정보를 포함할 수 있다. 이때, 프로세서(140)는 해당 애플리케이션을 실행함으로써 본 개시의 다양한 실시 예에 따른 청능 훈련 방법을 수행할 수 있다.For example, the memory 150 may include information on at least one application for performing the above-described auditory training method according to the present disclosure. In this case, the processor 140 may perform the hearing ability training method according to various embodiments of the present disclosure by executing the corresponding application.

사용자 입력부(160)는 전자 장치(100)에 대한 사용자의 명령 및/또는 전자 장치(100)의 동작에 필요한 사용자 정보를 수신하기 위한 구성이다. The user input unit 160 is configured to receive a user's command for the electronic device 100 and/or user information required for the operation of the electronic device 100 .

사용자 입력부(160)는 하나 이상의 버튼, 터치스크린, 마이크, 카메라 등 다양한 구성을 포함할 수 있다.The user input unit 160 may include various components such as one or more buttons, a touch screen, a microphone, and a camera.

일 예로, 사용자 입력부(160)를 통해 상술한 애플리케이션을 실행하기 위한 사용자 명령이 수신되면, 프로세서(140)는 본 개시에 따른 청능 훈련 방법을 수행할 수 있다.For example, when a user command for executing the above-described application is received through the user input unit 160 , the processor 140 may perform the hearing training method according to the present disclosure.

통신부(170)는 전자 장치(100)가 적어도 하나의 외부 장치와 통신을 수행하기 위한 구성으로 회로를 포함할 수 있다.The communication unit 170 may include a circuit as a configuration for the electronic device 100 to communicate with at least one external device.

통신부(170)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(170)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.The communication unit 170 may be connected to an external device based on a network implemented through wired communication and/or wireless communication. In this case, the communication unit 170 may be directly connected to an external device, or may be connected to an external electronic device through one or more external servers (eg, Internet Service Providers (ISPs)) that provide a network.

네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.The network may be a personal area network (PAN), a local area network (LAN), a wide area network (WAN), etc. depending on the area or size, and depending on the openness of the network, an intranet, It may be an extranet or the Internet.

무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communication includes long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G) mobile communication, code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), WiBro (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), at least one of the communication methods such as Zigbee may include

유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. 여기서, 통신부(150)는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and ThunderBolt. Here, the communication unit 150 may include a network interface or a network chip according to the above-described wired/wireless communication method. Meanwhile, the communication method is not limited to the above-described example, and may include a communication method newly appearing according to the development of technology.

일 예로, 프로세서(140)는 본 개시에 따른 청능 훈련 방법을 수행하기 위한 애플리케이션을 실행함으로써 통신부(170)를 통해 적어도 하나의 외부 서버와 연결될 수 있다. For example, the processor 140 may be connected to at least one external server through the communication unit 170 by executing an application for performing the hearing ability training method according to the present disclosure.

이때, 프로세서(140)는 통신부(170)를 통해 외부 서버로부터 애플리케이션과 관련된 정보(ex. 웹 페이지, 사운드 정보(노래), UI 정보 등)를 수신할 수 있다. In this case, the processor 140 may receive application-related information (eg, a web page, sound information (song), UI information, etc.) from an external server through the communication unit 170 .

그리고, 훈련 단계(S220)를 수행하는 과정에서, 프로세서(140)는 수신된 정보에 따라 다양한 노래/UI를 출력할 수 있다.And, in the process of performing the training step (S220), the processor 140 may output various songs/UIs according to the received information.

한편, 프로세서(140)는 훈련 단계(S220)에서 제공되는 UI에 대한 정보를 통신부(170)를 통해 적어도 하나의 디스플레이 장치로 전송할 수도 있다.Meanwhile, the processor 140 may transmit information on the UI provided in the training step S220 to at least one display device through the communication unit 170 .

이 경우, 상술한 UI(320) 등은 디스플레이 장치를 통해 제공될 수도 있다.In this case, the above-described UI 320 and the like may be provided through a display device.

한편, 프로세서(140)는 훈련 단계(S220)에서 출력되는 노래(사운드)에 대한 오디오 신호를 통신부(170)를 통해 적어도 하나의 스피커 장치로 전송할 수 있다.Meanwhile, the processor 140 may transmit an audio signal for a song (sound) output in the training step S220 to at least one speaker device through the communication unit 170 .

구체적인 예로, 프로세서(140)는 블루투스 통신 방식을 통해 해당 오디오 신호를 무선 이어폰, 무선 헤드폰, 무선 스피커 등의 스피커 장치로 전송할 수 있다.As a specific example, the processor 140 may transmit a corresponding audio signal to a speaker device such as a wireless earphone, a wireless headphone, or a wireless speaker through a Bluetooth communication method.

그 결과, 사용자가 따라 부를 노래가 상술한 스피커 장치를 통해 출력될 수 있다.As a result, the song to be sung by the user can be output through the speaker device described above.

한편, 도시되지는 않았으나, 전자 장치(100)는 스피커 외에 (유선) 오디오 출력 단자를 더 포함할 수도 있다. Meanwhile, although not shown, the electronic device 100 may further include a (wired) audio output terminal in addition to the speaker.

이 경우, 전자 장치(100)는 훈련 단계(S220)에서 출력되는 노래에 대한 오디오 신호를 오디오 출력 단자를 통해 적어도 하나의 스피커 장치(ex. 이어폰/헤드폰, 스피커 등)로 전송할 수 있다. 그 결과, 해당 스피커 장치에서 노래가 출력될 수 있다.In this case, the electronic device 100 may transmit the audio signal for the song output in the training step S220 to at least one speaker device (eg, earphone/headphone, speaker, etc.) through the audio output terminal. As a result, a song may be output from the corresponding speaker device.

한편, 본 개시에 따른 전자 장치(100)의 청능 훈련 방법은, 도 2의 과정 전에, 악기의 연주음을 기반으로 하는 다른 방식의 청능 훈련 방법을 수행할 수 있다. 그리고, 악기의 연주음을 기반으로 하는 청능 훈련 방법에서 판별된 사용자의 청각 인지 능력이 일정 수치 또는 스코어 이상인 것으로 판별되는 경우에만, 상술한 도 2의 과정을 수행할 수도 있다. 즉, 악기의 연주음을 기반으로 한 청능 훈련이 성공적으로 수행된 이후, 노래 부르기를 기반으로 한 청능 훈련이 수행될 수 있다.Meanwhile, in the auditory training method of the electronic device 100 according to the present disclosure, before the process of FIG. 2 , another method of auditory training based on the playing sound of a musical instrument may be performed. In addition, the process of FIG. 2 may be performed only when it is determined that the auditory cognitive ability of the user determined in the auditory training method based on the playing sound of the instrument is equal to or greater than a predetermined value or score. That is, after auditory training based on the playing sound of the instrument is successfully performed, auditory training based on singing may be performed.

악기의 연주음을 기반으로 하는 다른 방식의 청능 훈련 방법은, 탐지, 변별, 확인, 이해 훈련 외에, 상술한 훈련들 중 적어도 하나를 추가로 수행하는 재훈련 단계를 포함할 수 있다.Another auditory training method based on the playing sound of a musical instrument may include a retraining step of additionally performing at least one of the above-described training in addition to detection, discrimination, confirmation, and understanding training.

구체적으로, 프로세서(140)는 탐지, 변별, 확인, 이해 훈련 과정에서 수신된 사용자 입력에 따라, 재훈련 단계에서 탐지, 변별, 확인, 이해 훈련 중 적어도 하나를 추가로 수행할 수 있다.Specifically, the processor 140 may additionally perform at least one of detection, discrimination, confirmation, and understanding training in the retraining step according to a user input received in the detection, discrimination, confirmation, and understanding training process.

이때, 최초로 수행된 탐지, 변별, 확인, 이해 훈련의 난이도는, 재훈련 단계에서 추가로 수행되는 훈련의 난이도와 다를 수 있다.In this case, the difficulty of the detection, discrimination, confirmation, and understanding training performed initially may be different from the difficulty of the training additionally performed in the retraining stage.

구체적으로, 프로세서(140)는 최초에 탐지, 변별, 확인, 이해 단계에서 수신된 사용자 입력들 중 적어도 하나가 수신되는 데에 걸린 시간에 따라, 재훈련 단계에 포함되는 훈련의 난이도를 조정할 수도 있다.Specifically, the processor 140 is The difficulty of training included in the retraining step may be adjusted according to the time taken for at least one of the user inputs received in the initially detecting, discriminating, confirming, and understanding steps to be received.

일 예로, 만약 최초의 변별 훈련 단계에서 제공된 질의에 따라 수신된 사용자 입력이 정답인 경우, 프로세서(140)는 해당 사용자 입력의 수신에 소요된 시간(ex. 질의가 디스플레이 된 시점부터 사용자 입력이 수신된 시점까지)을 사용자 입력의 수신에 소요되는 평균 시간과 비교할 수 있다.As an example, if the user input received according to the query provided in the first discrimination training stage is the correct answer, the processor 140 receives the user input from the time taken to receive the corresponding user input (eg, the time the query is displayed). time) can be compared with the average time required to receive user input.

평균 시간은, 과거에 수행된 한 번 이상의 변별 훈련 단계의 훈련 이력을 기반으로 획득된 것일 수 있다. 일 예로, 프로세서(140)는 (동일한) 사용자가 과거 변별 훈련을 수행한 이력(ex. 사용자 입력 수신에 소요된 시간, 정답률, 훈련 횟수/빈도 등)을 통해 과거 변별 훈련 단계에 있어 사용자 입력이 수신되는 데에 소요된 시간의 평균을 계산할 수 있다.The average time may be obtained based on a training history of one or more discrimination training steps performed in the past. As an example, the processor 140 determines that the user input in the past discrimination training stage through the (same) user's past discrimination training history (eg, time taken to receive user input, correct answer rate, number of training times/frequency, etc.) You can calculate the average of the time it took to be received.

여기서, 만약 최초의 변별 훈련 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 길거나 같은 경우, 재훈련 단계에서, 프로세서(140)는 최초 수행된 변별 훈련 단계의 난이도와 동일한 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.Here, if the time taken to receive the user input in the first discrimination training step is longer than or equal to the average time plus the threshold time, in the retraining step, the processor 140 determines the difficulty of the initially performed discrimination training step and The discrimination training step may be additionally performed according to the same difficulty level.

반면, 만약 최초의 변별 훈련 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 짧은 경우, 재훈련 단계에서, 프로세서(140)는 최초 수행된 변별 단계의 난이도보다 높은 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.On the other hand, if the time taken to receive the user input in the first discrimination training step is shorter than the average time plus the threshold time, in the retraining step, the processor 140 sets a level of difficulty higher than that of the initially performed discrimination step. According to this, a discrimination training step may be additionally performed.

이렇듯, 정답 여부뿐만 아니라 정답을 고르는 데에 걸린 시간까지 고려된 맞춤형 재훈련이 수행됨으로써, 사용자 개인을 위한 최적의 청능 훈련이 수행될 수 있다는 효과가 있다.As such, by performing customized retraining in consideration of not only the correct answer but also the time taken to select the correct answer, there is an effect that optimal hearing training for an individual user can be performed.

한편, 프로세서(130)는 탐지, 변별, 확인, 이해 단계에서 수신된 사용자 입력들 중 적어도 하나에 따라 재훈련 단계에서 수행되는 훈련의 횟수를 조정할 수도 있다.Meanwhile, the processor 130 may adjust the number of times of training performed in the retraining step according to at least one of user inputs received in the detection, discrimination, confirmation, and understanding steps.

일 실시 예에 따라, 탐지, 변별, 이해 단계에서 수신된 사용자 입력들은 정답이지만 확인 단계에서 수신된 사용자 입력은 오답인 경우를 가정한다.According to an embodiment, it is assumed that the user inputs received in the detection, discrimination, and understanding steps are correct answers, but the user input received in the confirmation step is an incorrect answer.

이 경우, 재훈련 단계에서, 프로세서(140)는 탐지 훈련, 변별 훈련, 이해 훈련은 각각 동일한 횟수만큼 추가로 수행하되, 확인 훈련만큼은 해당 횟수보다 더 많은 횟수만큼 추가로 수행할 수 있다.In this case, in the retraining step, the processor 140 may additionally perform the detection training, the discrimination training, and the understanding training the same number of times, but may additionally perform the confirmation training more times than the corresponding number.

한편, 일 실시 예에 따라, 확인 단계에서, 전자 장치(100)가 복수의 군에 해당하는 복수의 악기 중 하나의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다. Meanwhile, according to an embodiment, in the checking step, it is assumed that the electronic device 100 outputs a sound composed of a performance sound of one instrument among a plurality of instruments corresponding to a plurality of groups.

복수의 군은, 일 예로 소리 생성 원리에 따라 구분되어 건반 악기, 관악기, 타악기, 현악기 중 적어도 하나를 포함할 수 있으나, 이 밖에도 다양한 기준(ex. 전통 악기/현대 악기, 동양 악기/서양 악기)으로 구분된 군들을 포함할 수 있다.The plurality of groups may include, for example, at least one of a keyboard instrument, a wind instrument, a percussion instrument, and a string instrument by being classified according to a sound generation principle, but in addition to various criteria (ex. traditional instrument/modern instrument, oriental instrument/western instrument) may include groups separated by .

이때, 확인 단계에서, 전자 장치(100)는 복수의 군에 해당하는 복수의 악기 중 출력된 사운드(연주음)를 연주한 악기를 선택하도록 요청하는 질의를 디스플레이 하고, 질의에 대한 응답(사용자 입력)을 수신할 수 있다.In this case, in the confirmation step, the electronic device 100 displays a query requesting to select an instrument that played the output sound (played sound) from among a plurality of musical instruments corresponding to a plurality of groups, and responds to the query (user input) ) can be received.

여기서, 만약 수신된 사용자 입력이 오답인 경우(: 다른 악기를 선택), 프로세서(140)는 사용자 입력에 따라 선택된 악기가 출력된 사운드를 연주한 악기(: 정답)와 동일한 군에 포함되는지 식별할 수 있다.Here, if the received user input is an incorrect answer (: select another instrument), the processor 140 identifies whether the instrument selected according to the user input is included in the same group as the instrument (correct answer) that played the output sound. can

만약, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되는 경우, 재훈련 단계에서, 프로세서(140)는 확인 훈련 단계를 제1 횟수만큼 추가로 수행할 수 있다.If the selected instrument is included in the same group as the instrument that played the corresponding sound, in the retraining step, the processor 140 may additionally perform the confirmation training step a first number of times.

예를 들어, 확인 단계에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 동일한 군(현악기)에 포함되는 색소폰인 경우를 가정한다. 이 경우, 프로세서(140)는 재훈련 단계에서 확인 훈련을 3회 수행할 수 있다.For example, it is assumed that the performance sound output in the confirmation step is the performance sound of the clarinet, and the instrument selected by the user is the saxophone included in the same group (string instrument) as the clarinet. In this case, the processor 140 may perform confirmation training three times in the retraining step.

반면, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되지 않는 경우, 재훈련 단계에서, 프로세서(140)는 확인 훈련 단계를 제1 횟수보다 많은 제2 횟수만큼 추가로 수행할 수 있다.On the other hand, if the selected instrument is not included in the same group as the instrument that played the corresponding sound, in the retraining step, the processor 140 may additionally perform the confirmation training step a second number of times greater than the first number.

예를 들어, 확인 단계에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 다른 군에 속하는 피아노인 경우를 가정한다. 이 경우, 프로세서(140)는 재훈련 단계에서 확인 훈련을 3회보다 많은 6회 수행할 수 있다.For example, it is assumed that the performance sound output in the confirmation step is the performance sound of the clarinet, and the instrument selected by the user is a piano belonging to a group different from the clarinet. In this case, the processor 140 may perform the confirmation training 6 times more than 3 times in the retraining step.

이렇듯, 확인 훈련 단계에서 사용자가 선택한 악기가 정답이 아닌 경우, 본 실시 예에 따른 전자 장치(100)는 선택된 악기가 연주된 악기와 유사한지(ex. 동일한 군에 포함됨) 여부에 따라 사용자의 인지 능력을 다르게 측정하고 재훈련 과정을 다르게 수행할 수 있다. 그 결과, 개별 사용자(청능 훈련 대상자)를 위한 최적의 맞춤형 재훈련 과정이 자동으로 섬세하게 구축될 수 있다.As such, when the instrument selected by the user in the confirmation training step is not the correct answer, the electronic device 100 according to the present embodiment recognizes the user's recognition according to whether the selected instrument is similar to the played instrument (eg, included in the same group). You can measure your ability differently and perform your retraining process differently. As a result, the optimal customized retraining process for individual users (audience training subjects) can be automatically and delicately constructed.

한편, 일 실시 예에 따라, 이해 단계에서 전자 장치(100)가 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in the understanding step, the electronic device 100 outputs a sound composed of playing sounds of a plurality of musical instruments corresponding to the same group.

그리고, 이해 단계에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In the understanding stage, it is assumed that a query is provided to inquire about the number of musical instruments that have played the played note.

이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, 재훈련 단계의 이해 훈련 과정에서, 프로세서(140)는 복수의 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.At this time, if the user input in response to the above-mentioned query is the correct answer, in the understanding training process of the retraining step, the processor 140 outputs a sound composed of a sound composed of a plurality of musical instruments corresponding to a plurality of groups, and related You can provide a query.

반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, 재훈련 단계 내의 (추가) 이해 훈련 과정에서, 프로세서(130)는 여전히 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned question is an incorrect answer, in the (additional) understanding training process in the retraining phase, the processor 130 still outputs a sound composed of the playing sounds of a plurality of instruments corresponding to the same group and , and can provide related queries.

한편, 일 실시 예에 따라, 이해 단계에서 전자 장치(100)가 복수의 군(ex. 2개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in the understanding step, the electronic device 100 outputs sounds composed of playing sounds of a plurality of musical instruments corresponding to a plurality of groups (eg, two groups).

그리고, 이해 단계에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In the understanding stage, it is assumed that a query is provided to inquire about the number of musical instruments that have played the played note.

이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, 재훈련 단계의 (추가) 이해 훈련 과정에서, 프로세서(140)는 상술한 복수의 군(ex. 2개의 군)보다 더 많은 수의 복수의 군(ex. 3개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.At this time, if the user input in response to the above-mentioned query is the correct answer, in the (additional) understanding training process of the retraining step, the processor 140 may use a larger number than the above-described plurality of groups (eg, two groups). It is possible to output a sound composed of sound played by a plurality of musical instruments corresponding to a plurality of groups (eg, three groups) and provide a related query.

반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, 재훈련 단계의 (추가) 이해 훈련 과정에서, 프로세서(140)는 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned question is an incorrect answer, in the (additional) understanding training process of the retraining step, the processor 140 outputs a sound composed of the playing sounds of a plurality of instruments corresponding to the same group, You can provide related queries.

다양한 군에 해당하는 악기들이 함께 연주됨에 따라 이해 훈련의 난이도가 높아진다는 점에서, 상술한 실시 예에 따라 사용자의 인지 능력에 맞는 난이도의 재훈련이 수행될 수 있다.Since the difficulty of comprehension training increases as musical instruments corresponding to various groups are played together, retraining with a difficulty level suitable for the user's cognitive ability may be performed according to the above-described embodiment.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다. On the other hand, the computer instructions or computer program for performing the processing operation in the electronic device 100 according to various embodiments of the present disclosure described above is a non-transitory computer-readable medium. can be stored in When the computer instructions or computer program stored in such a non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation in the electronic device 100 according to the various embodiments described above.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of

100: 전자 장치 110: 스피커
120: 디스플레이 130: 마이크
100: electronic device 110: speaker
120: display 130: microphone

Claims (9)

전자 장치의 청능 훈련 방법에 있어서,
사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계;
상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계;
상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계;
상기 훈련 단계가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우, 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 상기 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교하는 단계; 및
상기 마지막으로 수행된 훈련 단계의 일치율이 상기 평균 일치율보다 낮은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는 단계;를 포함하고,
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 각각에 대해, 상승 및 하강 중 적어도 하나에 대한 피치의 변화 방향에 대한 일치 여부를 판단하는, 전자 장치의 청능 훈련 방법.
In the hearing training method of an electronic device,
selecting a difficulty level of training based on user information;
a training step of outputting a song corresponding to the selected difficulty level, displaying a UI (User Interface) guiding to sing along the output song, and receiving a user voice;
determining whether to additionally perform the training step based on a matching rate between the output audio signal of the song and the audio signal of the user's voice;
if the number of consecutively performed training steps is equal to or greater than a preset number, comparing the matching rate of the last training step among the continuously performed training steps with the average matching rate of the continuously performed training steps; and
When the matching rate of the last training step is lower than the average matching rate, determining that the training step is not additionally performed;
The step of determining whether to additionally perform the training step is,
For each of the output audio signal of the song and the audio signal of the user's voice, determining whether a pitch change direction with respect to at least one of rising and falling coincides with each other.
제1항에 있어서,
상기 사용자 정보는,
사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부 및 청능 훈련 이력 중 적어도 하나에 대한 정보를 포함하는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The user information is
A hearing ability training method for an electronic device, comprising information on at least one of a user's age, whether or not a cochlear implant has been implanted, when a cochlear implant is performed, whether a hearing aid is used, and an auditory training history.
제1항에 있어서,
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 상기 훈련 단계를 추가로 수행하는 것으로 결정하고,
상기 기설정된 일치율은,
상기 출력된 노래의 오디오 신호와 상기 출력된 노래를 따라 부른 정상인의 음성의 오디오 신호 간의 일치율인, 전자 장치의 청능 훈련 방법.
According to claim 1,
The step of determining whether to additionally perform the training step is,
If the matching rate is lower than a value obtained by subtracting a threshold from a preset matching rate, it is determined that the training step is additionally performed;
The preset matching rate is,
and a matching rate between the audio signal of the output song and the audio signal of a voice of a normal person sang along with the output song.
제1항에 있어서,
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 일치율이 상기 기설정된 일치율에서 임계치를 차감한 값보다 높거나 같은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The step of determining whether to additionally perform the training step is,
and determining not to additionally perform the training step when the matching rate is greater than or equal to a value obtained by subtracting a threshold from the preset matching rate.
삭제delete 제1항에 있어서,
상기 전자 장치의 청능 훈련 방법은,
주변 소음의 크기를 측정하는 단계;를 더 포함하고,
상기 난이도를 선택하는 단계는,
상기 사용자 정보 및 상기 주변 소음의 크기를 기반으로 상기 훈련의 난이도를 선택하는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The hearing ability training method of the electronic device,
Measuring the level of ambient noise; further comprising,
The step of selecting the difficulty level is
and selecting the difficulty level of the training based on the user information and the level of the ambient noise.
제1항에 있어서,
상기 전자 장치의 청능 훈련 방법은,
주변 소음의 피치(pitch)를 식별하는 단계를 더 포함하고,
상기 훈련 단계는,
상기 식별된 피치와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI를 디스플레이 하고, 사용자 음성을 입력 받는, 전자 장치의 청능 훈련 방법.
According to claim 1,
The hearing ability training method of the electronic device,
further comprising identifying a pitch of ambient noise;
The training phase is
Outputting a song corresponding to a pitch in which a difference between the identified pitch and a frequency is a predetermined number or more, displaying a UI guiding the user to sing along the output song, and receiving a user's voice.
삭제delete 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램에 있어서,
전자 장치의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 청능 훈련 방법을 수행하도록 하는, 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable medium,
A computer program stored in a computer-readable medium, which is executed by a processor of an electronic device to cause the electronic device to perform the auditory training method of claim 1 .
KR1020200151111A 2020-11-12 2020-11-12 Electronic apparatus for performing auditory training based on singing, method, and computer program KR102429108B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200151111A KR102429108B1 (en) 2020-11-12 2020-11-12 Electronic apparatus for performing auditory training based on singing, method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200151111A KR102429108B1 (en) 2020-11-12 2020-11-12 Electronic apparatus for performing auditory training based on singing, method, and computer program

Publications (2)

Publication Number Publication Date
KR20220064716A KR20220064716A (en) 2022-05-19
KR102429108B1 true KR102429108B1 (en) 2022-08-03

Family

ID=81801217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200151111A KR102429108B1 (en) 2020-11-12 2020-11-12 Electronic apparatus for performing auditory training based on singing, method, and computer program

Country Status (1)

Country Link
KR (1) KR102429108B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240125397A (en) 2023-02-10 2024-08-19 경운대학교 산학협력단 Auditory training data generation system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102683005B1 (en) * 2023-09-25 2024-07-09 주식회사 보이노시스 An AI based hearing loss diagnosis method using audio data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5563358A (en) * 1991-12-06 1996-10-08 Zimmerman; Thomas G. Music training apparatus
KR102024221B1 (en) * 2018-01-15 2019-09-23 한림대학교 산학협력단 Method and device for training auditory function
KR102098751B1 (en) * 2018-03-26 2020-04-20 (주)주스 Automated estimation method for music dictation and estimation system using the same
KR101984991B1 (en) 2018-10-15 2019-06-03 신수연 Device for training of listening ability based on user characteristics
KR102053580B1 (en) * 2019-05-24 2019-12-06 신수연 Auditoty training device for setting the training difficulty in response to user listening ability

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
공개특허공보 제10-2019-0086868호(2019.7.24. 공개) 1부.*
등록특허공보 제10-2053580호(2019.12.6. 공고) 1부.*
미국 특허공보 US5563358(1996.10.8.) 1부.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240125397A (en) 2023-02-10 2024-08-19 경운대학교 산학협력단 Auditory training data generation system

Also Published As

Publication number Publication date
KR20220064716A (en) 2022-05-19

Similar Documents

Publication Publication Date Title
Vandali et al. Training of cochlear implant users to improve pitch perception in the presence of competing place cues
KR102429108B1 (en) Electronic apparatus for performing auditory training based on singing, method, and computer program
US10235898B1 (en) Computer implemented method for providing feedback of harmonic content relating to music track
CN106383676B (en) Instant photochromic rendering system for sound and application thereof
CN110070847B (en) Musical tone evaluation method and related products
WO2018038235A1 (en) Auditory training device, auditory training method, and program
KR101907276B1 (en) System for practicing musical instrument and method for supporting the practice
KR102451956B1 (en) Electronic apparatus for performing auditory training with music, method, and computer program
CN111276113B (en) Method and device for generating key time data based on audio
KR102634345B1 (en) Apparatus for training and testing to cognitive function using music-based multi-task training, singing training, and instrument discrimination training
KR102564399B1 (en) Apparatus for improving auditory function that changes training difficulty according to training performance accuracy
JP7437742B2 (en) Sound output device and program
US20230145714A1 (en) Apparatus and method for a phonation system
US20240233911A9 (en) Method and system for conversational cognitive stimulation
KR20230088533A (en) Method and program of controlling the music perception test and rehabilitation system for hearing impairment
KR20190042276A (en) Method and Electronic Apparatus for Practicing of Instruments
CN117222364A (en) Method and apparatus for hearing training
CN115830952A (en) Pronunciation and limb training method and system assisted by music
WO2022026859A1 (en) Systems and methods to improve a user's response to a traumatic event
KR20240003092A (en) Electronic apparatus for providing musical hearing training, control method, and computer program
JP2020013122A (en) Language learning device and language learning device
KR20240003090A (en) Electronic apparatus for providing ear training, ear training providing method, and computer program
WO2021068000A1 (en) Breathing guidance based on real-time audio analysis
CN114708851A (en) Audio recognition method and device, computer equipment and computer-readable storage medium
KR20200122577A (en) Sound Perception System Using Frequency Signals

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant