KR102429108B1 - Electronic apparatus for performing auditory training based on singing, method, and computer program - Google Patents
Electronic apparatus for performing auditory training based on singing, method, and computer program Download PDFInfo
- Publication number
- KR102429108B1 KR102429108B1 KR1020200151111A KR20200151111A KR102429108B1 KR 102429108 B1 KR102429108 B1 KR 102429108B1 KR 1020200151111 A KR1020200151111 A KR 1020200151111A KR 20200151111 A KR20200151111 A KR 20200151111A KR 102429108 B1 KR102429108 B1 KR 102429108B1
- Authority
- KR
- South Korea
- Prior art keywords
- training
- user
- song
- electronic device
- matching rate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/009—Teaching or communicating with deaf persons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
- G09B7/04—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
전자 장치의 청능 훈련 방법이 개시된다. 본 청능 훈련 방법은, 사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계, 선택된 난이도에 대응되는 노래를 출력하고, 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계, 출력된 노래의 오디오 신호와 사용자 음성의 오디오 신호 간의 일치율을 기반으로 훈련 단계를 추가로 수행할지 여부를 결정하는 단계를 포함한다.Disclosed is a method for training an hearing ability of an electronic device. The present auditory training method includes the steps of selecting the difficulty level of training based on user information, outputting a song corresponding to the selected difficulty level, displaying a UI (User Interface) guiding the user to sing along the output song, and receiving the user's voice. and determining whether to additionally perform the training step based on a matching rate between the input received, the training step, and the output audio signal of the song and the audio signal of the user's voice.
Description
본 개시는 노래를 따라 부르게 함으로써 청능 훈련을 수행하는 전자 장치 및 청능 훈련 방법에 관한 것이다.The present disclosure relates to an electronic device for performing auditory training by singing along to a song, and to an auditory training method.
인공 와우 이식을 받았거나 보청기를 착용한 청각장애인들에 대한 청능 훈련의 효과가 입증되면서 다양한 청능 훈련이 개발 및 수행되고 있다.Various hearing training has been developed and performed as the effectiveness of hearing training for hearing impaired people who have received a cochlear implant or wear a hearing aid has been proven.
특히, 발화된 언어를 이해하는 데에 주요한 역할을 하는 뇌의 부분이 음악을 처리하는 데에도 주요한 역할을 수행한다는 점이 알려지면서, 흘러나오는 노래를 따라 부르게 함으로써 청능 훈련을 하는 방식이 고안되었다.In particular, as it is known that the part of the brain, which plays a major role in understanding spoken language, also plays a major role in processing music, a method of performing auditory training by having them sing along to a flowing song was devised.
다만, 종래의 청능 훈련은, 훈련 별로 전문가의 직접 참여 하에 이루어졌다는 점에서 불편함이 있었다.However, the conventional hearing training was inconvenient in that it was performed under the direct participation of experts for each training.
본 개시는 노래 부르기 훈련을 위한 User Interface를 제공하는 전자 장치 및 청능 훈련 방법을 제공한다.The present disclosure provides an electronic device that provides a user interface for singing training and an auditory training method.
본 개시는 노래를 따라 부르는 사용자 정보에 따라 사용자의 청능 훈련의 난이도 및/또는 횟수를 설정하는 전자 장치 및 청능 훈련 방법을 제공한다.The present disclosure provides an electronic device and an auditory training method for setting the difficulty and/or number of hearing training for a user according to user information about singing along to a song.
본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present disclosure are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Moreover, it will be readily apparent that the objects and advantages of the present disclosure may be realized by the means and combinations thereof indicated in the claims.
본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법은, 사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계, 상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계, 상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계를 포함한다.The auditory perception training method of an electronic device according to an embodiment of the present disclosure includes selecting a difficulty level of training based on user information, outputting a song corresponding to the selected difficulty level, and inducing the user to sing along with the output song A training step of displaying a user interface (UI) and receiving a user voice, the step of determining whether to additionally perform the training step based on a matching rate between the outputted song audio signal and the user voice audio signal includes
이때, 상기 사용자 정보는, 사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부 및 청능 훈련 이력 중 적어도 하나에 대한 정보를 포함할 수 있다.In this case, the user information may include information on at least one of the user's age, whether or not the cochlear implant is implanted, the timing of the cochlear implantation, whether the hearing aid is used, and the hearing ability training history.
그리고, 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는, 상기 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 상기 훈련 단계를 추가로 수행하는 것으로 결정할 수 있다. 여기서, 상기 기설정된 일치율은, 상기 출력된 노래의 오디오 신호와 상기 출력된 노래를 따라 부른 정상인의 음성의 오디오 신호 간의 일치율일 수 있다.In addition, the determining whether to additionally perform the training step may include performing the training step additionally when the matching rate is lower than a value obtained by subtracting a threshold value from a preset matching rate. Here, the preset matching rate may be a matching rate between the audio signal of the output song and the audio signal of a voice of a normal person sang along with the output song.
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는, 상기 일치율이 상기 기설정된 일치율에서 상기 임계치를 차감한 값보다 높거나 같은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정할 수 있다.The determining whether to additionally perform the training step may include determining not to additionally perform the training step when the matching rate is greater than or equal to a value obtained by subtracting the threshold from the preset matching rate.
한편, 상기 전자 장치의 청능 훈련 방법은, 상기 훈련 단계가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우, 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 상기 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교하는 단계, 상기 마지막으로 수행된 훈련 단계의 일치율이 상기 평균 일치율보다 낮은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는 단계를 더 포함할 수 있다.On the other hand, in the hearing ability training method of the electronic device, when the number of consecutively performed training steps is equal to or greater than a predetermined number of times, the concordance rate of the last training step among the continuously performed training steps is calculated as the successively performed training. The method may further include comparing with an average matching rate of the steps, and determining not to perform the training step further when the matching rate of the last training step is lower than the average matching rate.
또한, 상기 전자 장치의 청능 훈련 방법은, 주변 소음의 크기를 측정하는 단계를 더 포함할 수도 있다. 이 경우, 상기 난이도를 선택하는 단계는, 상기 사용자 정보 및 상기 주변 소음의 크기를 기반으로 상기 훈련의 난이도를 선택할 수 있다.Also, the method for training the hearing ability of the electronic device may further include measuring the level of ambient noise. In this case, the selecting of the difficulty may include selecting the difficulty of the training based on the user information and the level of the ambient noise.
또한, 상기 전자 장치의 청능 훈련 방법은, 주변 소음의 피치(pitch)를 식별하는 단계를 더 포함할 수도 있다. 이 경우, 상기 훈련 단계는, 상기 식별된 피치와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI를 디스플레이 하고, 사용자 음성을 입력 받을 수 있다.Also, the method for training the hearing ability of the electronic device may further include identifying a pitch of ambient noise. In this case, the training step may output a song corresponding to a pitch in which the difference between the identified pitch and the frequency is a predetermined number or more, display a UI inducing the user to sing along the output song, and receive a user's voice. .
본 개시의 일 실시 예에 따른 전자 장치는, 스피커, 디스플레이, 마이크, 프로세서를 포함한다. 상기 프로세서는, 사용자 정보를 기반으로 훈련의 난이도를 선택하고, 상기 스피커를 통해 상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 디스플레이를 통해 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 상기 마이크를 통해 사용자 음성을 입력 받는, 훈련 단계를 수행하고, 상기 사용자 음성의 오디오 신호와 상기 출력된 노래의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정한다.An electronic device according to an embodiment of the present disclosure includes a speaker, a display, a microphone, and a processor. The processor selects a difficulty level of training based on user information, outputs a song corresponding to the selected difficulty level through the speaker, and induces a user to sing along the output song through the display (User Interface) displays, performs a training step of receiving a user's voice through the microphone, and determines whether to further perform the training step based on a matching rate between the audio signal of the user's voice and the audio signal of the output song do.
본 개시에 따른 전자 장치 및 청능 훈련 방법은, 사용자 정보에 맞는 난이도의 노래 부르기 훈련을 제공하고, 사용자의 훈련 성과에 따라 적합한 반복 훈련을 제공한다는 효과가 있다.The electronic device and hearing ability training method according to the present disclosure are effective in providing singing training with a difficulty level suitable for user information and providing repeated training suitable according to the user's training performance.
본 개시의 일부 실시 예에 따른 전자 장치 및 청능 훈련 방법은, 훈련의 반복에 따른 성과를 객관적으로 실시간 평가하여 최적의 반복 횟수를 결정한다는 효과가 있다.The electronic device and the auditory training method according to some embodiments of the present disclosure have an effect of determining the optimal number of repetitions by objectively real-time evaluation of performance according to repetition of training.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 훈련 과정을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 사용자 음성과 목표 음성(노래)의 일치도를 비교하는 동작을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 추가 훈련 수행 여부에 따라 훈련을 반복하는 동작을 설명하기 위한 알고리즘,
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 훈련 횟수에 따라 훈련 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘, 그리고
도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure;
3 is a view for explaining a training process of an electronic device according to an embodiment of the present disclosure;
4 is a diagram for explaining an operation of comparing a degree of matching between a user's voice and a target voice (song) by an electronic device according to an embodiment of the present disclosure;
5 is an algorithm for explaining an operation in which an electronic device repeats training depending on whether additional training is performed according to an embodiment of the present disclosure;
6 is an algorithm for explaining an operation in which an electronic device determines whether training is terminated according to the number of training sessions, according to an embodiment of the present disclosure;
7 is a block diagram illustrating a configuration and operation of an electronic device according to various embodiments of the present disclosure.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meaning defined in the present specification, and if there is no specific term definition, it may be interpreted based on the general content of the present specification and common technical knowledge in the art.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number, such as "first" and "second", may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. For example, the components combined with such an ordinal number should not be limited in the order of use or arrangement by the number. If necessary, each ordinal number may be used interchangeably.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented as individual specific hardware, and thus at least one processor. can be implemented as
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included without excluding other components unless otherwise stated.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 프로세서(140)를 포함할 수 있다.Referring to FIG. 1 , the
전자 장치(100)는 스마트폰, 태블릿 PC, 노트북 PC, 데스크탑 PC, 키오스크, TV 등 다양한 기기로 구현될 수 있다. 다만, 도 1과 달리, 전자 장치(100)는 서버로 구현되거나 또는 셋탑박스 등의 제어 장치로 구현될 수도 있다. 이 경우, 전자 장치(100)는 스피커, 디스플레이, 마이크 중 적어도 하나를 포함하는 외부 장치와 연결될 수 있다.The
스피커(110)는 다양한 정보를 청각적으로 제공하기 위한 구성으로, 전기적인 오디오 신호를 변환하여 소리를 출력하기 위한 종래의 다양한 구성을 포함할 수 있다.The
디스플레이(120)는 다양한 정보를 시각적으로 제공하기 위한 구성이다.The
디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The
디스플레이(120)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.The
마이크(130)는 입력된 소리를 전기적인 오디오 신호로 변환하기 위한 적어도 하나의 회로를 포함할 수 있다.The
프로세서(140)는 전자 장치(100)에 포함된 구성들과 연결되어 전자 장치(100)를 전반적으로 제어하기 위한 구성이다.The
프로세서(140)는 전자 장치(100)의 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써 후술할 다양한 실시 예들에 따른 동작을 수행할 수 있다.The
프로세서(140)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다. 또한, 프로세서(140)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.The
이하 도면들을 통해, 사용자에게 청능 훈련(노래 따라 부르기)을 제공하는 전자 장치(100)의 동작들을 설명한다.Hereinafter, operations of the
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 청능 훈련 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for training an auditory ability of an electronic device according to an embodiment of the present disclosure.
도 2를 참조하면, 프로세서(140)는 사용자 정보를 기반으로 청능 훈련의 난이도를 선택할 수 있다(S210).Referring to FIG. 2 , the
사용자 정보는, 사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부, 청능 훈련 이력 등 사용자에 대한 다양한 정보를 포함할 수 있다. 또한, 사용자 정보는, 사용자에 대한 청력 검사 결과에 따라 획득된 사용자를 위한 최적의 소리 크기(Most Comfortable Loudness)에 대한 정보를 더 포함할 수도 있다.The user information may include various information about the user, such as the age of the user, whether or not the cochlear implant has been implanted, the timing of the cochlear implantation, whether the hearing aid is used, and the hearing ability training history. In addition, the user information may further include information on an optimal loudness for the user (Most Comfortable Loudness) obtained according to a result of a hearing test for the user.
여기서, 사용자는 청능 훈련의 대상자이며, 와우 이식 수술을 받았거나 또는 보청기를 착용한 청각장애인에 해당할 수 있으나 이에 한정되지 않는다.Here, the user is a subject of hearing training, and may correspond to a hearing impaired person who has undergone a cochlear implant surgery or wears a hearing aid, but is not limited thereto.
난이도는, 복수의 단계(ex. 1 내지 5 단계)로 기설정될 수 있으며, 청능 훈련의 대상인 노래(멜로디 및 리듬)는 난이도 단계 별로 기설정될 수도 있다.The difficulty level may be preset to a plurality of stages (eg, stages 1 to 5), and songs (melody and rhythm) that are the target of auditory training may be preset for each difficulty stage.
이때, 난이도에 따라 노래의 멜로디 또는 리듬이 변경될 수도 있다. 예를 들어, 난이도가 높을수록 노래의 리듬이 빨라지거나 멜로디가 복잡해질 수 있다.In this case, the melody or rhythm of the song may be changed according to the difficulty. For example, the higher the difficulty, the faster the rhythm of the song or the more complex the melody.
일 실시 예로, 프로세서(140)는 사용자의 연령이 어릴수록 더 낮은 난이도를 선택할 수 있다.In an embodiment, the
또한, 일 실시 예로, 프로세서(140)는 사용자가 와우 이식을 받은 시기(또는 보청기를 사용하기 시작한 시기)와 현 시점 간의 기간 차이가 짧을수록 더 낮은 난이도를 선택할 수 있다.Also, according to an embodiment, the
또한, 일 실시 예로, 프로세서(140)는 (과거의) 청능 훈련 이력을 기반으로 청능 훈련(노래 부르기)에 이용될 노래의 난이도를 선택할 수 있다.Also, according to an embodiment, the
청능 훈련 이력은, 사용자의 청능 훈련(노래 부르기) 횟수, 기간, 빈도 등에 대한 정보를 포함할 수 있다. 또한, 청능 훈련 이력은, 과거에 사용자가 수행한 청능 훈련의 난이도(: 노래의 난이도)에 대한 정보를 포함할 수 있다.The auditory training history may include information on the number, period, frequency, etc. of the user's auditory training (singing). In addition, the auditory training history may include information on the difficulty of the auditory training performed by the user in the past (the difficulty of the song).
청능 훈련 이력은, 전자 장치(100)를 통해 수행된 청능 훈련의 이력 외에, 적어도 하나의 외부 장치(100)를 통해 수행되거나 또는 전문가의 도움을 통해 수행된 청능 훈련의 이력을 추가로 포함할 수도 있다.Auditory training history, in addition to the history of auditory training performed through the
복수의 사용자의 청능 수행 이력이 전자 장치(100)에 저장되어 있는 경우, 프로세서(140)는 복수의 사용자 중 현재 로그인 등을 수행한 사용자의 청능 훈련 이력을 통해 노래의 난이도를 선택할 수도 있다.When the auditory performance histories of a plurality of users are stored in the
구체적인 예로, 프로세서(140)는 청능 훈련을 수행한 횟수에 따라 청능 훈련의 난이도를 선택할 수 있다.As a specific example, the
여기서, 프로세서(140)는 청능 훈련을 수행한 횟수 또는 빈도(ex. 최근 일정 기간 동안의 청능 훈련 횟수)가 적은 사용자일수록 청능 훈련의 난이도를 더 낮게 설정할 수 있다.Here, the
또한, 프로세서(140)는 사용자가 과거에 수행한 청능 훈련의 난이도를 이용하여 현재 수행될 청능 훈련의 난이도를 선택할 수도 있다.In addition, the
일 예로, 프로세서(140)는 과거 사용자가 수행한 청능 훈련 중 가장 높은 난이도(: 노래의 난이도)의 청능 훈련을 식별하고, 해당 난이도보다 한 단계 높은 난이도를 선택할 수 있다.For example, the
다른 예로, 프로세서(140)는 과거 사용자가 수행한 청능 훈련 중 난이도가 가장 높으면서 성공한 청능 훈련의 난이도를 식별하고, 해당 난이도보다 한 단계 높은 난이도를 선택할 수 있다.As another example, the
여기서, 성공한 청능 훈련이란, 사용자가 청능 훈련에서 제공된 노래를 성공적으로 따라 부른 경우를 의미할 수 있다.Here, the successful auditory training may mean a case in which the user successfully sang along to a song provided in the auditory training.
일 예로, 노래에 해당하는 오디오 신호와 노래를 따라 부른 사용자 음성(오디오 신호) 간의 일치율이 일정 비율 이상인 경우, 청능 훈련이 성공한 것으로 판단될 수 있다. 다만, 이에 한정되지 않는다.For example, when the agreement rate between the audio signal corresponding to the song and the user's voice (audio signal) sung along with the song is equal to or greater than a certain ratio, it may be determined that the auditory training has been successful. However, the present invention is not limited thereto.
청능 훈련의 성공 여부는, 각 청능 훈련이 수행될 때마다 전자 장치(100)를 통해 판단될 수 있으며, 청능 훈련의 성공 여부를 판단하는 구체적인 실시 예는 S230 단계에서 후술한다.Whether or not the auditory training is successful may be determined through the
한편, 청능 훈련 이력은, 노래 부르기에 해당하는 청능 훈련 외에, 악기의 연주음 듣기와 같은 다른 방식의 청능 훈련에 대한 이력을 더 포함할 수도 있다.Meanwhile, the auditory training history may further include, in addition to auditory training corresponding to singing, a history of auditory training in other methods such as listening to a performance sound of a musical instrument.
악기의 연주음 듣기로 구성된 청능 훈련은, 일 예로, 악기의 연주음에 대한 탐지, 변별, 확인, 이해 단계로 구성된 청능 훈련에 해당할 수 있다. 여기서, 탐지는 악기의 연주음이 들리는지 여부를 확인하는 훈련이고, 변별은 연주음들의 멜로디 및/또는 리듬의 동일성/차이점을 구분하는 훈련이며, 확인은 연주음의 구체적인 특성(악기, 리듬의 속도, 멜로디 등)에 대한 이해 정도를 확인하기 위한 훈련이며, 이해는 연주음에 대한 보다 심화된 정보(ex. 화성)를 인지하고 있는지 확인하기 위한 훈련일 수 있다.The auditory training consisting of listening to the playing sound of the instrument may correspond to, for example, auditory training consisting of the steps of detecting, discriminating, confirming, and understanding the playing sound of the musical instrument. Here, detection is training to check whether or not the playing sound of the instrument is heard, discrimination is training to distinguish the sameness/difference in melody and/or rhythm of the played sounds, and checking is the specific characteristic of the played sound (instrument, rhythm of This is a training to check the level of understanding of speed, melody, etc.), and understanding may be training to check whether more in-depth information (ex. harmony) is recognized about the played sound.
구체적인 예로, 탐지 단계는, 일 악기의 연주음으로 구성된 사운드를 출력하고, 연주음이 들리는지 여부를 문의하는 질의를 디스플레이 하고, 질의에 응답하는 제사용자 입력을 수신할 수 있다. 변별 단계는, 각각 일 악기의 연주음으로 구성된 사운드들을 순차적으로 출력하고, 사운드들의 리듬 및 멜로디 중 적어도 하나가 서로 다르게 들리는지 여부를 문의하는 질의를 디스플레이 하고, 질의에 응답하는 사용자 입력을 수신할 수 있다. 확인 단계는, 일 악기의 연주음으로 구성된 사운드를 출력하고, 복수의 악기 중 해당 사운드에 대응되는 악기를 선택하도록 요청하는 질의를 디스플레이 하고, 질의에 응답하여 복수의 악기 중 적어도 하나를 선택하는 사용자 입력을 수신할 수 있다. 이해 단계는, 복수의 악기의 연주 소리를 포함하는 하나의 연주음에 해당하는 사운드를 출력하고, 해당 사운드를 구성하는 (연주한) 악기의 수를 묻는 질의를 디스플레이 하고, 질의에 응답하는 사용자 입력을 수신할 수 있다.As a specific example, the detection step may include outputting a sound composed of a performance sound of a musical instrument, displaying a query asking whether a performance sound is heard, and receiving a user input in response to the query. In the discriminating step, sequentially outputting sounds composed of a performance sound of each instrument, displaying a query asking whether at least one of a rhythm and a melody of the sounds sounds different from each other, and receiving a user input in response to the query can In the confirmation step, the user outputs a sound composed of a performance sound of one instrument, displays a query requesting to select an instrument corresponding to the corresponding sound from among a plurality of instruments, and selects at least one of the plurality of instruments in response to the query input can be received. In the understanding step, outputting a sound corresponding to one performance sound including performance sounds of a plurality of musical instruments, displaying a query asking for the number of (played) instruments constituting the sound, and a user input responding to the query can receive
이때, 전자 장치(100)에 저장된 청능 훈련 이력에는, 상술한 탐지/변별/확인/이해 단계에서 각 단계의 질의에 응답하는 사용자 입력의 정답 여부에 대한 정보, 정답 여부에 따라 판별된 사용자의 청각 인지 능력에 대한 정보가 포함될 수 있다.At this time, the hearing ability training history stored in the
이 경우, 프로세서(140)는 상술한 다른 청능 훈련(악기의 연주음 듣기)을 통해 획득된 사용자의 청각 인지 능력에 따라, 청능 훈련(노래 부르기)의 난이도를 선택할 수 있다. In this case, the
즉, 프로세서(140)는 사용자의 청각 인지 능력에 매칭되는 난이도의 청능 훈련(노래 부르기)을 수행할 수 있으며, 사용자의 청각 인지 능력이 높을수록 청능 훈련(노래 부르기)의 난이도를 높일 수 있다.That is, the
한편, 프로세서(140)는 상술한 사용자 정보 외에 주변 소음의 크기를 추가로 고려하여 청능 훈련의 난이도를 선택할 수도 있다.On the other hand, the
이 경우, 프로세서(140)는 마이크(130)를 통해 주변 소음의 크기를 측정할 수 있으며, 측정된 소음의 크기가 클수록 더 낮은 난이도를 선택할 수 있다.In this case, the
구체적인 예로, 사용자 정보에 따라 난이도가 3단계로 선택된 상태에서 주변 소음의 크기가 임계치 이상인 것으로 식별되면, 프로세서(140)는 난이도를 한 단계 줄여 2단계의 난이도를 선택할 수 있다.As a specific example, if it is identified that the level of ambient noise is greater than or equal to the threshold while the level of difficulty is selected as three levels according to user information, the
상술한 다양한 실시 예들에 따라 난이도가 선택되면, 프로세서(140)는 해당 난이도의 청능 훈련을 수행할 수 있다(S220).When the difficulty level is selected according to the above-described various embodiments, the
구체적으로, 프로세서(140)는 선택된 난이도에 대응되는 노래를 스피커(110)를 통해 출력하고, 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이(120) 상에 디스플레이 하고, 마이크(130)를 통해 사용자 음성을 입력 받을 수 있다.Specifically, the
이때, 프로세서(140)는 사용자의 청력 검사 결과에 따라 결정된 최적의 소리 크기(Most Comfortable Loudness)로 노래를 출력할 수도 있다.In this case, the
또한, 프로세서(140)는 주변 소음의 피치에 따라 선택된 노래를 출력할 수 있다.In addition, the
구체적으로, 프로세서(140)는 마이크(130)를 통해 수신된 주변 소음의 피치(진동수)를 식별할 수 있다. 이때, 프로세서(140)는 주변 소음을 구성하는 오디오 신호 중 비중이 가장 높은 진동수를 이용하여 주변 소음의 피치 또는 주변 소음의 피치 범위를 식별할 수 있다.Specifically, the
그리고, 프로세서(140)는 식별된 주변 소음의 피치(또는 피치 범위)와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력할 수 있다.In addition, the
구체적으로, 프로세서(140)는 주변 소음의 주된 피치(ex. 비중이 가장 높은 진동수)와 진동수 차이가 일정 수 이상인 피치를 주된 피치로 하는 노래를 출력할 수 있다.Specifically, the
이 경우, 주변 소음과 노래가 명확히 구분될 가능성이 높아지므로, 훈련에 미치는 주변 소음의 영향이 비교적 감소할 수 있다.In this case, since ambient noise and singing are more likely to be clearly distinguished, the effect of ambient noise on training can be relatively reduced.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 훈련 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a training process of an electronic device according to an embodiment of the present disclosure.
도 3을 참조하면, 전자 장치(100)는 노래(310)를 출력하는 한편, 노래(310)를 따라 부르도록 유도하는 UI(320)를 디스플레이 할 수 있다.Referring to FIG. 3 , the
여기서, UI(320)는 출력되는 노래(310)의 악보(325) 등 가이드 정보를 포함할 수 있다.Here, the
구체적인 예로, 도 3을 참조하면, 전자 장치(100)는 현재 따라 부르기가 진행되고(출력되고) 있는 노래의 진행 부분을 실시간으로 알려주기 위해 UI(320)의 악보(325) 내 가사에 강조 표시를 하거나, 피치(pitch)의 높낮이 변화를 직관적으로 알려주기 위한 화살표를 악보(325) 내에 표시할 수 있다.As a specific example, referring to FIG. 3 , the
도 3을 참조하면, UI(320)는 현재 출력되고 있는 노래(310)의 재생을 일시정지하기 위한 '일시정지' 항목, 현재 출력되고 있는 노래(310)의 재생(따라 부르기)을 처음부터 다시 시작하기 위한 '처음부터' 항목 등을 포함할 수 있다. '일시정지' 항목이 사용자의 터치 등을 통해 선택되는 경우, '일시정지' 항목은 '재생' 항목으로 변경될 수 있다.Referring to FIG. 3 , the
한편, 비록 도 3은 노래(310)가 출력됨과 동시에 노래를 따라 부르도록 유도하는 UI(320)가 디스플레이 되는 상황만을 도시하였으나, 노래의 출력이 완료된(노래가 끝남) 이후에 노래를 따라 부르도록 유도하는 UI가 별도로 제공되는 것도 물론 가능하다.On the other hand, although FIG. 3 shows only a situation in which the
도 3을 참조하면, UI(320)에 따라 노래를 따라 부르는 사용자 음성(330)이 마이크(130)를 통해 입력될 수 있다.Referring to FIG. 3 , a
한편, 도 3과 같이 전자 장치(100)가 노래를 출력함과 동시에 사용자 음성이 입력되는 경우, 프로세서(140)는 마이크를 통해 수신된 오디오 신호 중 사용자 음성에 해당하는 오디오 신호만을 추출할 수 있다.Meanwhile, as shown in FIG. 3 , when the
구체적으로, 프로세서(140)는 마이크(130)를 통해 수신된 오디오 신호 중 출력된 노래에 해당하는 오디오 신호와 매칭되는 부분을 제거하여 사용자 음성에 해당하는 오디오 신호만을 추출할 수 있다.Specifically, the
또는, 프로세서(140)는 사용자의 목소리만을 인식하도록 훈련된 인공지능 모델을 이용할 수도 있다.Alternatively, the
여기서, 인공지능 모델은, 오디오 신호가 입력되면, 특정한 사용자의 목소리에 해당하는 오디오 신호만을 추출하도록 훈련될 수 있다. 구체적으로, 인공지능 모델은, 해당 사용자의 다양한 발화/노래에 해당하는 오디오 신호를 훈련 데이터로 하여 훈련될 수 있다.Here, when an audio signal is input, the artificial intelligence model may be trained to extract only an audio signal corresponding to a specific user's voice. Specifically, the artificial intelligence model may be trained using audio signals corresponding to various utterances/songs of the corresponding user as training data.
이 경우, 프로세서(140)는 마이크(130)를 통해 수신된 오디오 신호를 인공지능 모델에 입력하여, 사용자 음성에 해당하는 오디오 신호만을 획득할 수 있다.In this case, the
한편, 사용자 음성에 해당하는 오디오 신호만을 추출하기 위해, 프로세서(140)는 종래의 모듈 또는 인공지능 모델을 이용하여 마이크(130)를 통해 수신된 오디오 신호의 노이즈를 제거할 수도 있다.Meanwhile, in order to extract only the audio signal corresponding to the user's voice, the
사용자 음성에 해당하는 오디오 신호가 추출되면, 프로세서(140)는 사용자 음성을 기반으로 훈련(S220)을 추가로 수행할 지 여부를 결정할 수 있다(S230).When the audio signal corresponding to the user's voice is extracted, the
관련하여, 도 4는 본 개시의 일 실시 예에 따른 전자 장치가 사용자 음성과 목표 음성(노래)의 일치도를 비교하는 동작을 설명하기 위한 도면이다.In relation to this, FIG. 4 is a diagram for describing an operation in which an electronic device compares a degree of matching between a user's voice and a target voice (song) according to an embodiment of the present disclosure.
도 4를 참조하면, 스피커(110)를 통해 출력된 노래의 오디오 신호(420)와 사용자 음성의 오디오 신호(410) 간의 일치율을 기반으로, 프로세서(140)는 훈련 단계(S220)를 추가로 수행할지 여부를 결정할 수 있다.Referring to FIG. 4 , based on the matching rate between the
구체적으로, 프로세서(140)는 일치율에 따라 훈련 단계(S220)의 노래 부르기가 성공했는지 여부를 판단할 수 있다. 여기서, 프로세서(140)는 훈련 단계(S220)의 노래 부르기가 성공한 것으로 판단된 경우 추가 훈련을 추가로 수행하지 않는 것으로 결정하고, 훈련 단계(S220)의 노래 부르기가 성공하지 않은 것으로 판단된 경우 추가 훈련을 추가로 수행하는 것으로 결정할 수 있다.Specifically, the
일치율은, 오디오 신호의 시간 별 진폭, 진동수, 맵시 등의 요소들 중 적어도 하나의 일치율에 해당할 수 있다.The coincidence rate may correspond to the coincidence rate of at least one of factors such as amplitude, frequency, and fashion for each time of the audio signal.
이때, 프로세서(140)는 오디오 신호 간의 진폭, 진동수 등을 비교하여 일치율을 출력하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수 있다. 구체적으로, 프로세서(140)는 사용자 음성의 오디오 신호 및 출력된 노래의 오디오 신호를 인공지능 모델에 입력하여, 일치율을 식별할 수 있다.In this case, the
또는, 일치율은, 오디오 신호가 나타내는 소리의 멜로디, 박자 등의 요소들의 일치율에 해당할 수 있다. 여기서, 멜로디는 피치에 해당하므로 진동수를 통해 식별될 수 있고, 박자는 진폭 등의 급격한 변화가 감지되는 시점들을 통해 식별될 수 있다.Alternatively, the coincidence rate may correspond to the coincidence rate of elements such as melody and time signature of a sound represented by the audio signal. Here, since the melody corresponds to the pitch, it can be identified through the frequency, and the beat can be identified through the points in time when a sudden change in amplitude, etc. is sensed.
한편, 일 예로, 일치율은, 피치의 변화 방향(상승 또는 하강)에 대한 일치 여부를 의미할 수도 있다.Meanwhile, as an example, the coincidence rate may mean whether the pitch coincides with the change direction (rising or falling) of the pitch.
구체적으로, 출력되는 노래의 피치(계이름)가 동일한 옥타브 내의 “솔-미-미-파-레-레”인 경우, 프로세서(140)는 출력되는 노래의 피치의 변화 방향을 “하강-유지-상승-하강-유지”로 식별할 수 있다.Specifically, when the pitch of the output song is “sol-mi-mi-pa-re-re” within the same octave, the
여기서, 만약 노래를 따라 부르는 사용자 음성의 피치가 동일한 옥타브 내의 “솔-미(샵)-미(샵)-파-도-도”인 경우, 프로세서(140)는 사용자 음성의 피치의 변화 방향을 “하강-유지-상승-하강-유지”로 식별할 수 있다.Here, if the pitch of the user's voice singing along with the song is "sol-mi (sharp)-mi (sharp)-pa-do-do" within the same octave, the
이 경우, 비록 피치의 절대음은 다르지만, 프로세서(140)는 피치의 변화 방향이 서로 일치하는 것으로 식별할 수 있다.In this case, although the absolute pitch of the pitch is different, the
일반적으로, 청각 장애인이 아니더라도 노래의 절대음을 명확히 맞추지 못하는 경우가 많기 때문에, 상술한 실시 예와 같이 피치의 변화 방향을 통해 일치율을 식별함으로써, 노래를 성공적으로 따라 불렀는지 여부를 판단하는 것도 가능하다.In general, since there are many cases where even people who are not deaf cannot clearly match the absolute tone of a song, it is also possible to determine whether or not the song has been sung successfully by identifying the coincidence rate through the direction of pitch change as in the above-described embodiment. do.
한편, 일 실시 예에 따르면, 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 프로세서(140)는 훈련(S220)이 성공하지 못한 것으로 식별하고, 훈련을 추가로 수행하는 것으로 결정할 수 있다.Meanwhile, according to an embodiment, when the matching rate is lower than a value obtained by subtracting the threshold from the preset matching rate, the
반면, 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 높거나 같은 경우, 프로세서(140)는 훈련(S220)이 성공한 것으로 식별하고, 훈련을 추가로 수행하지 않는 것으로 결정할 수 있다.On the other hand, when the matching rate is higher than or equal to the value obtained by subtracting the threshold from the preset matching rate, the
여기서, 기설정된 일치율은, 출력된 노래와 출력된 노래를 따라 부른 정상인의 음성 간의 일치율에 해당할 수 있다.Here, the preset matching rate may correspond to a matching rate between the output song and the voice of a normal person singing along with the output song.
정상인은, 청각 장애를 겪지 않고, 인공 와우 이식을 받지 않았으며, 보청기를 착용하지 않은 사람일 수 있다. 또한, 정상인은, 사용자와의 나이 차이가 일정 나이 미만인 사람일 수 있다.A normal person may be a person who has not suffered a hearing impairment, has not received a cochlear implant, and does not wear a hearing aid. Also, the normal person may be a person whose age difference with the user is less than a certain age.
구체적으로, 기설정된 일치율은, 훈련(S220) 단계에서 대상이 된 노래와 동일한 노래를 (듣고) 따라 부른 적어도 한 명의 정상인의 음성의 오디오 신호와 해당 노래의 오디오 신호 간의 일치율에 해당할 수 있다.Specifically, the preset matching rate may correspond to a matching rate between the audio signal of the voice of at least one normal person who sang along (listening to) the same song as the target song in the training (S220) step and the audio signal of the corresponding song.
이때, 기설정된 일치율은, 정상인 각각의 음성으로부터 획득된 일치율의 평균 값에 해당할 수 있으나, 이에 한정되지 않는다.In this case, the preset coincidence rate may correspond to an average value of the coincidence rates obtained from each normal voice, but is not limited thereto.
한편, 도 5는 본 개시의 일 실시 예에 따른 전자 장치가 추가 훈련 수행 여부에 따라 훈련을 반복하는 동작을 설명하기 위한 알고리즘이다.Meanwhile, FIG. 5 is an algorithm for explaining an operation in which the electronic device repeats training according to whether or not additional training is performed according to an embodiment of the present disclosure.
도 5를 참조하면, 상술한 S230 단계에서 일치율에 따라 훈련이 추가로 수행되는 것으로 결정된 경우, 프로세서(140)는 상술한 S220 단계의 훈련을 추가로 수행할 수 있다.Referring to FIG. 5 , when it is determined that training is additionally performed according to the coincidence rate in step S230 described above, the
이때, 앞서 S220 단계에서 이용되었던 노래와 동일한 노래가 이용되거나 또는 S220 단계에서 이용된 노래의 난이도와 동일한 난이도의 노래가 이용될 수도 있으나, 이에 한정되는 것은 아니다.In this case, the same song as the song previously used in step S220 may be used, or a song having the same difficulty as the song used in step S220 may be used, but is not limited thereto.
또한, 프로세서(140)는 재차 수행된 S220 단계 다음으로 다시금 추가 훈련이 필요한지 여부를 식별하기 위해 S230 단계를 수행할 수 있다.In addition, the
이 경우, 사용자가 노래를 성공적으로 따라 부를 때까지 훈련이 한 번 이상 반복될 수도 있다.In this case, the training may be repeated one or more times until the user successfully sings along to the song.
다만, 일반적으로 청능 훈련의 효과는 청능 훈련이 중장기(ex. 수개월) 이상 진행되어야 커질 수 있다는 점이 밝혀진 바 있기 때문에, 단기간의 반복 훈련에만 집중하는 것은 효율적이지 않을 수 있다. However, in general, since it has been revealed that auditory training can only be effective if auditory training is performed over a mid- to long-term (ex. several months), it may not be effective to focus only on short-term repetitive training.
관련하여, 본 개시의 일 실시 예에 따른 프로세서(140)는, 연속적으로 수행되는 훈련 과정 별로 훈련의 성과를 측정하고, 측정된 성과에 따라 훈련 횟수를 제한할 수 있다.In relation to this, the
관련하여, 도 6은 본 개시의 일 실시 예에 따른 전자 장치가 훈련 횟수에 따라 훈련 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘이다. 도 6의 알고리즘은 상술한 도 5의 알고리즘이 진행되는 도중에 진행될 수 있다.6 is an algorithm for explaining an operation in which the electronic device determines whether training is terminated according to the number of training sessions according to an embodiment of the present disclosure. The algorithm of FIG. 6 may be performed while the algorithm of FIG. 5 is in progress.
도 6을 참조하면, 프로세서(140)는 훈련 단계(S220)가 연속적으로 수행된 횟수가 기설정된 횟수(ex. 5회) 이상인지 여부를 식별할 수 있다(S610).Referring to FIG. 6 , the
만약, 훈련 단계(S220)가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우(S610 - Y), 프로세서(140)는 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교할 수 있다(S620).If the number of consecutively performed training steps S220 is greater than or equal to the preset number (S610 - Y), the
여기서, 일치율은, 상술하였듯 사용자가 부른 노래와 출력된 노래 간의 일치율에 해당한다.Here, the coincidence rate corresponds to the coincidence rate between the song sung by the user and the output song as described above.
도 6을 참조하면, 만약 마지막으로 수행된 훈련 단계의 일치율이 평균 일치율보다 낮은 경우(S630 - Y), 프로세서(140)는 훈련 단계를 추가로 수행하지 않는 것으로 결정할 수 있다(S640). 이 경우, 프로세서(140)는 S230의 판단 결과와 무관하게 도 5의 과정을 중단할 수 있다.Referring to FIG. 6 , if the matching rate of the last training step is lower than the average matching ratio (S630 - Y), the
이렇듯, 상술한 도 6의 실시 예에 따른 전자 장치(100)는 반복 훈련의 효율성이 떨어지는 시점을 객관적으로 식별하여 훈련을 중단할 수 있고, 그 결과 효율성이 보장되는 범위 내에서만 반복 훈련을 수행할 수 있다는 효과가 있다.As such, the
한편, 도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.Meanwhile, FIG. 7 is a block diagram for explaining the configuration and operation of an electronic device according to various embodiments of the present disclosure.
도 7을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 프로세서(140) 외에 메모리(150), 사용자 입력부(160), 통신부(170) 등을 더 포함할 수도 있다.Referring to FIG. 7 , the
메모리(150)는 전자 장치(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 전자 장치(100)의 구성요소와 관련된 적어도 하나의 인스트럭션 또는 데이터를 저장하기 위한 구성이다. The
프로세서(140)는 메모리(150)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 본 개시의 다양한 실시 예들에 따른 동작을 수행할 수 있다.The
일 예로, 메모리(150)는 본 개시에 따른 상술한 청능 훈련 방법을 수행하기 위한 적어도 하나의 애플리케이션에 대한 정보를 포함할 수 있다. 이때, 프로세서(140)는 해당 애플리케이션을 실행함으로써 본 개시의 다양한 실시 예에 따른 청능 훈련 방법을 수행할 수 있다.For example, the
사용자 입력부(160)는 전자 장치(100)에 대한 사용자의 명령 및/또는 전자 장치(100)의 동작에 필요한 사용자 정보를 수신하기 위한 구성이다. The
사용자 입력부(160)는 하나 이상의 버튼, 터치스크린, 마이크, 카메라 등 다양한 구성을 포함할 수 있다.The
일 예로, 사용자 입력부(160)를 통해 상술한 애플리케이션을 실행하기 위한 사용자 명령이 수신되면, 프로세서(140)는 본 개시에 따른 청능 훈련 방법을 수행할 수 있다.For example, when a user command for executing the above-described application is received through the
통신부(170)는 전자 장치(100)가 적어도 하나의 외부 장치와 통신을 수행하기 위한 구성으로 회로를 포함할 수 있다.The
통신부(170)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(170)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.The
네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.The network may be a personal area network (PAN), a local area network (LAN), a wide area network (WAN), etc. depending on the area or size, and depending on the openness of the network, an intranet, It may be an extranet or the Internet.
무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communication includes long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G) mobile communication, code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), WiBro (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), at least one of the communication methods such as Zigbee may include
유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. 여기서, 통신부(150)는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and ThunderBolt. Here, the
일 예로, 프로세서(140)는 본 개시에 따른 청능 훈련 방법을 수행하기 위한 애플리케이션을 실행함으로써 통신부(170)를 통해 적어도 하나의 외부 서버와 연결될 수 있다. For example, the
이때, 프로세서(140)는 통신부(170)를 통해 외부 서버로부터 애플리케이션과 관련된 정보(ex. 웹 페이지, 사운드 정보(노래), UI 정보 등)를 수신할 수 있다. In this case, the
그리고, 훈련 단계(S220)를 수행하는 과정에서, 프로세서(140)는 수신된 정보에 따라 다양한 노래/UI를 출력할 수 있다.And, in the process of performing the training step (S220), the
한편, 프로세서(140)는 훈련 단계(S220)에서 제공되는 UI에 대한 정보를 통신부(170)를 통해 적어도 하나의 디스플레이 장치로 전송할 수도 있다.Meanwhile, the
이 경우, 상술한 UI(320) 등은 디스플레이 장치를 통해 제공될 수도 있다.In this case, the above-described
한편, 프로세서(140)는 훈련 단계(S220)에서 출력되는 노래(사운드)에 대한 오디오 신호를 통신부(170)를 통해 적어도 하나의 스피커 장치로 전송할 수 있다.Meanwhile, the
구체적인 예로, 프로세서(140)는 블루투스 통신 방식을 통해 해당 오디오 신호를 무선 이어폰, 무선 헤드폰, 무선 스피커 등의 스피커 장치로 전송할 수 있다.As a specific example, the
그 결과, 사용자가 따라 부를 노래가 상술한 스피커 장치를 통해 출력될 수 있다.As a result, the song to be sung by the user can be output through the speaker device described above.
한편, 도시되지는 않았으나, 전자 장치(100)는 스피커 외에 (유선) 오디오 출력 단자를 더 포함할 수도 있다. Meanwhile, although not shown, the
이 경우, 전자 장치(100)는 훈련 단계(S220)에서 출력되는 노래에 대한 오디오 신호를 오디오 출력 단자를 통해 적어도 하나의 스피커 장치(ex. 이어폰/헤드폰, 스피커 등)로 전송할 수 있다. 그 결과, 해당 스피커 장치에서 노래가 출력될 수 있다.In this case, the
한편, 본 개시에 따른 전자 장치(100)의 청능 훈련 방법은, 도 2의 과정 전에, 악기의 연주음을 기반으로 하는 다른 방식의 청능 훈련 방법을 수행할 수 있다. 그리고, 악기의 연주음을 기반으로 하는 청능 훈련 방법에서 판별된 사용자의 청각 인지 능력이 일정 수치 또는 스코어 이상인 것으로 판별되는 경우에만, 상술한 도 2의 과정을 수행할 수도 있다. 즉, 악기의 연주음을 기반으로 한 청능 훈련이 성공적으로 수행된 이후, 노래 부르기를 기반으로 한 청능 훈련이 수행될 수 있다.Meanwhile, in the auditory training method of the
악기의 연주음을 기반으로 하는 다른 방식의 청능 훈련 방법은, 탐지, 변별, 확인, 이해 훈련 외에, 상술한 훈련들 중 적어도 하나를 추가로 수행하는 재훈련 단계를 포함할 수 있다.Another auditory training method based on the playing sound of a musical instrument may include a retraining step of additionally performing at least one of the above-described training in addition to detection, discrimination, confirmation, and understanding training.
구체적으로, 프로세서(140)는 탐지, 변별, 확인, 이해 훈련 과정에서 수신된 사용자 입력에 따라, 재훈련 단계에서 탐지, 변별, 확인, 이해 훈련 중 적어도 하나를 추가로 수행할 수 있다.Specifically, the
이때, 최초로 수행된 탐지, 변별, 확인, 이해 훈련의 난이도는, 재훈련 단계에서 추가로 수행되는 훈련의 난이도와 다를 수 있다.In this case, the difficulty of the detection, discrimination, confirmation, and understanding training performed initially may be different from the difficulty of the training additionally performed in the retraining stage.
구체적으로, 프로세서(140)는 최초에 탐지, 변별, 확인, 이해 단계에서 수신된 사용자 입력들 중 적어도 하나가 수신되는 데에 걸린 시간에 따라, 재훈련 단계에 포함되는 훈련의 난이도를 조정할 수도 있다.Specifically, the
일 예로, 만약 최초의 변별 훈련 단계에서 제공된 질의에 따라 수신된 사용자 입력이 정답인 경우, 프로세서(140)는 해당 사용자 입력의 수신에 소요된 시간(ex. 질의가 디스플레이 된 시점부터 사용자 입력이 수신된 시점까지)을 사용자 입력의 수신에 소요되는 평균 시간과 비교할 수 있다.As an example, if the user input received according to the query provided in the first discrimination training stage is the correct answer, the
평균 시간은, 과거에 수행된 한 번 이상의 변별 훈련 단계의 훈련 이력을 기반으로 획득된 것일 수 있다. 일 예로, 프로세서(140)는 (동일한) 사용자가 과거 변별 훈련을 수행한 이력(ex. 사용자 입력 수신에 소요된 시간, 정답률, 훈련 횟수/빈도 등)을 통해 과거 변별 훈련 단계에 있어 사용자 입력이 수신되는 데에 소요된 시간의 평균을 계산할 수 있다.The average time may be obtained based on a training history of one or more discrimination training steps performed in the past. As an example, the
여기서, 만약 최초의 변별 훈련 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 길거나 같은 경우, 재훈련 단계에서, 프로세서(140)는 최초 수행된 변별 훈련 단계의 난이도와 동일한 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.Here, if the time taken to receive the user input in the first discrimination training step is longer than or equal to the average time plus the threshold time, in the retraining step, the
반면, 만약 최초의 변별 훈련 단계에서 사용자 입력의 수신에 소요된 시간이 평균 시간에 임계 시간을 더한 시간보다 짧은 경우, 재훈련 단계에서, 프로세서(140)는 최초 수행된 변별 단계의 난이도보다 높은 난이도에 따라 변별 훈련 단계를 추가로 수행할 수 있다.On the other hand, if the time taken to receive the user input in the first discrimination training step is shorter than the average time plus the threshold time, in the retraining step, the
이렇듯, 정답 여부뿐만 아니라 정답을 고르는 데에 걸린 시간까지 고려된 맞춤형 재훈련이 수행됨으로써, 사용자 개인을 위한 최적의 청능 훈련이 수행될 수 있다는 효과가 있다.As such, by performing customized retraining in consideration of not only the correct answer but also the time taken to select the correct answer, there is an effect that optimal hearing training for an individual user can be performed.
한편, 프로세서(130)는 탐지, 변별, 확인, 이해 단계에서 수신된 사용자 입력들 중 적어도 하나에 따라 재훈련 단계에서 수행되는 훈련의 횟수를 조정할 수도 있다.Meanwhile, the
일 실시 예에 따라, 탐지, 변별, 이해 단계에서 수신된 사용자 입력들은 정답이지만 확인 단계에서 수신된 사용자 입력은 오답인 경우를 가정한다.According to an embodiment, it is assumed that the user inputs received in the detection, discrimination, and understanding steps are correct answers, but the user input received in the confirmation step is an incorrect answer.
이 경우, 재훈련 단계에서, 프로세서(140)는 탐지 훈련, 변별 훈련, 이해 훈련은 각각 동일한 횟수만큼 추가로 수행하되, 확인 훈련만큼은 해당 횟수보다 더 많은 횟수만큼 추가로 수행할 수 있다.In this case, in the retraining step, the
한편, 일 실시 예에 따라, 확인 단계에서, 전자 장치(100)가 복수의 군에 해당하는 복수의 악기 중 하나의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다. Meanwhile, according to an embodiment, in the checking step, it is assumed that the
복수의 군은, 일 예로 소리 생성 원리에 따라 구분되어 건반 악기, 관악기, 타악기, 현악기 중 적어도 하나를 포함할 수 있으나, 이 밖에도 다양한 기준(ex. 전통 악기/현대 악기, 동양 악기/서양 악기)으로 구분된 군들을 포함할 수 있다.The plurality of groups may include, for example, at least one of a keyboard instrument, a wind instrument, a percussion instrument, and a string instrument by being classified according to a sound generation principle, but in addition to various criteria (ex. traditional instrument/modern instrument, oriental instrument/western instrument) may include groups separated by .
이때, 확인 단계에서, 전자 장치(100)는 복수의 군에 해당하는 복수의 악기 중 출력된 사운드(연주음)를 연주한 악기를 선택하도록 요청하는 질의를 디스플레이 하고, 질의에 대한 응답(사용자 입력)을 수신할 수 있다.In this case, in the confirmation step, the
여기서, 만약 수신된 사용자 입력이 오답인 경우(: 다른 악기를 선택), 프로세서(140)는 사용자 입력에 따라 선택된 악기가 출력된 사운드를 연주한 악기(: 정답)와 동일한 군에 포함되는지 식별할 수 있다.Here, if the received user input is an incorrect answer (: select another instrument), the
만약, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되는 경우, 재훈련 단계에서, 프로세서(140)는 확인 훈련 단계를 제1 횟수만큼 추가로 수행할 수 있다.If the selected instrument is included in the same group as the instrument that played the corresponding sound, in the retraining step, the
예를 들어, 확인 단계에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 동일한 군(현악기)에 포함되는 색소폰인 경우를 가정한다. 이 경우, 프로세서(140)는 재훈련 단계에서 확인 훈련을 3회 수행할 수 있다.For example, it is assumed that the performance sound output in the confirmation step is the performance sound of the clarinet, and the instrument selected by the user is the saxophone included in the same group (string instrument) as the clarinet. In this case, the
반면, 선택된 악기가 해당 사운드를 연주한 악기와 동일한 군에 포함되지 않는 경우, 재훈련 단계에서, 프로세서(140)는 확인 훈련 단계를 제1 횟수보다 많은 제2 횟수만큼 추가로 수행할 수 있다.On the other hand, if the selected instrument is not included in the same group as the instrument that played the corresponding sound, in the retraining step, the
예를 들어, 확인 단계에서 출력된 연주음은 클라리넷의 연주음이고, 사용자가 선택한 악기는 클라리넷과 다른 군에 속하는 피아노인 경우를 가정한다. 이 경우, 프로세서(140)는 재훈련 단계에서 확인 훈련을 3회보다 많은 6회 수행할 수 있다.For example, it is assumed that the performance sound output in the confirmation step is the performance sound of the clarinet, and the instrument selected by the user is a piano belonging to a group different from the clarinet. In this case, the
이렇듯, 확인 훈련 단계에서 사용자가 선택한 악기가 정답이 아닌 경우, 본 실시 예에 따른 전자 장치(100)는 선택된 악기가 연주된 악기와 유사한지(ex. 동일한 군에 포함됨) 여부에 따라 사용자의 인지 능력을 다르게 측정하고 재훈련 과정을 다르게 수행할 수 있다. 그 결과, 개별 사용자(청능 훈련 대상자)를 위한 최적의 맞춤형 재훈련 과정이 자동으로 섬세하게 구축될 수 있다.As such, when the instrument selected by the user in the confirmation training step is not the correct answer, the
한편, 일 실시 예에 따라, 이해 단계에서 전자 장치(100)가 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in the understanding step, the
그리고, 이해 단계에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In the understanding stage, it is assumed that a query is provided to inquire about the number of musical instruments that have played the played note.
이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, 재훈련 단계의 이해 훈련 과정에서, 프로세서(140)는 복수의 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.At this time, if the user input in response to the above-mentioned query is the correct answer, in the understanding training process of the retraining step, the
반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, 재훈련 단계 내의 (추가) 이해 훈련 과정에서, 프로세서(130)는 여전히 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned question is an incorrect answer, in the (additional) understanding training process in the retraining phase, the
한편, 일 실시 예에 따라, 이해 단계에서 전자 장치(100)가 복수의 군(ex. 2개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력한 상황을 가정한다.Meanwhile, according to an embodiment, it is assumed that in the understanding step, the
그리고, 이해 단계에서, 연주음을 연주한 악기의 수가 몇 개인지 물어보는 질의가 제공된 상황을 가정한다.In the understanding stage, it is assumed that a query is provided to inquire about the number of musical instruments that have played the played note.
이때, 만약 상술한 질의에 응답하는 사용자 입력이 정답인 경우, 재훈련 단계의 (추가) 이해 훈련 과정에서, 프로세서(140)는 상술한 복수의 군(ex. 2개의 군)보다 더 많은 수의 복수의 군(ex. 3개의 군)에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.At this time, if the user input in response to the above-mentioned query is the correct answer, in the (additional) understanding training process of the retraining step, the
반면, 상술한 질의에 응답하는 사용자 입력이 오답인 경우, 재훈련 단계의 (추가) 이해 훈련 과정에서, 프로세서(140)는 동일한 군에 해당하는 복수의 악기의 연주음으로 구성된 사운드를 출력하고, 관련된 질의를 제공할 수 있다.On the other hand, if the user input in response to the above-mentioned question is an incorrect answer, in the (additional) understanding training process of the retraining step, the
다양한 군에 해당하는 악기들이 함께 연주됨에 따라 이해 훈련의 난이도가 높아진다는 점에서, 상술한 실시 예에 따라 사용자의 인지 능력에 맞는 난이도의 재훈련이 수행될 수 있다.Since the difficulty of comprehension training increases as musical instruments corresponding to various groups are played together, retraining with a difficulty level suitable for the user's cognitive ability may be performed according to the above-described embodiment.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다. On the other hand, the computer instructions or computer program for performing the processing operation in the
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of
100: 전자 장치 110: 스피커
120: 디스플레이 130: 마이크100: electronic device 110: speaker
120: display 130: microphone
Claims (9)
사용자 정보를 기반으로 훈련의 난이도를 선택하는 단계;
상기 선택된 난이도에 대응되는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI(User Interface)를 디스플레이 하고, 사용자 음성을 입력 받는, 훈련 단계;
상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 간의 일치율을 기반으로 상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계;
상기 훈련 단계가 연속적으로 수행된 횟수가 기설정된 횟수 이상인 경우, 연속적으로 수행된 훈련 단계들 중 마지막으로 수행된 훈련 단계의 일치율을 상기 연속적으로 수행된 훈련 단계들의 평균 일치율과 비교하는 단계; 및
상기 마지막으로 수행된 훈련 단계의 일치율이 상기 평균 일치율보다 낮은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는 단계;를 포함하고,
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 출력된 노래의 오디오 신호와 상기 사용자 음성의 오디오 신호 각각에 대해, 상승 및 하강 중 적어도 하나에 대한 피치의 변화 방향에 대한 일치 여부를 판단하는, 전자 장치의 청능 훈련 방법.In the hearing training method of an electronic device,
selecting a difficulty level of training based on user information;
a training step of outputting a song corresponding to the selected difficulty level, displaying a UI (User Interface) guiding to sing along the output song, and receiving a user voice;
determining whether to additionally perform the training step based on a matching rate between the output audio signal of the song and the audio signal of the user's voice;
if the number of consecutively performed training steps is equal to or greater than a preset number, comparing the matching rate of the last training step among the continuously performed training steps with the average matching rate of the continuously performed training steps; and
When the matching rate of the last training step is lower than the average matching rate, determining that the training step is not additionally performed;
The step of determining whether to additionally perform the training step is,
For each of the output audio signal of the song and the audio signal of the user's voice, determining whether a pitch change direction with respect to at least one of rising and falling coincides with each other.
상기 사용자 정보는,
사용자의 연령, 와우 이식 여부, 와우 이식 시기, 보청기 사용 여부 및 청능 훈련 이력 중 적어도 하나에 대한 정보를 포함하는, 전자 장치의 청능 훈련 방법.According to claim 1,
The user information is
A hearing ability training method for an electronic device, comprising information on at least one of a user's age, whether or not a cochlear implant has been implanted, when a cochlear implant is performed, whether a hearing aid is used, and an auditory training history.
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 일치율이 기설정된 일치율에서 임계치를 차감한 값보다 낮은 경우, 상기 훈련 단계를 추가로 수행하는 것으로 결정하고,
상기 기설정된 일치율은,
상기 출력된 노래의 오디오 신호와 상기 출력된 노래를 따라 부른 정상인의 음성의 오디오 신호 간의 일치율인, 전자 장치의 청능 훈련 방법.According to claim 1,
The step of determining whether to additionally perform the training step is,
If the matching rate is lower than a value obtained by subtracting a threshold from a preset matching rate, it is determined that the training step is additionally performed;
The preset matching rate is,
and a matching rate between the audio signal of the output song and the audio signal of a voice of a normal person sang along with the output song.
상기 훈련 단계를 추가로 수행할지 여부를 결정하는 단계는,
상기 일치율이 상기 기설정된 일치율에서 임계치를 차감한 값보다 높거나 같은 경우, 상기 훈련 단계를 추가로 수행하지 않는 것으로 결정하는, 전자 장치의 청능 훈련 방법.According to claim 1,
The step of determining whether to additionally perform the training step is,
and determining not to additionally perform the training step when the matching rate is greater than or equal to a value obtained by subtracting a threshold from the preset matching rate.
상기 전자 장치의 청능 훈련 방법은,
주변 소음의 크기를 측정하는 단계;를 더 포함하고,
상기 난이도를 선택하는 단계는,
상기 사용자 정보 및 상기 주변 소음의 크기를 기반으로 상기 훈련의 난이도를 선택하는, 전자 장치의 청능 훈련 방법.According to claim 1,
The hearing ability training method of the electronic device,
Measuring the level of ambient noise; further comprising,
The step of selecting the difficulty level is
and selecting the difficulty level of the training based on the user information and the level of the ambient noise.
상기 전자 장치의 청능 훈련 방법은,
주변 소음의 피치(pitch)를 식별하는 단계를 더 포함하고,
상기 훈련 단계는,
상기 식별된 피치와 진동수 차이가 일정 수 이상인 피치에 해당하는 노래를 출력하고, 상기 출력된 노래를 따라 부르도록 유도하는 UI를 디스플레이 하고, 사용자 음성을 입력 받는, 전자 장치의 청능 훈련 방법.According to claim 1,
The hearing ability training method of the electronic device,
further comprising identifying a pitch of ambient noise;
The training phase is
Outputting a song corresponding to a pitch in which a difference between the identified pitch and a frequency is a predetermined number or more, displaying a UI guiding the user to sing along the output song, and receiving a user's voice.
전자 장치의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 청능 훈련 방법을 수행하도록 하는, 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable medium,
A computer program stored in a computer-readable medium, which is executed by a processor of an electronic device to cause the electronic device to perform the auditory training method of claim 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200151111A KR102429108B1 (en) | 2020-11-12 | 2020-11-12 | Electronic apparatus for performing auditory training based on singing, method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200151111A KR102429108B1 (en) | 2020-11-12 | 2020-11-12 | Electronic apparatus for performing auditory training based on singing, method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220064716A KR20220064716A (en) | 2022-05-19 |
KR102429108B1 true KR102429108B1 (en) | 2022-08-03 |
Family
ID=81801217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200151111A KR102429108B1 (en) | 2020-11-12 | 2020-11-12 | Electronic apparatus for performing auditory training based on singing, method, and computer program |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102429108B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240125397A (en) | 2023-02-10 | 2024-08-19 | 경운대학교 산학협력단 | Auditory training data generation system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102683005B1 (en) * | 2023-09-25 | 2024-07-09 | 주식회사 보이노시스 | An AI based hearing loss diagnosis method using audio data |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5563358A (en) * | 1991-12-06 | 1996-10-08 | Zimmerman; Thomas G. | Music training apparatus |
KR102024221B1 (en) * | 2018-01-15 | 2019-09-23 | 한림대학교 산학협력단 | Method and device for training auditory function |
KR102098751B1 (en) * | 2018-03-26 | 2020-04-20 | (주)주스 | Automated estimation method for music dictation and estimation system using the same |
KR101984991B1 (en) | 2018-10-15 | 2019-06-03 | 신수연 | Device for training of listening ability based on user characteristics |
KR102053580B1 (en) * | 2019-05-24 | 2019-12-06 | 신수연 | Auditoty training device for setting the training difficulty in response to user listening ability |
-
2020
- 2020-11-12 KR KR1020200151111A patent/KR102429108B1/en active IP Right Grant
Non-Patent Citations (3)
Title |
---|
공개특허공보 제10-2019-0086868호(2019.7.24. 공개) 1부.* |
등록특허공보 제10-2053580호(2019.12.6. 공고) 1부.* |
미국 특허공보 US5563358(1996.10.8.) 1부.* |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240125397A (en) | 2023-02-10 | 2024-08-19 | 경운대학교 산학협력단 | Auditory training data generation system |
Also Published As
Publication number | Publication date |
---|---|
KR20220064716A (en) | 2022-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vandali et al. | Training of cochlear implant users to improve pitch perception in the presence of competing place cues | |
KR102429108B1 (en) | Electronic apparatus for performing auditory training based on singing, method, and computer program | |
US10235898B1 (en) | Computer implemented method for providing feedback of harmonic content relating to music track | |
CN106383676B (en) | Instant photochromic rendering system for sound and application thereof | |
CN110070847B (en) | Musical tone evaluation method and related products | |
WO2018038235A1 (en) | Auditory training device, auditory training method, and program | |
KR101907276B1 (en) | System for practicing musical instrument and method for supporting the practice | |
KR102451956B1 (en) | Electronic apparatus for performing auditory training with music, method, and computer program | |
CN111276113B (en) | Method and device for generating key time data based on audio | |
KR102634345B1 (en) | Apparatus for training and testing to cognitive function using music-based multi-task training, singing training, and instrument discrimination training | |
KR102564399B1 (en) | Apparatus for improving auditory function that changes training difficulty according to training performance accuracy | |
JP7437742B2 (en) | Sound output device and program | |
US20230145714A1 (en) | Apparatus and method for a phonation system | |
US20240233911A9 (en) | Method and system for conversational cognitive stimulation | |
KR20230088533A (en) | Method and program of controlling the music perception test and rehabilitation system for hearing impairment | |
KR20190042276A (en) | Method and Electronic Apparatus for Practicing of Instruments | |
CN117222364A (en) | Method and apparatus for hearing training | |
CN115830952A (en) | Pronunciation and limb training method and system assisted by music | |
WO2022026859A1 (en) | Systems and methods to improve a user's response to a traumatic event | |
KR20240003092A (en) | Electronic apparatus for providing musical hearing training, control method, and computer program | |
JP2020013122A (en) | Language learning device and language learning device | |
KR20240003090A (en) | Electronic apparatus for providing ear training, ear training providing method, and computer program | |
WO2021068000A1 (en) | Breathing guidance based on real-time audio analysis | |
CN114708851A (en) | Audio recognition method and device, computer equipment and computer-readable storage medium | |
KR20200122577A (en) | Sound Perception System Using Frequency Signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |