KR102630356B1 - Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children - Google Patents

Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children Download PDF

Info

Publication number
KR102630356B1
KR102630356B1 KR1020220094886A KR20220094886A KR102630356B1 KR 102630356 B1 KR102630356 B1 KR 102630356B1 KR 1020220094886 A KR1020220094886 A KR 1020220094886A KR 20220094886 A KR20220094886 A KR 20220094886A KR 102630356 B1 KR102630356 B1 KR 102630356B1
Authority
KR
South Korea
Prior art keywords
test subject
voice
electronic device
vocalization
rehabilitation
Prior art date
Application number
KR1020220094886A
Other languages
Korean (ko)
Inventor
김진숙
조성민
전승익
유채연
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020220094886A priority Critical patent/KR102630356B1/en
Application granted granted Critical
Publication of KR102630356B1 publication Critical patent/KR102630356B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/04Babies, e.g. for SIDS detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Educational Administration (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 전자 장치를 제어하는 방법은, 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사전 검사 단계, 상기 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘테츠를 제공하는, 발성 재활 단계 및 상기 재활 단계 이후, 상기 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사후 검사 단계를 포함한다.The method of controlling the present electronic device includes a pre-test step of analyzing a video recorded by a test subject to identify the test subject's ability level for at least one of vocalization, listening, development, and communication, and determining the identified ability level. Based on this, providing rehabilitation content including a plurality of vocalization samples, a vocal rehabilitation stage and after the rehabilitation stage, analyzing a video recorded by the test subject to determine at least one of the test subject's vocalization, listening, development, and communication Includes a post-test step, identifying competency levels.

Description

영유아의 청각 언어인지 재활을 위한 전자 장치, 제어 방법, 및 컴퓨터 프로그램 {Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children}Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children {Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children}

본 개시는 영유아의 청각 언어인지 재활을 위한 전자 장치의 제어 방법에 관한 것이다.This disclosure relates to a method of controlling an electronic device for auditory speech cognitive rehabilitation of infants and young children.

미국 영아청각협회(Joing committee on infant hearing, JCIH)는 영유아 난청의 진단과 재활의 가이드라인으로 생후 1개월 이내에 청각선별검사를 받고 3개월에 난청을 확진한 후, 6개월 이전에 조기 중재를 실시하는 것을 제시하고 있다.The American Association on Infant Hearing (Joining Committee on Infant Hearing, JCIH) provides guidelines for the diagnosis and rehabilitation of hearing loss in infants and toddlers: a hearing screening test is performed within 1 month of age, hearing loss is confirmed at 3 months, and early intervention is performed before 6 months of age. It suggests that

청각장애 영유아의 재활 시작 시기는 아동 개개인의 언어 *?* 사회 *?* 정서적 발달에 중대한 영향을 줄 뿐 아니라, 장기적으로 큰 사회적 비용 또한 요구할 수 있으므로 시기적절한 조기재활의 실시가 필요하다. The timing of starting rehabilitation for hearing-impaired infants not only has a significant impact on each child's linguistic *?* social *?* emotional development, but can also require large social costs in the long term, so timely implementation of early rehabilitation is necessary.

이러한 청각장애인을 위한 청능재활 방법이 한국등록특허 제 10-2019-0098663에 기재되어 있다.This auditory rehabilitation method for the hearing impaired is described in Korean Patent No. 10-2019-0098663.

그러나 선행특허 출원의 대상자는 인공와우 사용자에 한정되어 있고 그 범위가 일반적인 영유아의 청각언어인지재활로 활용하기에 제한적이며 실질적으로 청각장애 영유아의 청각언어인지재활의 목적으로 사용되기 어렵다. However, the subject of the prior patent application is limited to cochlear implant users, and its scope is limited to use for auditory language and cognitive rehabilitation of general infants and young children, and in practice, it is difficult to use it for the purpose of auditory language and cognitive rehabilitation of hearing impaired infants and toddlers.

또한 JCIH의 6개월 이전 조기 중재는 청각보조기기의 착용을 적극 권장하고 있다. Additionally, JCIH's early intervention before 6 months actively recommends wearing hearing aids.

따라서 6개월 이전에 영유아의 청력에 적절한 청각보조기기를 착용하고 적합한 후 다음 기술을 적용한다. Therefore, before 6 months of age, wear hearing aids suitable for the hearing of infants and toddlers, and after fitting them, apply the following techniques.

1~24개월까지 우리나라 아동의 발달 단계별 발성 패턴 및 의사소통 행동 기준표를 바탕으로, 영유아의 발성과 의사소통의도를 가진 행동을 종합적으로 분석하고, 언어이전기 아동의 발성을 유도하고, 의사소통을 촉진할 수 있는 구조적 청능재활 프로그램을 개발할 필요성이 존재한다.Based on the vocalization patterns and communication behavior standards for each stage of development of Korean children from 1 to 24 months, we comprehensively analyze infants and toddlers' vocalizations and behaviors with communicative intent, induce vocalizations in prelingual children, and improve communication. There is a need to develop a structured auditory rehabilitation program that can promote.

즉, 상기 기재된 청능재활 프로그램은 외국에서 널리 쓰이는 재활방법 외에 우리나라의 전통놀이법과 애착육아법을 접목하고 우리나라 언어 구조에 맞는 독특한 영유아의 발성 발달 단계를 고려하여 한국의 독특한 문화가 반영되고 한국어의 음운적 특성을 포함한 청각장애 영유아의 조기 청각언어인지재활 접근법을 구체적으로 제시할 수 있어야 한다. In other words, the hearing rehabilitation program described above combines Korea's traditional play method and attachment parenting method in addition to rehabilitation methods widely used abroad, and reflects Korea's unique culture by considering the unique vocal development stage of infants and toddlers that fits the Korean language structure and improves the phonological quality of Korean. It must be possible to specifically present an approach to early auditory language cognitive rehabilitation of hearing-impaired infants and toddlers, including their characteristics.

공개 특허 공보 제10-2021-0019712호(난청환자를 위한 청능 훈련시스템 및 청능 훈련방법)Public Patent Publication No. 10-2021-0019712 (Auditory training system and auditory training method for hearing loss patients)

본 개시는 영유아의 발성발달단계를 체계화한 평가도구를 기반으로 한국형 조기 청각언어인지재활(Korean Aural Rehabilitation for Infants, KARI)프로그램을 제공한다.This disclosure provides a Korean Aural Rehabilitation for Infants (KARI) program based on an evaluation tool that systematizes the vocal development stages of infants and toddlers.

본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present disclosure are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present disclosure. Additionally, it will be readily apparent that the objects and advantages of the present disclosure can be realized by the means and combinations thereof indicated in the patent claims.

본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사전 검사 단계, 상기 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘테츠를 제공하는, 발성 재활 단계, 및 상기 재활 단계 이후, 상기 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사후 검사 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present disclosure includes a pre-test step of analyzing a video captured by a test subject to identify the test subject's ability level for at least one of vocalization, listening, development, and communication; Based on the identified ability level, a vocal rehabilitation step, providing rehabilitation content including a plurality of vocalization samples, and after the rehabilitation step, analyzing the video recorded by the test subject to determine the test subject's vocalization, listening, and development , and a post-test phase that identifies the level of competency in at least one of the following: communication.

상기 발성 재활 단계는, 제1 발성 샘플을 제공하는 단계, 상기 제1 발성 샘플이 제공된 시점으로부터 일정 시간 내에 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력되는지 여부를 식별하는 단계, 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되면, 제2 발성 샘플을 제공하는 단계, 및 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되지 않으면, 상기 제1 발성 샘플을 재차 제공하는 단계를 포함한다.The vocal rehabilitation step includes providing a first vocalization sample, identifying whether the test subject's voice imitating the first vocalization sample is input within a certain time from when the first vocalization sample is provided, and the first vocalization sample. 1. If the test subject's voice imitating the first vocalization sample is identified as input, providing a second vocalization sample, and if the test subject's voice imitating the first vocalization sample is not identified as input, providing the first vocalization sample. and providing the vocalization sample again.

상기 제1 발성 샘플을 제공하는 단계는, 디스플레이를 통해 제1 텍스트를 발화하는 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임을 표시하고, 스피커를 통해 상기 제1 텍스트가 발화된 음성을 포함하는 제1 타겟 사운드를 출력할 수 잇다.The step of providing the first speech sample includes displaying a plurality of image frames representing the mouth shape of a character uttering the first text through a display, and including a voice in which the first text is uttered through a speaker. Target sound can be output.

상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력되는지 여부를 식별하는 단계는, 카메라를 통해 상기 피검사자를 촬영하여 획득된 복수의 이미지 프레임을 상기 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임과 비교하고, 마이크를 통해 상기 피검사자의 음성을 포함하는 사운드가 입력되면, 상기 입력된 사운드를 구성하는 오디오 데이터를 적어도 하나의 텍스트로 변환하고, 상기 변환된 텍스트를 상기 제1 텍스트와 비교할 수 있다.The step of identifying whether the test subject's voice imitating the first vocalization sample is input includes comparing a plurality of image frames obtained by photographing the test subject through a camera with a plurality of image frames representing the mouth shape of the character. When sound including the voice of the test subject is input through the microphone, audio data constituting the input sound can be converted into at least one text, and the converted text can be compared with the first text.

상기 제1 발성 샘플을 재차 제공하는 단계는, 상기 카메라를 통해 획득된 이미지를 바탕으로 상기 피검사자의 방향을 식별하고, 상기 디스플레이를 통해, 상기 식별된 방향을 바라보면서 상기 제1 텍스트를 발화하는 상기 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임을 표시하고, 상기 스피커를 통해, 상기 제1 텍스트가 발화된 음성을 포함하는 제1 타켓 사운드를 상기 제1 발성 샘플을 제공하는 단계보다 더 큰 음량으로 출력할 수 있다.The step of providing the first speech sample again includes identifying the direction of the examinee based on the image acquired through the camera, and uttering the first text while looking in the identified direction through the display. Displaying a plurality of image frames representing the mouth shape of the character, and outputting a first target sound including a voice in which the first text was uttered through the speaker at a volume greater than the step of providing the first speech sample. can do.

상기 전자 장치의 제어 방법은, 완구 단말과의 통신을 바탕으로 상기 완구 단말을 제어하여, 상기 완구 단말을 통해 사운드를 제공하는, 자극 재활 단계를 포함할 수 있다.The control method of the electronic device may include a stimulation rehabilitation step of controlling the toy terminal based on communication with the toy terminal and providing sound through the toy terminal.

상기 자극 재활 단계는, 상기 완구 단말을 통해 제1 사운드를 제공하는 단계; 및 상기 제1 사운드가 제공된 이후 상기 피검사자의 음성이 입력되면, 상기 피검사자의 음성을 모방하는 제2 사운드를 제공하는 단계를 포함할 수 있다.The stimulation rehabilitation step includes providing a first sound through the toy terminal; And when the voice of the test subject is input after the first sound is provided, it may include providing a second sound that imitates the voice of the test subject.

상기 전자 장치의 제어 방법은, 웨어러블 단말과의 통신을 바탕으로, 상기 웨어러블 단말을 제어하여, 상기 웨어러블 단말을 통해 진동을 제공하는, 음성 조절 단계를 포함할 수 있다.The control method of the electronic device may include a voice control step of controlling the wearable terminal based on communication with the wearable terminal and providing vibration through the wearable terminal.

상기 음성 조절 단계는, 상기 웨어러블 단말에 적정한 음성의 크기의 기준범위를 설정하고, 설정된 이후 상기 피검사자의 음성의 크기가 입력되면, 상기 적정 음성 크기의 기준범위, 상기 피검사자의 음성의 크기를 비교하는 단계; 및 상기 피검사자의 음성의 크기가 상기 기준범위에 미포함되면 상기 웨어러블 장치를 통해 진동을 제공하는 단계;를 포함할 수 있다.The voice adjustment step is to set a reference range of the appropriate voice level in the wearable terminal, and when the level of the test subject's voice is input after being set, the reference range of the appropriate voice level and the level of the test subject's voice are compared. step; and providing vibration through the wearable device when the level of the test subject's voice is not included in the reference range.

상기 웨어러블 장치를 통해 진동을 제공하는 단계는, 상기 피검사자의 음성의 크기와 상기 기준범위 간의 차이 값에 비례하는 진동 세기를 제공할 수 있다.The step of providing vibration through the wearable device may provide vibration intensity proportional to the difference between the level of the test subject's voice and the reference range.

상기 전자 장치의 제어 방법은, 마이크를 통해 주변 환경과 관련된 적어도 하나의 외부 사운드를 획득하는 단계, 및 상기 획득된 외부 사운드를 바탕으로 제3 사운드를 생성하는 단계를 포함할 수 있다.The control method of the electronic device may include acquiring at least one external sound related to the surrounding environment through a microphone, and generating a third sound based on the acquired external sound.

상기 자극 재활 단계는, 상기 제2 사운드가 제공되는 상기 제3 사운드를 함께 제공할 수 있다.In the stimulation rehabilitation step, the third sound may be provided together with the second sound.

상기 사전 검사 단계는, 상기 비디오에 포함된 하나 이상의 이미지 프레임을 분석하여, 상기 피검사자 및 보호자를 식별하는 단계, 상기 피검사자 및 상기 보호자 각각의 입 모양을 시간 별로 인식하는 단계, 상기 피검사자 및 상기 보호자 각각의 시간 별 입 모양을 바탕으로, 상기 비디오에 포함된 오디오 데이터를 상기 피검사자의 음성을 포함하는 시간 구간 및 상기 보호자의 음성을 포함하는 시간 구간으로 구분하는 단계, 제1 시간 구간에 입력된 상기 보호자의 음성이 변환된 제1 텍스트를, 상기 제1 시간 구간에 이어지는 제2 시간 구간에 입력된 상기 피검사자의 음성이 변환된 제2 텍스트와 비교할 수 있다.The pre-test step includes analyzing one or more image frames included in the video to identify the test subject and the guardian, recognizing the mouth shape of each of the test subject and the guardian over time, each of the test subject and the guardian Based on the shape of the mouth at each time, dividing the audio data included in the video into a time section including the voice of the test subject and a time section including the voice of the guardian, the guardian input into the first time section The first text into which the voice of the person has been converted can be compared with the second text into which the voice of the test subject has been converted, input in a second time period following the first time period.

본 개시의 일 실시 예에 따른 전자 장치는, 마이크, 카메라, 디스플레이, 스피커, 프로세서를 포함한다. 상기 프로세서는, 상기 마이크 및 상기 카메라를 통해 피검사자를 촬영하여 비디오를 생성하고, 상기 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사전 검사 단계를 수행하고, 상기 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘테츠를 제공하는, 발성 재활 단계를 수행하며, 상기 재활 단계 이후, 상기 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사후 검사 단계를 수행하고,An electronic device according to an embodiment of the present disclosure includes a microphone, a camera, a display, a speaker, and a processor. The processor generates a video by filming the test subject through the microphone and the camera, and analyzes the video to identify the test subject's ability level for at least one of vocalization, listening, development, and communication. Performing a vocal rehabilitation step, providing rehabilitation content including a plurality of vocalization samples based on the identified ability level, and after the rehabilitation step, analyzing the video captured by the test subject to perform the vocal rehabilitation step. Perform a post-test step, identifying the test subject's level of competency in at least one of speech, listening, development, and communication;

상기 프로세서는, 상기 발성 재활 단계를 수행함에 있어서, 상기 스피커 및 상기 디스플레이를 통해 제1 발성 샘플을 제공하고, 상기 제1 발성 샘플이 제공된 시점으로부터 일정 시간 내에 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 상기 마이크를 통해 입력되는지 여부를 식별하고, 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되면, 제2 발성 샘플을 제공하고, 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되지 않으면, 상기 제1 발성 샘플을 재차 제공한다.In performing the vocal rehabilitation step, the processor provides a first vocalization sample through the speaker and the display, and the test subject imitates the first vocalization sample within a certain time from when the first vocalization sample is provided. Identifying whether the voice of the subject is input through the microphone, and if the voice of the test subject imitating the first vocalization sample is identified as being input, providing a second vocalization sample, and imitating the first vocalization sample If the test subject's voice is not identified as input, the first speech sample is provided again.

본 개시에 따른 전자 장치의 제어 방법은, 영유아의 발성발달단계를 체계화한 평가도구를 기반으로 한국형 조기 청각언어인지재활(Korean Aural Rehabilitation for Infants, KARI)프로그램을 제공하여, 청각장애 아동들에게 꼭 필요하고 적절한 청능 재활을 조기에 받아 의사소통 능력을 극대화를 시킬 수 있는 효과를 갖는다.The control method of an electronic device according to the present disclosure provides a Korean Aural Rehabilitation for Infants (KARI) program based on an evaluation tool that systematizes the vocal development stages of infants and toddlers, providing a must-have for hearing-impaired children. Receiving necessary and appropriate auditory rehabilitation early has the effect of maximizing communication skills.

본 개시의 일부 실시 예에 따른 전자 장치 및 청능 훈련 방법은, 훈련의 반복에 따른 성과를 객관적으로 실시간 평가하여 최적의 반복 횟수를 결정한다는 효과가 있다.The electronic device and auditory training method according to some embodiments of the present disclosure has the effect of determining the optimal number of repetitions by objectively evaluating performance according to repetition of training in real time.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따른 전자 장치 제어 방법에서 디스플레이를 통해 발화되는 캐릭터의 입 모양과, 스피커를 통해 발화된 음성을 사운드로 출력하는 동작을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘,
도 5는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법을 설명하기 위한 흐름도,
도 6은 본 개시의 일 실시 예에 따른 전자 장치 제어 방법에서 완구 단말과의 통신을 바탕으로 완구 단말을 통해 사운드를 제공하는 동작을 설명하기 위한 도면,
도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.
1 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present disclosure;
FIG. 3 is a diagram illustrating an operation of outputting the mouth shape of a character uttered through a display and a voice uttered through a speaker as sound in a method for controlling an electronic device according to an embodiment of the present disclosure;
4 is an algorithm for explaining an operation of determining whether to end an electronic device control method according to an embodiment of the present disclosure;
5 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present disclosure;
FIG. 6 is a diagram illustrating an operation of providing sound through a toy terminal based on communication with the toy terminal in the electronic device control method according to an embodiment of the present disclosure;
Figure 7 is a block diagram for explaining the configuration and operation of an electronic device according to various embodiments of the present disclosure.

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Before explaining the present disclosure in detail, the description method of the present specification and drawings will be explained.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, the terms used in the specification and claims are general terms selected in consideration of their functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention of technicians working in the relevant technical field, legal or technical interpretation, and the emergence of new technologies. Additionally, some terms are arbitrarily selected by the applicant. These terms may be interpreted as defined in this specification, and if there is no specific term definition, they may be interpreted based on the overall content of this specification and common technical knowledge in the relevant technical field.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numbers or symbols in each drawing attached to this specification indicate parts or components that perform substantially the same function. For convenience of explanation and understanding, the same reference numerals or symbols are used in different embodiments. That is, even if all components having the same reference number are shown in multiple drawings, the multiple drawings do not represent one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Additionally, in this specification and claims, terms including ordinal numbers such as “first”, “second”, etc. may be used to distinguish between components. These ordinal numbers are used to distinguish identical or similar components from each other, and the meaning of the term should not be interpreted limitedly due to the use of these ordinal numbers. For example, the order of use or arrangement of components combined with these ordinal numbers should not be limited by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, singular expressions include plural expressions, unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “consist of” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are intended to indicate the presence of one or more other It should be understood that this does not exclude in advance the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In embodiments of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms to refer to components that perform at least one function or operation, and these components are either hardware or software. It may be implemented or may be implemented through a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except in cases where each needs to be implemented with individual specific hardware, and is integrated into at least one processor. It can be implemented as:

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only direct connection but also indirect connection through other media. In addition, the meaning that a part includes a certain component does not mean that other components are excluded, but that it may further include other components, unless specifically stated to the contrary.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 카메라(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 1 , the electronic device 100 may include a speaker 110, a display 120, a microphone 130, a camera 140, and a processor 150.

전자 장치(100)는 스마트폰, 태블릿 PC, 노트북 PC, 데스크탑 PC, 키오스크, TV 등 다양한 기기로 구현될 수 있다. 전자 장치(100)는 서버로 구현되거나 또는 셋탑박스 등의 제어 장치로 구현될 수도 있다. 이 경우, 전자 장치(100)는 스피커(110), 디스플레이(120), 마이크(130), 카메라(140) 중 적어도 하나를 포함하는 외부 장치와 연결될 수 있다.The electronic device 100 may be implemented as a variety of devices, such as a smartphone, tablet PC, laptop PC, desktop PC, kiosk, or TV. The electronic device 100 may be implemented as a server or a control device such as a set-top box. In this case, the electronic device 100 may be connected to an external device including at least one of the speaker 110, display 120, microphone 130, and camera 140.

스피커(110)는 다양한 정보를 청각적으로 제공하기 위한 구성으로, 전기적인 오디오 신호를 변환하여 소리를 출력하기 위한 종래의 다양한 구성을 포함할 수 있다.The speaker 110 is a component for providing various information audibly, and may include various conventional components for converting electrical audio signals to output sound.

디스플레이(120)는 다양한 정보를 시각적으로 제공하기 위한 구성이다.The display 120 is configured to visually provide various information.

디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 120 may be implemented as a Liquid Crystal Display (LCD), Plasma Display Panel (PDP), Organic Light Emitting Diodes (OLED), Transparent OLED (TOLED), Micro LED, etc., but is not limited thereto and may be implemented as a conventional display panel. It may include various known types of displays.

디스플레이(120)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.The display 120 may be implemented in the form of a touch screen capable of detecting a user's touch operation, or may be implemented as a flexible display that can be folded or bent.

마이크(130)는 입력된 소리를 전기적인 오디오 신호로 변환하기 위한 적어도 하나의 회로를 포함할 수 있다.The microphone 130 may include at least one circuit for converting input sound into an electrical audio signal.

카메라(140)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 프로세서(150)는 카메라(140)를 통해 적어도 하나의 객체를 인식하거나 객체와의 거리를 식별할 수 있다.The camera 140 is configured to photograph at least one subject, and the processor 150 can recognize at least one object or identify the distance to the object through the camera 140.

프로세서(150)는 전자 장치(100)에 포함된 구성들과 연결되어 전자 장치(100)를 전반적으로 제어하기 위한 구성이다.The processor 150 is connected to components included in the electronic device 100 to generally control the electronic device 100.

프로세서(150)는 전자 장치(100)의 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써 후술할 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 150 may perform operations according to various embodiments, which will be described later, by executing at least one instruction stored in the memory of the electronic device 100.

프로세서(150)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다. 또한, 프로세서(150)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.The processor 150 may be a general-purpose processor such as a Central Processing Unit (CPU), an Application Processor (AP), a graphics-specific processor such as a Graphic Processing Unit (GPU), a Vision Processing Unit (VPU), or an artificial processor such as a Neural Processing Unit (NPU). It can be implemented with an intelligent processor, etc. Additionally, the processor 150 may include volatile memory such as SRAM.

이하 도면들을 통해, 피검사자에게 제공하는 전자 장치의 제어 방법을 설명한다.Through the following drawings, a method of controlling an electronic device provided to a test subject will be described.

도 2는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present disclosure.

도 2를 참조하면, 프로세서(150)는 스피커(110), 디스플레이(120), 마이크(130) 및 카메라(140)를 이용하여 S210 내지 S230 단계를 수행할 수 있다.Referring to FIG. 2, the processor 150 may perform steps S210 to S230 using the speaker 110, display 120, microphone 130, and camera 140.

구체적으로, 프로세서(150)는 사전 검사 수행(S210), 발성 재활 수행(S220), 사후 검사 수행(S230)을 순차적으로 수행할 수 있다.Specifically, the processor 150 may sequentially perform pre-test (S210), vocal rehabilitation (S220), and post-test (S230).

사전 검사 수행(S210)은, 피검사자가 촬영된 비디오를 분석하여 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하기 위한 단계이다.Performing the pre-test (S210) is a step to identify the test subject's ability level for at least one of vocalization, listening, development, and communication by analyzing the video recorded by the test subject.

또한 사전 검수 수행(S210) 중에, 전자 장치(100)는 피검사자의 보호자에게 디스플레이(120)를 통해 설문지를 제공할 수 있다. 예를 들어, 피검사자의 발성, 듣기, 발달, 및 의사소통에 대한 행동 발달을 확인할 수 있는 체크리스트가 별도로 제공될 수 있다.Additionally, while performing a preliminary inspection (S210), the electronic device 100 may provide a questionnaire to the guardian of the inspected person through the display 120. For example, a separate checklist may be provided to check the test subject's vocalization, listening, development, and behavioral development for communication.

이때, 각 항목에 대한 보호자의 사용자 입력에 따라 피검사자의 능력 수준이 식별될 수 있다.At this time, the ability level of the test subject can be identified according to the guardian's user input for each item.

또한, 사전 검사 수행 단계(S210)에서, 전자 장치(100)는 피검사자가 촬영된 비디오를 분석할 수도 있다.Additionally, in the pre-test performance step (S210), the electronic device 100 may analyze a video captured by the test subject.

비디오는, 전자 장치(100)의 카메라(140) 또는 외부 촬영 장치를 통해 피검사자가 촬영된 결과를 획득된 것일 수 있으며, 순차적으로 이어지는 복수의 이미지 프레임 및 오디오 데이터를 포함할 수 있다.The video may be obtained as a result of the subject being photographed through the camera 140 of the electronic device 100 or an external imaging device, and may include a plurality of image frames and audio data that follow sequentially.

여기서, 비디오는 보호자와 피검사자가 발성, 듣기, 발달, 의사소통 중 적어도 하나와 관련된 검사 내지는 훈련을 진행하는 동안 촬영된 것일 수 있다.Here, the video may be filmed while the guardian and the test subject are conducting a test or training related to at least one of vocalization, listening, development, and communication.

구체적으로, 전자 장치(100)는 비디오에 포함된 하나 이상의 이미지 프레임을 분석하여, 피검사자 및 보호자를 식별할 수 있다.Specifically, the electronic device 100 may identify the test subject and the guardian by analyzing one or more image frames included in the video.

이때, 이미지를 분석하여 객체(ex. 사람, 사람의 얼굴)를 인식하도록 훈련된 적어도 하나의 인공지능 모델(ex. CNN; Convolution Neural Network)이 활용될 수 있다.At this time, at least one artificial intelligence model (e.g. CNN ; Convolution Neural Network) trained to recognize objects (e.g. people, human faces) by analyzing images may be used.

그리고, 전자 장치(100)는 피검사자 및 보호자 각각의 입 모양을 시간 별로 인식할 수 있다. 예컨대, 입 모양을 일정 시간 간격으로 획득된 순서에 따라 식별하도록 훈련된 인공지능 모델을 통해, 입 모양이 획득된 시점에 일치하는 오디오 데이터를 칭할 수 있다.Additionally, the electronic device 100 can recognize the mouth shape of each test subject and guardian over time. For example, through an artificial intelligence model trained to identify mouth shapes in the order in which they were acquired at regular time intervals, audio data that matches the point in time when the mouth shape was acquired can be called.

이때, 피검사자 및 보호자 각각의 시간 별 입 모양을 바탕으로, 전자 장치(100)는 비디오에 포함된 오디오 데이터를 피검사자의 음성을 포함하는 시간 구간 및 보호자의 음성을 포함하는 시간 구간으로 구분할 수 있다. 예를 들어, 전자 장치(100)는 오디오 데이터를 시간 구간 별로 주파수 변환하여 특징 벡터를 추출하는 한편(ex. MFCC; Mel Frequency Cepstrum Coefficients), 특징 벡터의 변화 추이에 따라 시간 구간 별 발화자(피검사자 또는 보호자)를 판단할 수 있다.At this time, based on the mouth shapes of the test subject and the guardian at each time, the electronic device 100 may divide the audio data included in the video into a time section containing the test subject's voice and a time section including the guardian's voice. For example, the electronic device 100 converts the audio data to a frequency for each time section to extract a feature vector (ex. MFCC ; Mel Frequency Cepstrum Coefficients), while the speaker (the test subject or guardian) can be judged.

예를 들어, 제1 시간 구간에는 보호자의 음성이 포함되어 있고, 제1 시간 구간 다음으로 이어지는 제2 시간 구간에는 피검사자의 음성이 포함된 경우를 가정한다.For example, assume that the first time section includes the guardian's voice, and the second time section following the first time section includes the test subject's voice.

이 경우, 전자 장치(100)는 제1 시간 구간에 입력된 보호자의 음성이 변환된 제1 텍스트를, 제2 시간 구간에 입력된 피검사자의 음성이 변환된 제2 텍스트와 비교할 수 있다.In this case, the electronic device 100 may compare the first text converted from the guardian's voice input in the first time interval with the second text converted from the test subject's voice inputted in the second time interval.

이때, 제1 텍스트와 제2 텍스트 간의 일치도에 따라 피검사자의 능력 수준이 산출될 수 있다. 일치도가 높을수록 능력 수준이 높은 것으로 식별될 수 있다.At this time, the test subject's ability level can be calculated according to the degree of agreement between the first text and the second text. The higher the match, the higher the ability level can be identified.

텍스트 간의 일치도는, 자연어 이해 기술에 따라 파악된 의미 관련 벡터에 따라 산출될 수도 있고, 각 텍스트를 구성하는 문자 간의 일치 정도에 따라 산출될 수도 있다.The degree of correspondence between texts may be calculated according to meaning-related vectors identified according to natural language understanding technology, or may be calculated according to the degree of correspondence between characters constituting each text.

발성 재활 단계(S220)는, 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘테츠를 제공하기 위한 단계이다.The vocal rehabilitation step (S220) is a step for providing rehabilitation content including a plurality of vocalization samples based on the identified ability level.

발성 샘플은, 다양한 언어의 모음, 자음, 음소, 단어, 문장 등을 발성하는 특정한 입 모양과 음성을 포함하는 것이다. 구체적으로 발성 샘플은, 특정한 텍스트를 발화하는 입 모양의 이미지 및 해당 텍스트를 발화하는 음성이 포함된 사운드(오디오 데이터)를 포함할 수 있다.Speech samples include specific mouth shapes and voices that produce vowels, consonants, phonemes, words, sentences, etc. of various languages. Specifically, a speech sample may include an image of a mouth uttering a specific text and a sound (audio data) including a voice uttering the text.

사후 검사 단계(S230)는, 발성 재활 단계(S220) 이후, 피검사자가 촬영된 비디오를 분석하여 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하기 위한 단계이다.The post-test step (S230) is a step for identifying the test subject's ability level for at least one of vocalization, listening, development, and communication by analyzing the video recorded by the test subject after the vocal rehabilitation step (S220).

또한 사후 검사 단계(S230)는, 상술한 사전 검사 단계(S210)에 준하는 과정 및 형식으로 진행될 수 있다.Additionally, the post-test step (S230) may be conducted in a process and format similar to the pre-test step (S210) described above.

도 3은 본 개시의 일 실시 예에 따른 전자 장치 제어 방법에서 디스플레이를 통해 발화되는 캐릭터의 입 모양과, 스피커를 통해 발화된 음성을 사운드로 출력하는 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating an operation of outputting a mouth shape of a character uttered through a display and a voice uttered through a speaker as sound in a method for controlling an electronic device according to an embodiment of the present disclosure.

도 3은, 스마트폰으로 구현된 전자 장치(100)가 발성 재활 단계(S220)를 수행하는 동작을 도시한 예시로, 전자 장치(100)가 디스플레이(120)를 통해 캐릭터의 입 모양을 표시하고, 스피커(110)를 통해 발화된 음성을 사운드로 출력하는 동작을 나타낸 것이다.FIG. 3 is an example showing an operation in which an electronic device 100 implemented as a smartphone performs a vocal rehabilitation step (S220), in which the electronic device 100 displays the shape of a character's mouth through the display 120 and , This shows the operation of outputting the voice uttered through the speaker 110 as sound.

도 3은 예시적으로 “안녕”이라는 단어에 대한 발성 샘플이 제공되는 경우를 도시한 것이다. 전자 장치(100)는 디스플레이를 통해 “안녕”이라는 단어를 발화하는 입 모양을 가지는 캐릭터를 표시하고, 동시에 스피커를 통해 “안녕”이라는 단어를 포함하는 음성의 사운드를 출력할 수 있다.Figure 3 illustrates a case where a vocalization sample for the word “hello” is provided as an example. The electronic device 100 may display a character having the shape of a mouth uttering the word “hello” through a display, and simultaneously output a voice sound including the word “hello” through a speaker.

또한 디스플레이(120)를 통해 표시되는 캐릭터는 도시된 캐릭터 이외에도 다양한 캐릭터, 입 모양 등으로 나타날 수 있다.Additionally, characters displayed through the display 120 may appear as various characters, mouth shapes, etc. in addition to the characters shown.

도 4는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법 종료 여부를 판단하는 동작을 설명하기 위한 알고리즘이다.FIG. 4 is an algorithm for explaining an operation of determining whether a method for controlling an electronic device has ended according to an embodiment of the present disclosure.

도 4를 참조하여, 발성 재활 단계(S220)를 통한 알고리즘을 예시적으로 설명한다.Referring to FIG. 4, the algorithm through the vocal rehabilitation step (S220) will be described by way of example.

발성 재활 단계(S220)는, 상술한 발성 재활 단계(S220)를 수행하기 위해, 제1 발성 샘플을 제공(S221)할 수 있다.In the vocal rehabilitation step (S220), a first vocalization sample may be provided (S221) in order to perform the vocal rehabilitation step (S220) described above.

구체적으로 제1 발성 샘플은 제1 텍스트를 발화하는 입 모양의 이미지 및 해당 제1 텍스트를 발화하는 음성이 포함된 사운드(제1 타겟 사운드)를 포함할 수 있다.Specifically, the first speech sample may include an image of a mouth uttering the first text and a sound (first target sound) including a voice uttering the first text.

이때, 전자 장치(100)는 디스플레이(120)를 통해 피검사자가 제1 발성 샘플을 모방하도록 유도 및 응원을 위해 다양한 이모티콘, 글자, 문구 등을 표시/출력할 수 있다.At this time, the electronic device 100 may display/output various emoticons, letters, phrases, etc. through the display 120 to encourage and encourage the test subject to imitate the first vocalization sample.

그리고 전자 장치(100)는 제1 발성 샘플이 제공(S221)된 시점으로부터 일정 시간 내에 제1 발성 샘플을 모방하는 피검사자의 음성이 입력되는지 여부를 식별(S222)할 수 있다.Additionally, the electronic device 100 may identify (S222) whether the test subject's voice imitating the first vocalization sample is input within a certain period of time from the time the first vocalization sample is provided (S221).

구체적으로, 전자 장치(100)는 카메라(140)를 통해 피검사자를 촬영하여 획득된 복수의 이미지 프레임을 제1 텍스트를 발화하는 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임과 비교할 수 있다. 이때, 피검사자의 입 모양과 캐릭터의 입 모양이 일정 수 이상의 이미지 프레임에 대해 일치하지 않는 경우, 제1 발성 샘플을 모방하는 피검사자의 음성이 입력되지 않은 것으로 식별될 수 있다.Specifically, the electronic device 100 may compare a plurality of image frames obtained by photographing the examinee through the camera 140 with a plurality of image frames representing the mouth shape of the character uttering the first text. At this time, if the mouth shape of the test subject and the mouth shape of the character do not match for a certain number of image frames or more, it may be identified that the test subject's voice imitating the first speech sample was not input.

또한, 마이크(130)를 통해 피검사자의 음성을 포함하는 사운드가 입력되면, 전자 장치(100)는 입력된 사운드를 구성하는 오디오 데이터를 적어도 하나의 텍스트로 변환하고(: 음성 인식), 변환된 텍스트를 상술한 제1 텍스트와 비교할 수 있다.In addition, when a sound including the voice of the test subject is input through the microphone 130, the electronic device 100 converts the audio data constituting the input sound into at least one text (: voice recognition) and converts the converted text into at least one text. can be compared with the first text described above.

이때, 변환된 텍스트가 상술한 제1 텍스트와 일치하지 않는 경우, 제1 발성 샘플을 모방하는 피검사자의 음성이 입력되지 않은 것으로 식별될 수 있다. 텍스트 간의 일치도는, 자연어 이해 기술에 따라 파악된 의미 관련 벡터에 따라 산출될 수도 있고, 각 텍스트를 구성하는 문자 간의 일치 정도에 따라 산출될 수도 있다.At this time, if the converted text does not match the above-described first text, it may be identified that the test subject's voice imitating the first speech sample was not input. The degree of correspondence between texts may be calculated according to meaning-related vectors identified according to natural language understanding technology, or may be calculated according to the degree of correspondence between characters constituting each text.

이렇듯, 전자 장치(100)는, 제1 발성 샘플과 일치하는 피검사자의 입 모양 및 음성이 모두 인식됨을 전제로, 제1 발성 샘플을 모방하는 피검사자의 음성이 입력된 것으로 식별할 수 있다.In this way, the electronic device 100 can identify that the test subject's voice imitating the first speech sample has been input, assuming that both the mouth shape and voice of the test subject that match the first speech sample are recognized.

그리고 제1 발성 샘플을 모방하는 피검사자의 음성이 입력된 것으로 식별되면, 전자 장치는 제2 발성 샘플을 제공할 수 있다(S224).And when the test subject's voice imitating the first vocalization sample is identified as being input, the electronic device may provide a second vocalization sample (S224).

이때 제2 발성 샘플은, 제1 발성 샘플과 달리 제2 텍스트에 대한 발성 샘플일 수 있으며, 제1 발성 샘플과 마찬가지로 입 모양의 이미지 및 오디오 데이터를 포함할 수 있다. 구체적으로, 제2 발성 샘플은 제2 텍스트를 발화하는 캐릭터의 입 모양의 이미지 및 제2 텍스를 발화하는 음성이 포함된 오디오 데이터를 포함할 수 있다.At this time, the second speech sample, unlike the first speech sample, may be a speech sample for a second text, and, like the first speech sample, may include an image of a mouth shape and audio data. Specifically, the second speech sample may include audio data including an image of the mouth of a character speaking the second text and a voice speaking the second text.

한편, 제1 발성 샘플이 제공된 이후 제1 발성 샘플을 모방하는 피검사자의 음성이 입력되지 않은 것으로 식별되면, 전자 장치는 제1 발성 샘플을 재차 제공할 수 있다(S223).Meanwhile, if it is identified that the test subject's voice imitating the first vocalization sample has not been input after the first vocalization sample is provided, the electronic device may provide the first vocalization sample again (S223).

이 경우, 전자 장치(100)는 제1 텍스트가 발화된 음성을 포함하는 제1 타켓 사운드를 제1 발성 샘플을 제공하는 단계보다 더 큰 음량으로 출력할 수도 있다.In this case, the electronic device 100 may output the first target sound including the voice in which the first text was spoken at a louder volume than the step of providing the first speech sample.

또한, 전자 장치(100)는 카메라 또는 외부 촬영 장치를 통해 피검사자가 촬영된 이미지를 획득할 수 있으며, 획득된 이미지를 바탕으로 카메라(140)를 기준으로 피검사자가 위치하는 방향을 식별할 수 있다.Additionally, the electronic device 100 can acquire an image of the subject being inspected through a camera or an external imaging device, and can identify the direction in which the subject is located based on the camera 140 based on the acquired image.

이때, 전자 장치(100)는 디스플레이(120)를 통해, 식별된 방향을 바라보면서 제1 텍스트를 발화하는 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임을 표시할 수 있다. 예를 들어, 피검사자가 카메라(140)를 기준으로 좌측에 위치하는 경우, 전자 장치(100)는 좌측을 바라보면서 발화하는 캐릭터를 표시할 수 있다.At this time, the electronic device 100 may display a plurality of image frames representing the mouth shape of the character uttering the first text while looking in the identified direction through the display 120. For example, when the test subject is located to the left of the camera 140, the electronic device 100 may display a character speaking while looking to the left.

또한, 전자 장치(100)는 스피커(110)를 통해, 제1 텍스트가 발화된 음성을 포함하는 제1 타켓 사운드를 앞서 제1 발성 샘플을 제공하는 단계보다 더 큰 음량으로 출력할 수 있다.Additionally, the electronic device 100 may output the first target sound including the voice in which the first text was uttered through the speaker 110 at a louder volume than in the previous step of providing the first speech sample.

또한, 전자 장치(100)는 피검사자가 카메라(140)를 바라보고 있음을 전제로, 발성 샘플을 제공할 수도 있다.Additionally, the electronic device 100 may provide a speech sample on the premise that the test subject is looking at the camera 140.

전자 장치(100)는 획득된 이미지를 통해 피검사자가 카메라(140)를 향해 바라보고 있는지의 여부를 식별할 수 있다.The electronic device 100 can identify whether the examinee is looking toward the camera 140 through the acquired image.

구체적으로 피검사자가 카메라(140)를 향해 있는 상태에서, 피검사자의 동공을 식별하고, 식별된 동공의 형상 또는 각도를 바탕으로 피검사자가 카메라(140)를 바라보고 있는지 여부를 식별할 수 있다.Specifically, when the examinee is facing the camera 140, the examinee's pupils can be identified, and whether the examinee is looking at the camera 140 can be identified based on the shape or angle of the identified pupil.

예시로, 전자 장치(100)는 피검사자의 방향이 식별되었을 때, 피검사자가 카메라(140)를 바라보고 있음을 전제로, 식별된 방향을 바라보며 발성하는 캐릭터로 구현되는 발성 샘플을 제공할 수 있다.As an example, when the direction of the examinee is identified, the electronic device 100 may provide a vocalization sample implemented as a character speaking while looking in the identified direction, assuming that the examinee is looking at the camera 140.

도 5는 본 개시의 일 실시 예에 따른 전자 장치 제어 방법을 설명하기 위한 흐름도이고, 도 6은 본 개시의 일 실시 예에 따른 전자 장치 제어 방법에서 완구 단말과의 통신을 바탕으로 완구 단말을 통해 사운드를 제공하는 동작을 설명하기 위한 도면이다.FIG. 5 is a flowchart for explaining a method of controlling an electronic device according to an embodiment of the present disclosure, and FIG. 6 is a flowchart of a method of controlling an electronic device according to an embodiment of the present disclosure, based on communication with a toy terminal through a toy terminal. This is a diagram to explain the operation of providing sound.

도 5 및 도 6을 참조하면, 전자 장치의 제어 방법으로, 상술한 S220 단계에서 추가로 수행된다.Referring to FIGS. 5 and 6, the control method of the electronic device is additionally performed in step S220 described above.

이는 자극 재활 단계(S610)로, 완구 단말(400)과의 통신을 바탕으로 완구 단말(400)을 제어하여, 완구 단말(400)을 통해 사운드를 제공할 수 있다.This is a stimulation rehabilitation step (S610), and the toy terminal 400 is controlled based on communication with the toy terminal 400 to provide sound through the toy terminal 400.

여기서 완구 단말(400)은 캐릭터 완구로, 전자 장치(100) 중 휴대 단말인 스마트 폰, 탭 등에 설치되는 전용 어플리케이션과 통신할 수 있다.Here, the toy terminal 400 is a character toy and can communicate with a dedicated application installed on the electronic device 100, such as a smart phone or tab, which is a portable terminal.

이때 완구 단말(400)은 외형적으로 외부의 화상을 촬영하기 위한 카메라, 음성을 출력하기 위한 스피커, 음성을 입력하기 위한 마이크 등을 포함하고, 이들 구성요소들은 모두 캐릭터 완구 몸체 안의 적당한 장소에 실장될 수 있다.At this time, the toy terminal 400 externally includes a camera for taking external images, a speaker for outputting voice, and a microphone for inputting voice, and all of these components are mounted at appropriate locations within the character toy body. It can be.

그리고 완구 단말(400)은 전자 장치(100)와 무선 통신망을 통해 접속할 수 있다.And the toy terminal 400 can be connected to the electronic device 100 through a wireless communication network.

여기서 무선 통신망은, 블루투스, 근거리 통신(short range communication) 기술로서 다른 표준 기술, 즉 RFID(Radio Frequenecy Identification), 적외선 통신(IDA; Infrared Data Association), UWD(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다.Here, the wireless communication network is Bluetooth, a short range communication technology, and other standard technologies such as RFID (Radio Frequency Identification), Infrared Data Association (IDA), UWD (Ultra Wideband), and ZigBee. It can be used.

또한 무선 통신망은, 원거리에 있는 스마트폰 어플리케이션과 통신 네트워크를 통해 통신할 수 있다.Additionally, a wireless communication network can communicate with a smartphone application located at a distance through a communication network.

예를 들어, 완구 단말이 위치하는 가정에서 WiFi에 연결하여 네트워크에 접속하고, 어플리케이션 사용자가 가정 밖에서 휴대하고 있는 스마트폰을 이용하여 통신할 수 있다.For example, a home where a toy terminal is located can connect to the network by connecting to WiFi, and the application user can communicate using a smartphone carried outside the home.

이 경우 무선통신모듈로서 무선 인터넷 기술로는 WLAN(Wireless LAN), Wi-Fi, Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용 될 수 있다.In this case, wireless Internet technologies such as WLAN (Wireless LAN), Wi-Fi, Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) can be used as wireless communication modules. .

또한 완구 단말(400)은 전원모듈이 완구의 몸체 내부에 수납되고, 완구 단말(400)의 내무 모듈들에 전력을 공급하도록 구성된다.In addition, the toy terminal 400 is configured to have a power module stored inside the body of the toy and supply power to internal modules of the toy terminal 400.

또한 자극 재활 단계(S610)는, 완구 단말(400)을 통해 제1 사운드를 제공할 수 있다. 여기서 제1 사운드는 일반 기계음(삐-, 징- 등), 말소리(까꿍, 우르르 등) 등으로, 전자 장치(100)의 오디오 데이터에 입력되어, 완구 단말(400)에 구비된 스피커를 통해 사운드를 제공할 수 일 수 있다. 따라서 완구 단말(400)을 통해 제1 사운드를 제공하여, 피검사자가 제1 사운드에 반응을 보이면서 제1 사운드와 동일한 소리를 내도록 유도할 수 있는 효과를 갖을 수 있다.Additionally, in the stimulation rehabilitation step (S610), the first sound may be provided through the toy terminal 400. Here, the first sound is a general mechanical sound (beep, jing, etc.), speech sound (peekaboo, rumble, etc.), which is input to the audio data of the electronic device 100 and is transmitted as a sound through a speaker provided in the toy terminal 400. can be provided. Therefore, by providing the first sound through the toy terminal 400, the test subject can be induced to respond to the first sound and make the same sound as the first sound.

또한 완구 단말(400)에서 제1 사운드가 제공된 이후 피검사자가 제1 사운드와 유사하게 소리낸 음성이 전자 장치에 입력된다. 그리고 전자 장치(100)에 입력된 음성이 완구 단말(400)을 통해 피검사자가 모방한 음성을 제2 사운드로 제공할 수 있다.Additionally, after the first sound is provided from the toy terminal 400, a voice produced by the test subject similar to the first sound is input to the electronic device. Additionally, the voice input to the electronic device 100 may provide a voice imitated by the test subject as a second sound through the toy terminal 400.

또한 전자 장치(100)는 마이크(130)를 통해 주변 환경과 관련된 적어도 하나의 외부 사운드를 획득할 수 있다.Additionally, the electronic device 100 may acquire at least one external sound related to the surrounding environment through the microphone 130.

여기서 외부 사운드는, 제1 사운드와 다른 음성 또는 환경 소리 등 일 수 있다.Here, the external sound may be a voice or environmental sound that is different from the first sound.

또한 전자 장치(100)는 획득된 외부 사운드를 바탕으로 제3 사운드를 생성할 수 있다. 또한 전자 장치(100)를 통해 생성된 제3 사운드를 완구 단말(400)의 스피커를 통해 제공할 수 있다.Additionally, the electronic device 100 may generate a third sound based on the acquired external sound. Additionally, the third sound generated through the electronic device 100 can be provided through the speaker of the toy terminal 400.

추가로, 전자 장치의 제어 방법은, 음성 조절 단계를 더 포함할 수 있다.Additionally, the method of controlling an electronic device may further include a voice control step.

음성 조절 단계에서, 전자 장치(100)는 웨어러블 단말과의 통신을 바탕으로 웨어러블 단말을 제어하여, 웨어러블 단말을 통해 진동을 제공할 수 있다.In the voice control step, the electronic device 100 may control the wearable terminal based on communication with the wearable terminal and provide vibration through the wearable terminal.

여기서 웨어러블(wearable) 단말은 예로 스마트워치로, 전자 장치(100) 가 스마트 폰, 태블릿 PC 등 휴대용 단말로 구현된 경우 전자 장치(100)에 설치되는 전용 어플리케이션과 통신할 수 있다.Here, the wearable terminal is, for example, a smartwatch, and when the electronic device 100 is implemented as a portable terminal such as a smart phone or tablet PC, it can communicate with a dedicated application installed on the electronic device 100.

또한, 웨어러블 단말은 전자 장치(100)와 무선 통신망을 통해 접속할 수 있다.Additionally, the wearable terminal can connect to the electronic device 100 through a wireless communication network.

또한, 음성 조절 단계에서, 전자 장치(100)는 적정한 음성의 크기에 해당하는 기준범위를 설정하고, 이후 피검사자의 음성의 크기가 입력되면, 적정 음성 크기의 기준범위와 피검사자의 음성의 크기를 비교할 수 있다.Additionally, in the voice adjustment step, the electronic device 100 sets a reference range corresponding to the appropriate voice level, and then, when the test subject's voice level is input, the reference range of the appropriate voice level and the test subject's voice level are compared. You can.

이 경우, 전자 장치(100)는 피검사자의 음성의 크기가 기준범위에 포함되는지 여부를 식별할 수 있다.In this case, the electronic device 100 can identify whether the level of the test subject's voice is within the reference range.

만약, 피검사자의 음성의 크기가 기준범위에 포함되지 않는 경우, 전자 장치(100)는 웨어러블 단말을 통해 진동을 제공할 수 있다.If the level of the test subject's voice is not within the reference range, the electronic device 100 may provide vibration through the wearable terminal.

일 예로, 웨어러블 단말이 팔찌 또는 워치 형태로 구현된 경우, 피검사자의 손목에 착용된 상황을 가정한다. 여기서, 기준범위가 30~60 데시벨(decibel)로 설정된 반면, 입력된 피검사자의 음성의 크기가 15 데시벨인 경우, 전자 장치(100)는 웨어러블 단말을 통해 “징징징-“, 또는 “징-“과 같은 진동이 제공될 수 있다.As an example, if the wearable terminal is implemented in the form of a bracelet or watch, it is assumed that it is worn on the wrist of the subject. Here, while the reference range is set to 30 to 60 decibels, when the input level of the test subject's voice is 15 decibels, the electronic device 100 sends “Jingjingjing-“, or “Jing-“ through the wearable terminal. The same vibration may be provided.

또한, 전자 장치(100)는 기준범위와 피검사자의 음성의 크기의 차이 값을 계산할 수도 있다.Additionally, the electronic device 100 may calculate the difference between the reference range and the loudness of the test subject's voice.

이 경우, 피검사자의 음성의 크기와 기준범위 간의 차이 값이 클수록 진동의 세기가 점차 커질 수 있다. 반면, 피검사자의 음성의 크기와 기준범위 간의 차이 값이 작을수록 진동의 세기가 점차 작아질 수 있다.In this case, as the difference value between the level of the test subject's voice and the reference range increases, the intensity of the vibration may gradually increase. On the other hand, as the difference between the level of the test subject's voice and the reference range becomes smaller, the intensity of vibration may gradually decrease.

또 다른 예로, 복수의 웨어러블 단말이 활용될 수도 있다.As another example, multiple wearable terminals may be used.

예를 들어, 웨어러블 단말을 팔찌 또는 워치 형태로 가정하고, 피검사자의 왼쪽 손목(: 제1 웨어러블 장치)과, 오른쪽 손목(: 제2 웨어러블 장치)에 각각 착용된 상황을 가정할 수 있다.For example, it can be assumed that the wearable terminal is in the form of a bracelet or watch, and is worn on the test subject's left wrist (: first wearable device) and right wrist (: second wearable device), respectively.

여기서, 피검사자의 음성의 크기가 기준범위를 벗어나는 경우, 전자 장치(100)는 제1 웨어러블 단말 또는 제2 웨어러블 단말을 통해 진동을 제공할 수 있다. 구체적으로, 피검사자의 음성의 크기가 기준범위보다 큰 경우, 제1 웨어러블 단말을 통해 진동이 제공되고, 피검사자의 음성의 크기가 기준점위보다 작은 경우, 제2 웨어러블 단말을 통해 진동이 제공될 수 있다.Here, when the level of the test subject's voice is outside the reference range, the electronic device 100 may provide vibration through the first wearable terminal or the second wearable terminal. Specifically, if the level of the test subject's voice is greater than the reference range, vibration may be provided through the first wearable terminal, and if the level of the test subject's voice is smaller than the reference range, vibration may be provided through the second wearable terminal. .

도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성 및 동작을 설명하기 위한 블록도이다.Figure 7 is a block diagram for explaining the configuration and operation of an electronic device according to various embodiments of the present disclosure.

도 7을 참조하면, 전자 장치(100)는, 스피커(110), 디스플레이(120), 마이크(130), 카메라(140), 프로세서(150), 메모리(160), 통신부(170), 사용자 입력부(180) 등을 더 포함할 수 있다.Referring to FIG. 7, the electronic device 100 includes a speaker 110, a display 120, a microphone 130, a camera 140, a processor 150, a memory 160, a communication unit 170, and a user input unit. (180) may further be included.

스피커(110), 디스플레이(120), 마이크(130), 카메라(140)는 도 1을 참조하여 상술한 구성과 동일할 수 있다.The speaker 110, display 120, microphone 130, and camera 140 may have the same configuration as described above with reference to FIG. 1.

메모리(160)는 전자 장치(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 전자 장치(100)의 구성요소와 관련된 적어도 하나의 인스트럭션 또는 데이터를 저장하기 위한 구성이다.The memory 160 is configured to store an operating system (OS) for controlling the overall operation of the components of the electronic device 100 and at least one instruction or data related to the components of the electronic device 100. .

프로세서(150)는 메모리(160)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 본 개시의 다양한 실시 예들에 따른 동작을 수행할 수 있다.The processor 150 may perform operations according to various embodiments of the present disclosure by executing at least one instruction stored in the memory 160.

일 예로, 메모리(160)는 본 개시에 따른 상술한 전자 장치 제어 방법을 수행하기 위한 적어도 하나의 애플리케이션에 대한 정보를 포함할 수 있다. 이때, 프로세서(150)는 해당 애플리케이션을 실행함으로써 본 개시의 다양한 실시 예에 따른 전자 장치 제어 방법을 수행할 수 있다.As an example, the memory 160 may include information about at least one application for performing the above-described electronic device control method according to the present disclosure. At this time, the processor 150 may perform the electronic device control method according to various embodiments of the present disclosure by executing the corresponding application.

사용자 입력부(180)는 전자 장치(100)에 대한 사용자의 명령 및/또는 전자 장치(100)의 동작에 필요한 사용자 정보를 수신하기 위한 구성이다. The user input unit 180 is configured to receive user commands for the electronic device 100 and/or user information required for operation of the electronic device 100.

사용자 입력부(180)는 하나 이상의 버튼, 터치스크린, 마이크, 카메라 등 다양한 구성을 포함할 수 있다.The user input unit 180 may include various components such as one or more buttons, a touch screen, a microphone, and a camera.

일 예로, 사용자 입력부(180)를 통해 상술한 애플리케이션을 실행하기 위한 사용자 명령이 수신되면, 프로세서(150)는 본 개시에 따른 전자 장치 제어 방법을 수행할 수 있다.For example, when a user command for executing the above-described application is received through the user input unit 180, the processor 150 may perform the electronic device control method according to the present disclosure.

통신부(170)는 전자 장치(100)가 적어도 하나의 외부 장치와 통신을 수행하기 위한 구성으로 회로를 포함할 수 있다.The communication unit 170 may include a circuit that allows the electronic device 100 to communicate with at least one external device.

통신부(170)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(170)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.The communication unit 170 may be connected to an external device based on a network implemented through wired communication and/or wireless communication. At this time, the communication unit 170 may be connected directly to an external device, but may also be connected to an external electronic device through one or more external servers (ex. Internet Service Provider (ISP)) that provide a network.

네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.Depending on the area or size, the network may be a personal area network (PAN), a local area network (LAN), or a wide area network (WAN). Depending on the openness of the network, it may be an intranet, It may be an extranet, or the Internet.

무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communications include LTE (long-term evolution), LTE-A (LTE Advance), 5G (5th Generation) mobile communications, CDMA (code division multiple access), WCDMA (wideband CDMA), UMTS (universal mobile telecommunications system), and WiBro. At least one of the following communication methods: (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), and Zigbee. It can be included.

유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. 여기서, 통신부는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and Thunderbolt. Here, the communication unit may include a network interface or network chip according to the wired or wireless communication method described above. Meanwhile, the communication method is not limited to the examples described above and may include newly emerging communication methods as technology develops.

일 예로, 프로세서는 본 개시에 따른 전자 장치 제어 방법을 수행하기 위한 애플리케이션을 실행함으로써 통신부를 통해 적어도 하나의 외부 서버와 연결될 수 있다. As an example, the processor may be connected to at least one external server through a communication unit by executing an application for performing the electronic device control method according to the present disclosure.

이때, 프로세서(150)는 통신부(170)를 통해 외부 서버로부터 애플리케이션과 관련된 정보(ex. 웹 페이지 등)를 수신할 수 있다.At this time, the processor 150 may receive application-related information (ex. web page, etc.) from an external server through the communication unit 170.

한편, 도시되지는 않았으나, 전자 장치(100)는 스피커 외에 (유선) 오디오 출력 단자를 더 포함할 수도 있다. Meanwhile, although not shown, the electronic device 100 may further include a (wired) audio output terminal in addition to the speaker.

이 경우, 전자 장치(100)는 음성 등의 사운드를 포함하는 오디오 신호를 오디오 출력 단자를 통해 적어도 하나의 스피커 장치(ex. 이어폰/헤드폰, 스피커 등)로 전송할 수 있다. 그 결과, 해당 스피커 장치에서 사운드가 출력될 수 있다.In this case, the electronic device 100 may transmit an audio signal including sound such as voice to at least one speaker device (e.g., earphone/headphone, speaker, etc.) through an audio output terminal. As a result, sound can be output from the corresponding speaker device.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, embodiments described herein may be implemented in the processor itself. According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules described above may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다. Meanwhile, computer instructions or computer programs for performing processing operations in the electronic device 100 according to various embodiments of the present disclosure described above are non-transitory computer-readable medium. It can be saved in . Computer instructions or computer programs stored in such non-transitory computer-readable media, when executed by a processor of a specific device, cause the specific device to perform processing operations in the electronic device 100 according to the various embodiments described above.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer-readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specific examples of non-transitory computer-readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

한편, 상술한 다양한 실시 예에 따른 제어 방법에 있어서, 검사 및 재활과 관련된 이하 다양한 지침이 활용될 수 있다. 이하 지침을 구성하는 각각의 텍스트는 전자 장치(100)를 통해 시각적/청각적으로 제공될 수 있으며, 재활 과정에서 전자 장치(100)의 동작에 적용된 것일 수도 있다.Meanwhile, in the control method according to the various embodiments described above, the following various guidelines related to inspection and rehabilitation may be used. Each text constituting the following guidelines may be provided visually/audibly through the electronic device 100, and may be applied to the operation of the electronic device 100 during the rehabilitation process.

1. 보호자 상담1. Guardian consultation

A. 재활 프로그램을 시작하기 전 2개 분야의 질문이 충족된 보호자 상담 실시A. Before starting the rehabilitation program, guardian consultation is conducted with questions in two areas met.

i. 정보상담(Thinking mind)i. Information consultation (Thinking mind)

ii. 감정적 지시상담(Feeling mind)ii. Emotional directive counseling (Feeling mind)

2. 재활 기초선 확인 검사 실시2. Conduct rehabilitation baseline confirmation test

A. 발성 및 말소리 영역A. Voice and speech area

i. Korean Infant Vocal and Articulatory Development List (KIVAD)를 사용하여 전연령대의 영유아의 현재 발성 발달 단계를 확인함i. Use the Korean Infant Vocal and Articulatory Development List (KIVAD) to determine the current vocal development stage of infants and toddlers of all ages.

ii. 비디오 녹화를 분석하는 방법으로 검사 및 분석을 진행함ii. Inspection and analysis is conducted by analyzing video recordings.

B. 듣기 및 의사소통 영역B. Listening and Communication Area

i. Infant-Toddler Auditory & Communicative Behavioral Checklist (IT-ACBA)를 이용하여 부모 설문지인 의사소통행동 체크리스트를 이용하여 0~26개월 영유아의 의사소통 행동 발달을 확인함i. The Infant-Toddler Auditory & Communicative Behavioral Checklist (IT-ACBA) is used to check the development of communicative behavior in infants and toddlers aged 0 to 26 months using the communication behavior checklist, a parent questionnaire.

ii. 부모 설문지인 Infant-Toddler Meaningful Auditory Integration Scale (IT-MAIS)를 이용하여 0~24개월 영유아의 듣기기술 발달을 확인함ii. The development of listening skills in infants and toddlers aged 0 to 24 months was checked using the Infant-Toddler Meaningful Auditory Integration Scale (IT-MAIS), a parent questionnaire.

1. 이 검사는 영유아의 난청 확진 후 보조기기(보청기, 인공와우) 착용 후 검사를 실시함1. This test is conducted after confirming hearing loss in infants and wearing assistive devices (hearing aids, cochlear implants).

C. 전반적 발달 영역C. General areas of development

i. 부모 설문지인 Developmental assessment for the Early intervention Program Planning (DEP)를 이용하여 0~36개월 영유아의 대근육, 소근육, 인지, 사회정서 등의 전반적 발달을 확인함i. The Parent Questionnaire, Developmental assessment for the Early intervention Program Planning (DEP), is used to check the overall development of infants and toddlers aged 0 to 36 months in terms of gross motor skills, fine motor skills, cognition, and social emotions.

D. 언어 영역D. Language area

i. 부모 설문지인 Korean-MacArthur Bates Communicative Development Inventories (K-MBCDI)를 이용하여 8~36개월 영유아의 어휘 발달을 확인함i. The vocabulary development of infants and toddlers aged 8 to 36 months was checked using the Korean-MacArthur Bates Communicative Development Inventories (K-MBCDI), a parent questionnaire.

ii. 부모 인터뷰인 Sequenced Language Scale for Infants (SELSI)를 이용하여 4~36개월 영유아의 전반적 언어발달을 확인함ii. The overall language development of infants and toddlers aged 4 to 36 months is checked using the Sequenced Language Scale for Infants (SELSI), a parent interview.

iii. 비디오 녹화를 분석하는 방식으로 진행하는 CSBS DP를 이용하여 6~24개월 영유아의 의사소통 기능 발달을 확인함iii. The CSBS DP, which is conducted by analyzing video recordings, is used to check the development of communication skills in infants and toddlers aged 6 to 24 months.

3. 청각언어인지재활 KARI의 구체적 진행3. Specific progress of auditory language cognitive rehabilitation KARI

A. KIVAD와 IT-ACBC 적용으로 재활 계획 구상 및 회기 계획서 작성A. Conceive a rehabilitation plan and prepare a session plan by applying KIVAD and IT-ACBC

B. KARI의 세부과정을 실시함B. Implementing KARI’s detailed process

i. 청각장애 영유아에게 정상 영유아의 발성 발달의 목록을 기준으로 초기 발성을 집중적으로 들려주고 따라하도록 함i. For hearing-impaired infants and toddlers, listen to the early vocalizations intensively and have them imitate them based on the list of vocalization development of normal infants and toddlers.

ii. 짧고 재미있게 받아들이는 모델링 실시(Short fun input for modeling, SFIM)ii. Short fun input for modeling (SFIM)

1. 말이나 발성 모델링을 1초간 제시하고 4초간 아이의 눈을 쳐다보면서 모방을 기다리는 행동을 통해 아이가 따라 하도록 격려함1. Present speech or vocal modeling for 1 second and encourage the child to imitate by looking into the child's eyes for 4 seconds and waiting for imitation.

2. 위처럼 반복적으로 짧게 약 1초간 제시하는 5초 단위의 12개의 자극과 모방 유도시간으로 구성된 1분간의 모델링을 하루 중 아이가 기분이 좋고 모델링 자세가 되어 있을 때를 찾아 하루 5회 이상 제시함2. Present 1 minute of modeling, consisting of 12 stimuli of 5 seconds each and an imitation induction period, repeatedly presented briefly as above for about 1 second, at least 5 times a day when the child is in a good mood and in a modeling position. box

iii. 애착육아법을 실시함iii. Attachment parenting method implemented

1. 포대기를 이용하여 부모의 체온과 심장박동을 아기가 느끼게 해주어 자궁과 유사한 환경 조성하기1. Create an environment similar to the womb by allowing the baby to feel the parent’s body temperature and heartbeat using swaddles.

2. 몸짓이나 언어 전달에 최적 방법인 스킨십을 온돌의 생활패턴 속에서 자연스럽게 적용하기2. Naturally applying skinship, which is the optimal way to convey gestures or language, within the Ondol lifestyle.

3. 안고 자는 습관으로 수면 시 안정된 환경 조성하기3. Create a stable environment when sleeping through the habit of hugging.

iv. 전통육아법을 실시함iv. Implementing traditional parenting methods

1. 우리 민족의 전통 육아법인 단동십훈(불아불아, 시상시상, 도리도리, 지암지암, 곤지곤지, 섬마섬마, 업비업비, 아함아함, 짝짝궁짝짝궁, 질라아비 휠휠의)을 이용하여 동작놀이를 실시함1. Movement play using our people’s traditional parenting method, Dandong Siphun (Bul-a-Bul-a, Sang-sang-sang, Dori-dori, Jiam-jiam, Gonji-gonji, Seomma-seomma, Upbi-eopbi, Aham-aham, Clap Clap Clap Clap Gung, Zillaabi Wheel Wheel) carried out

2. 각 훈의 의미에 따른 동작을 적절한 월령의 발달에 따라 다르게 적용하여 실시함2. The movements according to the meaning of each hun are applied and performed differently according to the development of the appropriate monthly age.

v. 청각구어법(Auditory Verbal Therapy, AVT)등 해외 영유아 재활 기법 적용v. Application of overseas infant rehabilitation techniques such as Auditory Verbal Therapy (AVT)

1. 아동의 부모나 주 양육자가 적극적으로 중재에 참여하여 아동이 자연스럽게 듣고 말하며 발달할 수 있게 하는 조기 청각언어 재활 프로그램을 실시함1. An early auditory language rehabilitation program is implemented in which the child's parents or primary caregivers actively participate in mediation so that the child can naturally hear, speak, and develop.

2. 해외 영유아 재활 기법의 예 중 하나인 SKI-HI는 순수청각장애만이 아닌 중복장애도 다루고 있고, 구성 및 일부 내용을 참고함2. SKI-HI, one of the examples of overseas infant rehabilitation techniques, covers not only pure hearing impairment but also overlapping disabilities, and is referenced for its composition and some contents.

3. 보청기나 인공와우의 기능확인이 가능하며 주파수별 기본 모음 (음), (우), (아), (이), (쉬), (스) 6개 음소로 구성된 Ling 6 측정을 실시함3. It is possible to check the function of a hearing aid or cochlear implant by measuring Ling 6, which consists of the 6 basic vowels (um), (right), (a), (ii), (sh), and (s) by frequency.

4. Ling 6 측정 시 국내 영아에게 적절한 장난감, 소리, 놀이, 노래 등을 이용하여 재구성한 측정법을 사용함4. When measuring Ling 6, a reconstructed measurement method using toys, sounds, games, songs, etc. appropriate for domestic infants is used.

vi. 월령별로 다양한 놀이와 장난감을 이용한 모델링 실시vi. Modeling using various games and toys for each age group

1. 0~2개월1. 0~2 months

A. 아기와 조용한 곳에 누워 눈을 마주보며 아기의 이름을 불러줌A. Lie down in a quiet place with your baby, make eye contact, and call your baby’s name.

B. 소리가 나는 장난감을 들려주고 소리에 반응을 보이면 기다렸다가 아기와 똑같은 소리를 냄B. Give the child a toy that makes a sound, wait for the child to respond to the sound, and then make the same sound as the baby.

C. 몸을 이용한 놀이로 소리와 함께 아기를 자극함C. Stimulate the baby with sound through physical play

2. 3개월2. 3 months

A. 깨지지 않는 거울을 준비하여 함께 거울을 보며 아기의 이름을 불러줌A. Prepare an unbreakable mirror and look at the mirror together and call the baby’s name.

B. 빠이빠이, 까꿍 놀이를 거울을 보며 시행하고 아기의 응답에 즉각적 칭찬으로 긍정적 발성모델을 유도함B. Play bye-bye and peek-a-boo while looking at a mirror and encourage a positive vocalization model by immediately praising the baby's response.

3. 4개월은 아기의 발성을 모방하고 다른 환경소리를 들려주며 발성을 유도함3. For 4 months, imitate the baby's vocalizations and induce vocalizations by playing different environmental sounds.

4. 5개월은 '주세요' 동작으로 아기가 좋아하는 장난감을 주고 받으며 차례차례하기의 의사소통 관습을 익힘4. At 5 months, the baby learns the communication custom of taking turns by giving and receiving his or her favorite toy using the ‘please’ motion.

5. 6개월5. 6 months

A. 종이나 소리 나는 장난감을 이용하여 귀와 수평레벨의 소리방향 찾기놀이를 실시함A. Use paper or sound toys to find the direction of sound at the ear level and horizontal level.

B. 그룹을 이용하여 다른 아기와의 교류 속에서 발성을 유도함B. Using groups to encourage vocalization through interaction with other babies

6. 7개월은 두드려서 소리가 나는 장난감이나 도구로 아기의 듣기능력과 발성능력을 향상시킴6. At 7 months, improve your baby’s listening and vocal skills with toys or tools that make sounds when struck.

7. 8개월은 소리가 나는 공을 굴려가며 의사소통을 유도함7. For 8 months, communication is encouraged by rolling a sounding ball.

8. 9개월은 아기를 식탁의자에 앉히고 던지기 놀이로 흥미와 언어를 유발함8. At 9 months, place the baby on a dining chair and play toss to stimulate interest and language.

9. 10개월은 까꿍놀이, 찾기놀이, 노래와 율동 등을 실시함9. For 10 months, peek-a-boo, seek-and-find games, songs and movements are performed.

10. 11개월은 동물소리, 의성어와 관련된 놀이감을 이용하여 가장 쉬운 언어를 유도함10. At 11 months, the easiest language is induced using toys related to animal sounds and onomatopoeia.

11. 동작과 언어를 결합시키고, 상징적인 언어에 코멘트를 넣어 짧은 문장을 완성하여 들려줌11. Combine movement and language, add comments to symbolic language, and complete short sentences.

4. 부모 상담 및 교육자료 제공4. Provision of parental counseling and educational materials

A. 일상생활에서 상황 별로 영유아에게 청각언어 자극을 제시하는 방법을 엮은 부모 교육 자료인 '우리아이와 매일매일 어떻게 말할까요?'를 제공함A. We provide ‘How should we talk to my child every day?’, a parent education material that compiles ways to present auditory language stimulation to infants and toddlers according to situations in daily life.

i. 총 16개의 상황은 '아침에 일어날 때', '기저귀 갈 때', '목욕 전후', '마사지 할 때', '젖 먹일 때', '옷을 입고 벗을 때', '아이에게 밥 먹일 때', '책 읽기', '공놀이', '아이 인형이나 곰 인형 가지고 놀기', '퍼즐 놀이', '소꿈놀이', '놀이터에서 놀기(미끄럼틀, 그네)', '색깔찰흙 놀이', '빨래하기', '산책하기'가 포함됨 i. A total of 16 situations are ‘when waking up in the morning’, ‘when changing diapers’, ‘before and after bathing’, ‘when massaging’, ‘when breastfeeding’, ‘when putting on and taking off clothes’, and ‘when feeding the child’. , 'Reading a book', 'Playing with a ball', 'Playing with a child's doll or teddy bear', 'Playing a puzzle', 'Playing with a cow', 'Playing at the playground (slide, swing)', 'Playing with colored clay', 'Doing laundry. ', includes 'taking a walk'

B. 질문지를 통해 가정에서 부모나 주 양육자가 실시하는 청능재활 과정 중 궁금한 모든 내용과 난청 및 육아 전반에 대한 질문을 실시간으로 매일 메모하게 한 후 재활 담당자가 답변하여 아동의 발달과정과 시기에 적절한 재활과정이 되도록 전문적 상담을 연속적으로 진행함B. Through a questionnaire, parents or primary caregivers are asked to write down all the questions they have during the hearing rehabilitation process at home, as well as questions about hearing loss and parenting in general, in real time every day, and then the rehabilitation staff member answers them in an appropriate manner for the child's development process and time. Professional counseling is provided continuously to ensure rehabilitation.

i. '궁금해요'를 이용하여 아동 재활 과정 중 궁금한 내용 무엇이든 일주일 간격으로 질문을 받도록 함i. Use 'I'm curious' to receive questions about anything you have questions about during the child rehabilitation process every week.

C. KARI 일일점검표를 제공하여 부모가 매일 영유아에게 집중적인 언어자극을 준 상황과 내용, 자발적인 발성 및 모델링 시 발성을 기록하도록 함C. KARI daily checklist is provided so that parents can record the situations and contents of intensive language stimulation to infants and toddlers, spontaneous vocalizations, and vocalizations during modeling every day.

D. KARI 월별점검표를 제공함D. KARI monthly checklist provided

i. 1~3, 4~5, 6~7, 8~9, 10~11, 12~13, 14~15, 16~17, 18~19, 20~21, 22~24개월로 월령 구간을 나눈 월령 발성 목표를 제시하고 '단동십훈' 과 '애착육아법'등을 포함하여 가정에서의 청능재활 방법을 제시함i. Monthly age divided into 1~3, 4~5, 6~7, 8~9, 10~11, 12~13, 14~15, 16~17, 18~19, 20~21, and 22~24 months. Speech goals are presented and hearing rehabilitation methods at home are presented, including 'Dandong Siphun' and 'Attachment Parenting Method'.

E. 영상교육자료를 제공함E. Provide video education materials

i. 듣기상징행동(Listening signature behavior) 8단계는 난청과 보장구에 대한 이해, 깨어있는 모든 시간에 보장구 사용하기, 보장구 관리, 소리 듣기에 집중하기, 소리에 대한 의미 있는 경험 제공하기, 소리에 대한 집중 유도하기, 소리 변별 가르치기, 언어의 소리와 의미 연결시키기 등이 포함됨i. The eight stages of listening signature behavior are understanding hearing loss and orthotics, using the orthotics during all waking hours, managing the orthotics, focusing on hearing sounds, providing meaningful experiences with sounds, and inducing concentration on sounds. Includes learning, teaching sound discrimination, and connecting the sounds and meanings of language.

5. 전문가용 자료 확인 및 구비5. Check and prepare professional materials

A. 회기 계획 및 보고서 A. Session Plan and Report

i. 영유아의 기본정보, 장단기 계획, 회기 전 점검목록과 부모교육자료 제공 여부, 보장구 상태, Ling 6 Sound 결과를 매회기 표기할 수 있도록 구성됨i. It is designed to display the infant's basic information, short-term and long-term plans, pre-session checklist and parent education materials, status of orthotic devices, and Ling 6 Sound results at each session.

ii. 회기의 목표, 도구, 결과와 회기에 보였던 영유아의 특징 및 부모보고를 기록할 수 있는 비고란이 포함됨ii. A notes section is included to record the goals, tools, and results of the session, as well as infant and toddler characteristics seen in the session and parent reports.

B. 영유아의 청각/언어재활 가이드라인B. Guidelines for hearing/speech rehabilitation of infants and toddlers

i. 청각장애 영유아 청능재활 시 필수적으로 숙지해야할 내용을 4가지 영역으로 구분하여 구성됨i. Contents that are essential to be aware of when performing auditory rehabilitation for hearing-impaired infants are divided into four areas.

1. 보장구1. Orthotics

2. 영역발달평가2. Area development assessment

3. 재활 진행 및 환경3. Rehabilitation progress and environment

4. 소리자극의 종류4. Types of sound stimulation

6. 재활 후 진전도 확인 검사 실시6. Conduct tests to check progress after rehabilitation

A. 발성 및 말소리 영역A. Vocalization and speech area

i. Korean Infant Vocal and Articulatory Development List (KIVAD)를 사용하여 전연령대의 영유아의 현재 발성 발달 단계를 확인함i. Use the Korean Infant Vocal and Articulatory Development List (KIVAD) to determine the current vocal development stage of infants and toddlers of all ages.

ii. 비디오 녹화를 분석하는 방법으로 검사 및 분석을 진행함ii. Inspection and analysis is conducted by analyzing video recordings.

B. 듣기 및 의사소통 영역B. Listening and Communication Area

i. Infant-Toddler Auditory & Communicative Behavioral Checklist (IT-ACBA)를 이용하여 부모 설문지인 의사소통행동 체크리스트를 이용하여 0~26개월 영유아의 의사소통 행동 발달을 확인함i. The Infant-Toddler Auditory & Communicative Behavioral Checklist (IT-ACBA) is used to check the development of communicative behavior in infants and toddlers aged 0 to 26 months using the communication behavior checklist, a parent questionnaire.

ii. 부모 설문지인 Infant-Toddler Meaningful Auditory Integration Scale (IT-MAIS)를 이용하여 0~24개월 영유아의 듣기기술 발달을 확인함ii. The development of listening skills in infants and toddlers aged 0 to 24 months was checked using the Infant-Toddler Meaningful Auditory Integration Scale (IT-MAIS), a parent questionnaire.

1. 이 검사는 영유아의 난청 확진 후 보조기기(보청기, 인공와우) 착용 후 검사를 실시함1. This test is conducted after confirming hearing loss in infants and wearing assistive devices (hearing aids, cochlear implants).

C. 전반적 발달 영역C. Global Development Area

i. 부모 설문지인 Developmental assessment for the Early intervention Program Planning (DEP)를 이용하여 0~36개월 영유아의 대근육, 소근육, 인지, 사회정서 등의 전반적 발달을 확인함i. The Parent Questionnaire, Developmental assessment for the Early intervention Program Planning (DEP), is used to check the overall development of infants and toddlers aged 0 to 36 months in terms of gross motor skills, fine motor skills, cognition, and social emotions.

D. 언어 영역D. Language area

i. 부모 설문지인 Korean-MacArthur Bates Communicative Development Inventories (K-MBCDI)를 이용하여 8~36개월 영유아의 어휘 발달을 확인함i. The vocabulary development of infants and toddlers aged 8 to 36 months was checked using the Korean-MacArthur Bates Communicative Development Inventories (K-MBCDI), a parent questionnaire.

ii. 부모 인터뷰인 Sequenced Language Scale for Infants (SELSI)를 이용하여 4~36개월 영유아의 전반적 언어발달을 확인함ii. The overall language development of infants and toddlers aged 4 to 36 months is checked using the Sequenced Language Scale for Infants (SELSI), a parent interview.

iii. 비디오 녹화를 분석하는 방식으로 진행하는 CSBS DP를 이용하여 6~24개월 영유아의 의사소통 기능 발달을 확인함iii. The CSBS DP, which is conducted by analyzing video recordings, is used to check the development of communication skills in infants and toddlers aged 6 to 24 months.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been shown and described, but the present disclosure is not limited to the specific embodiments described above, and may be used in the technical field pertaining to the disclosure without departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical ideas or perspectives of the present disclosure.

100: 전자 장치 110: 스피커
120: 디스플레이 130: 마이크
140 : 카메라 150 : 프로세서
100: electronic device 110: speaker
120: Display 130: Microphone
140: Camera 150: Processor

Claims (10)

영유아의 청각 언어인지 재활을 위한 전자 장치의 제어 방법에 있어서,
피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사전 검사 단계;
상기 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘텐츠를 제공하는, 발성 재활 단계; 및
상기 발성 재활 단계 이후, 상기 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사후 검사 단계;를 포함하고,
상기 발성 재활 단계는,
제1 발성 샘플을 제공하는 단계;
상기 제1 발성 샘플이 제공된 시점으로부터 일정 시간 내에 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력되는지 여부를 식별하는 단계;
상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되면, 제2 발성 샘플을 제공하는 단계; 및
상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되지 않으면, 상기 제1 발성 샘플을 재차 제공하는 단계;를 포함하는, 전자 장치의 제어 방법.
In a method of controlling an electronic device for auditory language cognitive rehabilitation of infants and young children,
A pre-test step of analyzing the video recorded by the test subject to identify the test subject's ability level for at least one of vocalization, listening, development, and communication;
A vocal rehabilitation step, providing rehabilitation content including a plurality of vocalization samples based on the identified ability level; and
After the vocal rehabilitation step, a post-test step of analyzing the video recorded by the test subject to identify the test subject's ability level for at least one of vocalization, listening, development, and communication,
The vocal rehabilitation stage is,
providing a first speech sample;
Identifying whether the test subject's voice imitating the first vocalization sample is input within a certain time from when the first vocalization sample is provided;
providing a second speech sample when the test subject's voice imitating the first speech sample is identified as being input; and
If the test subject's voice imitating the first speech sample is not identified as being input, providing the first speech sample again.
제1항에 있어서,
상기 제1 발성 샘플을 제공하는 단계는,
디스플레이를 통해 제1 텍스트를 발화하는 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임을 표시하고,
스피커를 통해 상기 제1 텍스트가 발화된 음성을 포함하는 제1 타겟 사운드를 출력하고,
상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력되는지 여부를 식별하는 단계는,
카메라를 통해 상기 피검사자를 촬영하여 획득된 복수의 이미지 프레임을 상기 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임과 비교하고,
마이크를 통해 상기 피검사자의 음성을 포함하는 사운드가 입력되면, 상기 입력된 사운드를 구성하는 오디오 데이터를 적어도 하나의 텍스트로 변환하고, 상기 변환된 텍스트를 상기 제1 텍스트와 비교하는, 전자 장치의 제어 방법.
According to paragraph 1,
The step of providing the first vocalization sample includes:
Displaying a plurality of image frames representing the mouth shape of the character speaking the first text through the display,
Outputting a first target sound including a voice in which the first text was uttered through a speaker,
The step of identifying whether the test subject's voice imitating the first speech sample is input,
Comparing a plurality of image frames obtained by photographing the subject through a camera with a plurality of image frames representing the mouth shape of the character,
When a sound including the voice of the test subject is input through a microphone, control of an electronic device that converts the audio data constituting the input sound into at least one text and compares the converted text with the first text. method.
제2항에 있어서,
상기 제1 발성 샘플을 재차 제공하는 단계는,
상기 카메라를 통해 획득된 이미지를 바탕으로 상기 피검사자의 방향을 식별하고,
상기 디스플레이를 통해, 상기 식별된 방향을 바라보면서 상기 제1 텍스트를 발화하는 상기 캐릭터의 입 모양을 나타내는 복수의 이미지 프레임을 표시하고,
상기 스피커를 통해, 상기 제1 텍스트가 발화된 음성을 포함하는 제1 타켓 사운드를 상기 제1 발성 샘플을 제공하는 단계보다 더 큰 음량으로 출력하는, 전자 장치의 제어 방법.
According to paragraph 2,
The step of providing the first vocalization sample again includes:
Identifying the direction of the examinee based on the image acquired through the camera,
displaying, through the display, a plurality of image frames representing the shape of the mouth of the character uttering the first text while looking in the identified direction;
A method of controlling an electronic device, outputting a first target sound including a voice in which the first text was uttered through the speaker at a louder volume than the step of providing the first speech sample.
제1항에 있어서,
상기 전자 장치의 제어 방법은,
상기 발성 재활 단계 이후, 완구 단말과의 통신을 바탕으로 상기 완구 단말을 제어하여, 상기 완구 단말을 통해 사운드를 제공하는, 자극 재활 단계를 포함하고,
상기 자극 재활 단계는,
상기 완구 단말을 통해 제1 사운드를 제공하는 단계; 및
상기 제1 사운드가 제공된 이후 상기 피검사자의 음성이 입력되면, 상기 피검사자의 음성을 모방하는 제2 사운드를 제공하는 단계;를 포함하는, 전자 장치의 제어 방법.
According to paragraph 1,
The control method of the electronic device is,
After the vocal rehabilitation step, a stimulation rehabilitation step of controlling the toy terminal based on communication with the toy terminal and providing sound through the toy terminal,
The stimulation rehabilitation stage is,
providing a first sound through the toy terminal; and
When the voice of the test subject is input after the first sound is provided, providing a second sound that imitates the voice of the test subject.
삭제delete 제1항에 있어서,
상기 사전 검사 단계는,
상기 비디오에 포함된 하나 이상의 이미지 프레임을 분석하여, 상기 피검사자 및 보호자를 식별하는 단계;
상기 피검사자 및 상기 보호자 각각의 입 모양을 시간 별로 인식하는 단계;
상기 피검사자 및 상기 보호자 각각의 시간 별 입 모양을 바탕으로, 상기 비디오에 포함된 오디오 데이터를 상기 피검사자의 음성을 포함하는 시간 구간 및 상기 보호자의 음성을 포함하는 시간 구간으로 구분하는 단계;
제1 시간 구간에 입력된 상기 보호자의 음성이 변환된 제1 텍스트를, 상기 제1 시간 구간에 이어지는 제2 시간 구간에 입력된 상기 피검사자의 음성이 변환된 제2 텍스트와 비교하는, 전자 장치의 제어 방법.
According to paragraph 1,
The pre-test step is,
Analyzing one or more image frames included in the video to identify the subject and the guardian;
Recognizing the mouth shape of each of the test subject and the guardian over time;
Based on the mouth shape of each of the test subject and the guardian at each time, dividing the audio data included in the video into a time section including the voice of the test subject and a time section including the voice of the guardian;
An electronic device that compares a first text converted from the guardian's voice input in a first time interval with a second text converted from the test subject's voice inputted in a second time interval following the first time interval. Control method.
삭제delete 삭제delete 전자 장치에 있어서,
마이크;
카메라;
디스플레이;
스피커; 및
상기 마이크, 카메라, 디스플레이 및 스피커와 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 마이크 및 상기 카메라를 통해 피검사자를 촬영하여 비디오를 생성하고, 상기 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사전 검사 단계를 수행하고,
상기 식별된 능력 수준을 바탕으로, 복수의 발성 샘플을 포함하는 재활 콘테츠를 제공하는, 발성 재활 단계를 수행하며,
상기 재활 단계 이후, 상기 피검사자가 촬영된 비디오를 분석하여 상기 피검사자의 발성, 듣기, 발달, 및 의사소통 중 적어도 하나에 대한 능력 수준을 식별하는, 사후 검사 단계를 수행하고,
상기 프로세서는, 상기 발성 재활 단계를 수행함에 있어서,
상기 스피커 및 상기 디스플레이를 통해 제1 발성 샘플을 제공하고,
상기 제1 발성 샘플이 제공된 시점으로부터 일정 시간 내에 상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 상기 마이크를 통해 입력되는지 여부를 식별하고,
상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되면, 제2 발성 샘플을 제공하고,
상기 제1 발성 샘플을 모방하는 상기 피검사자의 음성이 입력된 것으로 식별되지 않으면, 상기 제1 발성 샘플을 재차 제공하는, 전자 장치.
In electronic devices,
mike;
camera;
display;
speaker; and
Including a processor connected to the microphone, camera, display, and speaker,
The processor,
Perform a pre-test step of capturing the test subject through the microphone and the camera to generate a video, and analyzing the video to identify the test subject's ability level for at least one of vocalization, listening, development, and communication; ,
Based on the identified competency level, performing vocal rehabilitation steps, providing rehabilitation content including a plurality of vocal samples,
After the rehabilitation step, performing a post-test step in which the test subject analyzes the recorded video to identify the test subject's ability level for at least one of vocalization, listening, development, and communication,
In performing the vocal rehabilitation step, the processor
providing a first speech sample through the speaker and the display,
Identifying whether the test subject's voice imitating the first vocalization sample is input through the microphone within a certain time from when the first vocalization sample is provided,
If the test subject's voice imitating the first speech sample is identified as input, providing a second speech sample,
If the test subject's voice imitating the first speech sample is not identified as input, the electronic device provides the first speech sample again.
컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램에 있어서,
전자 장치의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 제어 방법을 수행하도록 하는, 컴퓨터 프로그램.
In a computer program stored on a computer-readable medium,
A computer program that is executed by a processor of an electronic device and causes the electronic device to perform the control method of claim 1.
KR1020220094886A 2022-07-29 2022-07-29 Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children KR102630356B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220094886A KR102630356B1 (en) 2022-07-29 2022-07-29 Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220094886A KR102630356B1 (en) 2022-07-29 2022-07-29 Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children

Publications (1)

Publication Number Publication Date
KR102630356B1 true KR102630356B1 (en) 2024-01-30

Family

ID=89714857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220094886A KR102630356B1 (en) 2022-07-29 2022-07-29 Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children

Country Status (1)

Country Link
KR (1) KR102630356B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020003956A (en) * 2000-06-28 2002-01-16 박규진 System and Method for learning languages by using bone-path hearing function of a deaf person and storage media
JP3448170B2 (en) * 1996-12-02 2003-09-16 山武コントロールプロダクト株式会社 Terminal device and host device used in vocal training machine and vocal training system
KR20200085041A (en) * 2019-01-04 2020-07-14 순천향대학교 산학협력단 Language rehabilitation based vocal voice evaluation apparatus and method thereof
KR20210019712A (en) 2019-08-13 2021-02-23 연세대학교 원주산학협력단 System and method for training of listening ability for hard of hearing patient
JP6979300B2 (en) * 2017-08-10 2021-12-08 株式会社テクノリンク Vocalization / speech learning device and microphone

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3448170B2 (en) * 1996-12-02 2003-09-16 山武コントロールプロダクト株式会社 Terminal device and host device used in vocal training machine and vocal training system
KR20020003956A (en) * 2000-06-28 2002-01-16 박규진 System and Method for learning languages by using bone-path hearing function of a deaf person and storage media
JP6979300B2 (en) * 2017-08-10 2021-12-08 株式会社テクノリンク Vocalization / speech learning device and microphone
KR20200085041A (en) * 2019-01-04 2020-07-14 순천향대학교 산학협력단 Language rehabilitation based vocal voice evaluation apparatus and method thereof
KR20210019712A (en) 2019-08-13 2021-02-23 연세대학교 원주산학협력단 System and method for training of listening ability for hard of hearing patient

Similar Documents

Publication Publication Date Title
Massaro et al. Using visible speech to train perception and production of speech for individuals with hearing loss
Marschark et al. How deaf children learn: What parents and teachers need to know
Green et al. Lip movement exaggerations during infant-directed speech
Papaeliou et al. Prelinguistic pitch patterns expressing ‘communication’and ‘apprehension’
KR101973791B1 (en) Method for correcting voice
Easterbrooks et al. Helping deaf and hard of hearing students to use spoken language: A guide for educators and families
Asada Modeling early vocal development through infant–caregiver interaction: A review
Ertmer et al. Vocal development in young children with cochlear implants
Meniado First language acquisition: A case study of a three-year old Lebanese child
Barker et al. Influences of foreign accent on preschoolers’ word recognition and story comprehension
KR101967849B1 (en) Foreign language acquisition practice method through the combination of shadowing and speed listening based on the processes of mother language acquisition, apparatus and computer readable program medium thereof
Grimm Language learning from the developmental and neurocognitive perspective: An examination of the impact of music on second language acquisition
Ertmer et al. Prelinguistic vocalizations in infants and toddlers with hearing loss: Identifying and stimulating auditory-guided speech development
Blaiser Supporting communicative development of infants and toddlers with hearing loss
KR102630356B1 (en) Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children
Perigoe et al. Understanding auditory development and the child with hearing loss
Thomson The relationship between L2 speech perception and production
Ondáš et al. Towards robot-assisted children speech audiometry
Robbins Communication intervention for infants and toddlers with cochlear implants
Kiktová et al. The Role of Hearing Screening Using an Audiometry Application in the Education of Children with Hearing Impairment
Erber Auditory Communication for Deaf Children: A guide for teachers, parents and health professionals
Gorman A framework for speechreading acquisition tools
Rhoades et al. Strategies for listening, talking, and thinking in auditory-verbal therapy
MacRoy-Higgins et al. Time to talk: What you need to know about your child's speech and language development
Udiyani et al. The influence of speech therapy in improving oral language skills of deaf children at SLB Tanah Bumbu

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant