KR102539191B1 - Cognitive state information providing method and electronic device for the same - Google Patents

Cognitive state information providing method and electronic device for the same Download PDF

Info

Publication number
KR102539191B1
KR102539191B1 KR1020220098150A KR20220098150A KR102539191B1 KR 102539191 B1 KR102539191 B1 KR 102539191B1 KR 1020220098150 A KR1020220098150 A KR 1020220098150A KR 20220098150 A KR20220098150 A KR 20220098150A KR 102539191 B1 KR102539191 B1 KR 102539191B1
Authority
KR
South Korea
Prior art keywords
information
voice data
page
test
cognitive state
Prior art date
Application number
KR1020220098150A
Other languages
Korean (ko)
Other versions
KR102539191B9 (en
Inventor
고명진
허동석
Original Assignee
주식회사 실비아헬스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 실비아헬스 filed Critical 주식회사 실비아헬스
Priority to KR1020220098150A priority Critical patent/KR102539191B1/en
Priority to KR1020230068630A priority patent/KR20240020172A/en
Application granted granted Critical
Publication of KR102539191B1 publication Critical patent/KR102539191B1/en
Priority to PCT/KR2023/010414 priority patent/WO2024029800A1/en
Publication of KR102539191B9 publication Critical patent/KR102539191B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a cognitive status information providing method and an electronic apparatus therefor. According to the present disclosure, the cognitive status information providing method comprises the following steps of: providing a first page containing examination-related information; obtaining user voice data for the examination-related information while the first page is displayed; and providing a second page including first evaluation information obtained using a learning model set based on the user voice data. An objective of the present invention is to provide the cognitive status information providing method, which allows a user to conduct a cognitive status test and check the evaluation information therefor, and the electronic apparatus therefor.

Description

인지 상태 정보 제공 방법 및 이를 위한 전자 장치{COGNITIVE STATE INFORMATION PROVIDING METHOD AND ELECTRONIC DEVICE FOR THE SAME}Cognitive state information providing method and electronic device therefor

본 개시는 인지 상태와 관련된 정보를 제공하는 방법 및 이를 위한 전자 장치에 관한 것이다.The present disclosure relates to a method for providing information related to a cognitive state and an electronic device therefor.

치매는 사람의 정신 능력과 사회적 활동을 할 수 있는 능력의 소실을 말하며, 어떤 사람의 일상생활의 장애를 가져올 정도로 충분히 심할 때 우리는 이를 치매라고 부른다. 사람의 연령이 증가함에 따라 치매의 발병률 또한 함께 증가하는 것이 알려져 있고, 이에 따라 평균 수명이 증가하며 급속한 고령화가 진행되고 있는 오늘날 사회에서는 치매의 치료 및 예방 방법에 대한 관심이 갈수록 커지고 있다.Dementia refers to the loss of a person's mental abilities and ability to perform social activities, and when it is severe enough to cause impairment in a person's daily life, we call it dementia. It is known that the incidence of dementia also increases as people age, and accordingly, in today's society where life expectancy increases and rapid aging progresses, interest in methods for treating and preventing dementia is increasing.

치매는 여러 가지 질환들에 의해 나타나는 병적 증상이며, 치매의 증상은 원인 질환의 종류와 정도에 따라 매우 다양하게 나타난다. 치매의 대표적인 증상 중 하나는 인지기능 저하 증상이며, 기억력 감퇴, 언어 능력 저하, 시공간 파악 능력 저하, 판단력 및 일상생활 수행 능력의 저하 등이 포함된다. 치매의 진단을 위한 하나의 방법으로는 언어 능력을 확인하기 위한 음성 테스트가 있다. 음성을 인지 장애 선별에 이용하는 것은 많은 연구에서 검증 및 시도되었다. 치매, 파킨슨병 등의 경우 조기 발견 신호로 발화, 대화로부터 언어적(linguistic), 음향적(phonetic) 저하를 많이 이용한다. 이와 같이 음향적 특징뿐만 아니라 언어적, 의미적 특징을 모두 찾을 수 있는 음성, 특히 자유 발화는 인지 장애 선별에 많이 이용되고 있다.Dementia is a pathological symptom caused by various diseases, and the symptoms of dementia vary greatly depending on the type and severity of the underlying disease. One of the representative symptoms of dementia is a symptom of cognitive decline, and includes memory decline, language ability decline, time and space understanding ability decline, judgment and daily life performance decline, and the like. One method for diagnosing dementia is a voice test to check language ability. The use of voice to screen for cognitive disorders has been verified and tried in many studies. In the case of dementia, Parkinson's disease, etc., linguistic and phonetic degradation from speech and conversation are often used as early detection signals. In this way, voice, especially free speech, which can find not only acoustic features but also linguistic and semantic features, is widely used in screening for cognitive disorders.

한편, 화자의 음성 데이터는 화자의 개인적 특성(나이, 성별, 음색 등)과 관련된 화자 식별 정보 및 음성과 직접적으로 연관되는 특성(리듬, 침묵률 등)과 관련된 콘텐츠 식별 정보를 포함할 수 있다. 치매 진단에 있어서 음성 데이터로부터 화자 식별 정보가 제거된 콘텐츠 식별 정보만을 추출하여 활용한다면, 음성의 리듬, 끊김의 정도, 침묵률, 특이도와 같이 인지 장애 선별에 더욱 중요한 요소에 집중함으로써 인지 장애 선별 정확도를 높일 것으로 기대된다. 따라서 화자의 음성 데이터로부터 콘텐츠 식별 정보를 추출하여 인지 상태와 관련된 정보를 제공하는 방법이 요구된다.Meanwhile, the speaker's voice data may include speaker identification information related to the speaker's personal characteristics (age, gender, timbre, etc.) and content identification information related to characteristics directly related to voice (rhythm, silence rate, etc.). If only content identification information with speaker identification information removed from voice data is extracted and used in the diagnosis of dementia, the accuracy of cognitive disorder screening can be improved by focusing on more important factors such as voice rhythm, degree of interruption, silencing rate, and specificity. is expected to increase Therefore, there is a need for a method of providing information related to a cognitive state by extracting content identification information from speaker's voice data.

본 개시는 상술한 문제점을 해결하기 위해 제안된 것으로, 인지 상태 검사를 진행하고 이에 대한 평가 정보를 확인할 수 있도록 하는 인지 상태 정보 제공 방법 및 이를 위한 전자 장치를 제공하는 것을 목적으로 한다.The present disclosure has been proposed to solve the above-described problems, and an object of the present disclosure is to provide a cognitive state information providing method and an electronic device therefor, which allow a cognitive state examination to be performed and evaluation information thereof to be checked.

본 개시에 의해 이루고자 하는 기술적 과제는 상술한 기술적 과제들로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.The technical problem to be achieved by the present disclosure is not limited to the above-described technical problem, and other technical problems may be inferred from the following embodiments.

개시되는 일 실시 예에 따른 인지 상태 정보 제공 방법은 검사 관련 정보를 포함하는 제1 페이지를 제공하는 단계, 상기 제1 페이지가 표시된 상태에서 상기 검사 관련 정보에 대한 사용자 음성 데이터를 획득하는 단계 및 상기 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제2 페이지를 제공하는 단계를 포함할 수 있다.A method for providing cognitive state information according to an embodiment disclosed herein includes providing a first page including test-related information, acquiring user voice data for the test-related information while the first page is displayed, and and providing a second page including first evaluation information obtained by using a learning model set based on user voice data.

상기 제1 페이지는 상기 검사 관련 정보를 포함하는 제1 영역 및 음성 입력과 관련된 상태를 나타내는 아이콘을 포함하는 제2 영역을 포함할 수 있다.The first page may include a first area including the test-related information and a second area including an icon indicating a state related to voice input.

상기 사용자 음성 데이터는 상기 제1 페이지가 표시된 상태에서 상기 아이콘에 대응하는 입력에 따라 획득될 수 있다.The user voice data may be obtained according to an input corresponding to the icon while the first page is displayed.

상기 제2 영역의 상기 아이콘은, 상기 음성 입력이 확인되는 것에 대응하여 제1 이미지로 표시되고, 상기 음성 입력이 확인되지 않는 것에 대응하여 제2 이미지로 표시될 수 있다.The icon of the second area may be displayed as a first image corresponding to the confirmation of the voice input, and may be displayed as a second image corresponding to the absence of the confirmation of the voice input.

상기 제2 영역의 상기 아이콘은, 상기 음성 입력이 확인되지 않는 시간이 기준 시간을 경과하는 경우 제3 이미지로 표시될 수 있다.The icon of the second area may be displayed as a third image when a time period in which the voice input is not confirmed passes a reference time period.

상기 제1 이미지는 상기 음성 입력이 확인되는 것에 대응하여 움직이는 동적 이미지이고, 상기 제2 이미지 및 상기 제3 이미지는 정적 이미지일 수 있다.The first image may be a dynamic image moving in response to confirmation of the voice input, and the second image and the third image may be static images.

상기 검사 관련 정보는, 이미지 정보 및 상기 이미지 정보에 대한 설명을 요청하는 제1 텍스트 정보를 포함하는 제1 검사 정보 및 특정 주제에 대한 제2 텍스트 정보 및 상기 제2 텍스트 정보에 대한 설명을 요청하는 제3 텍스트 정보를 포함하는 제2 검사 정보 중 적어도 하나를 포함할 수 있다.The inspection-related information includes first inspection information including image information and first text information requesting an explanation of the image information, second text information on a specific subject, and requesting an explanation of the second text information. It may include at least one of second test information including third text information.

상기 사용자 음성 데이터는, 상기 제1 검사 정보에 대하여 획득된 제1 음성 데이터 및 상기 제2 검사 정보에 대하여 획득된 제2 음성 데이터 중 적어도 하나를 포함하고, 상기 제1 음성 데이터 및 상기 제2 음성 데이터는 서로 다른 학습 모델에 의해 분석될 수 있다.The user voice data includes at least one of first voice data obtained with respect to the first test information and second voice data obtained with respect to the second test information, and the first voice data and the second voice data are obtained. Data can be analyzed by different learning models.

상기 제1 음성 데이터의 길이의 상한은 상기 제2 음성 데이터의 길이의 상한과 다를 수 있다.An upper limit of the length of the first voice data may be different from an upper limit of the length of the second voice data.

획득된 상기 사용자 음성 데이터가 설정된 조건을 만족하는 경우 녹음 완료에 대한 정보를 표시하고, 획득된 상기 사용자 음성 데이터가 상기 설정된 조건을 만족하지 않는 경우 재녹음 요청에 대한 정보를 표시할 수 있다.When the obtained user voice data satisfies the set condition, information on completion of recording may be displayed, and when the obtained user voice data does not satisfy the set condition, information on a re-recording request may be displayed.

상기 제2 페이지는 상기 제1 평가 정보와 다른 방식으로 획득된 제2 평가 정보를 더 포함할 수 있다.The second page may further include second evaluation information obtained in a different way from the first evaluation information.

상기 제1 평가 정보 및 상기 제2 평가 정보 각각은 수치화된 점수로 제공될 수 있다.Each of the first evaluation information and the second evaluation information may be provided as a numerical score.

상기 제2 페이지는 상기 제1 평가 정보를 수치화한 점수가 기준 값 이상인 경우 재검사, 추가 검사, 인지 훈련 및 병원 이송 중 적어도 하나를 안내하는 추천 정보를 더 포함할 수 있다.The second page may further include recommendation information for guiding at least one of retest, additional test, cognitive training, and transfer to a hospital when a score obtained by digitizing the first evaluation information is equal to or greater than a reference value.

검사 전 체크 리스트 정보를 획득하는 단계, 적어도 하나의 테스트 검사 정보를 포함하는 제3 페이지를 제공하는 단계, 상기 제3 페이지가 표시된 상태에서 상기 테스트 검사 정보에 대응하는 테스트 음성 데이터를 획득하는 단계 및 상기 테스트 음성 데이터를 기반으로 음성 입력을 확인하는 단계를 더 포함할 수 있다.Acquiring check list information before testing, providing a third page including at least one piece of test information, obtaining test voice data corresponding to the test information while the third page is displayed; and The method may further include verifying voice input based on the test voice data.

상기 검사 전 체크 리스트 정보는 사용자의 각성 상태 여부, 주변 환경, 검사 주기 및 재검사 여부 중 적어도 하나에 대한 정보를 포함할 수 있다.The pre-examination checklist information may include information on at least one of whether the user is awake, surrounding environment, examination period, and re-examination.

개시되는 일 실시 예에 따른 인지 상태 정보 제공 방법을 위한 전자 장치는 적어도 하나의 명령어를 저장하는 메모리, 및 상기 적어도 하나의 명령어에 기초하여, 검사 관련 정보를 포함하는 제1 페이지를 제공하고, 상기 제1 페이지가 표시된 상태에서 상기 검사 관련 정보에 대한 사용자 음성 데이터를 획득하며, 상기 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제2 페이지를 제공하는 프로세서를 포함할 수 있다.An electronic device for a method for providing cognitive state information according to an embodiment disclosed herein provides a memory for storing at least one command, and a first page including test-related information based on the at least one command, the A processor that obtains user voice data for the test-related information while a first page is displayed, and provides a second page including first evaluation information obtained by using a learning model set based on the user voice data can do.

기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 개시에 따르면, 사용자 단말이 제공하는 페이지 및 페이지의 텍스트 정보 및 이미지 정보를 통해 사용자는 쉽고 빠르게 인지 상태 검사를 진행할 수 있고, 이에 대한 평가 정보를 쉽고 빠르게 확인할 수 있으며, 이를 통해 어떤 사후 조치가 필요한지 확인할 수 있다.According to the present disclosure, through a page provided by a user terminal and text information and image information of the page, a user can easily and quickly perform a cognitive state test, and can easily and quickly check evaluation information for the cognitive state, through which any follow-up measures can be taken. You can check if you need it.

발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 개시의 실시 예들에 따른 전자 장치에서 인지 상태 정보를 제공하는 방법이 구현되는 장치를 설명하기 위한 개념도이다.
도 2는 본 개시의 실시 예들에 따른 전자 장치 및 사용자 단말을 설명하기 위한 개략적인 블록도이다.
도 3a 및 도 3b는 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법을 설명하기 위한 흐름도들이다.
도 4a 내지 도 4g는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 제1 검사 정보를 포함하는 페이지를 설명하기 위한 도면들이다.
도 5a 내지 도 5f는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 제2 검사 정보를 포함하는 페이지를 설명하기 위한 도면들이다.
도 6a 내지 도 6e는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 평가 정보를 포함하는 페이지를 설명하기 위한 도면들이다.
도 7a 내지 도 7c는 본 개시의 실시 예들에 따라 검사 전 체크 리스트 정보 및 테스트 음성 데이터를 획득하기 위한 페이지를 설명하기 위한 도면들이다.
1 is a conceptual diagram illustrating a device in which a method of providing cognitive state information in an electronic device according to embodiments of the present disclosure is implemented.
2 is a schematic block diagram illustrating an electronic device and a user terminal according to embodiments of the present disclosure.
3A and 3B are flowcharts illustrating a method for providing cognitive state information according to embodiments of the present disclosure.
4A to 4G are diagrams for describing a page including first inspection information provided to a user terminal according to embodiments of the present disclosure.
5A to 5F are diagrams for describing a page including second examination information provided to a user terminal according to embodiments of the present disclosure.
6A to 6E are diagrams for describing a page including evaluation information provided to a user terminal according to embodiments of the present disclosure.
7A to 7C are diagrams for describing pages for obtaining pre-test check list information and test voice data according to embodiments of the present disclosure.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “...부”, “...모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, terms such as "...unit" and "...module" described in the specification mean a unit that processes at least one function or operation, which is implemented as hardware or software, or a combination of hardware and software. It can be.

명세서 전체에서 기재된 “a, b, 및 c 중 적어도 하나”의 표현은, ‘a 단독’, ‘b 단독’, ‘c 단독’, ‘a 및 b’, ‘a 및 c’, ‘b 및 c’, 또는 ‘a,b,c 모두’를 포괄할 수 있다.The expression of “at least one of a, b, and c” described throughout the specification means 'a alone', 'b alone', 'c alone', 'a and b', 'a and c', 'b and c' ', or 'all of a, b, and c'.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.A “terminal” referred to below may be implemented as a computer or portable terminal capable of accessing a server or other terminals through a network. Here, the computer includes, for example, a laptop, desktop, laptop, etc. equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , IMT (International Mobile Telecommunication), CDMA (Code Division Multiple Access), W-CDMA (W-Code Division Multiple Access), LTE (Long Term Evolution), etc. It may include a handheld-based wireless communication device.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

이하, 본 개시의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

실시 예를 설명함에 있어서 본 개시가 속하는 기술 분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 개시의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present disclosure belongs and are not directly related to the present disclosure will be omitted. This is to more clearly convey the gist of the present disclosure without obscuring it by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, in the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. In each figure, the same reference number is assigned to the same or corresponding component.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하의 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present disclosure, and methods for achieving them, will become clear with reference to embodiments described below in detail in conjunction with the accompanying drawings. However, the present disclosure is not limited to the following embodiments and may be implemented in various different forms, but the present disclosure is intended to make the present disclosure complete, and to those skilled in the art to which the present disclosure belongs. It is provided to fully inform the scope of, and this disclosure is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 명령어들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 명령어들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 명령어들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 명령어들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장된 명령어들은 흐름도 블록(들)에서 설명된 기능을 수행하는 명령어 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 명령어들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 명령어들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be appreciated that each block of the process flow diagrams and combinations of the flow diagrams can be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates means to perform functions. These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block(s). The computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment. Instructions for performing processing equipment may also provide steps for performing the functions described in the flowchart block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 명령어들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block may represent a module, segment or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.

도 1은 본 개시의 실시 예들에 따른 전자 장치에서 인지 상태 정보를 제공하는 방법이 구현되는 장치를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a device in which a method of providing cognitive state information in an electronic device according to embodiments of the present disclosure is implemented.

도 1을 참조하면, 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법은 다양한 종류의 장치들에 구현될 수 있다. 예를 들어, 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법은 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110)을 통해 구현될 수 있다. 달리 말해, 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110)은 각각에 구현된 정보 제공 방법을 기반으로, 본 개시의 실시 예들에 따른 동작을 수행할 수 있다. 한편, 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법은, 도 1에 도시된 바에 국한되지 않고, 다양한 전자 장치 또는 서버에 구현될 수도 있다.Referring to FIG. 1 , a method for providing cognitive state information according to embodiments of the present disclosure may be implemented in various types of devices. For example, a method for providing cognitive state information according to embodiments of the present disclosure may be implemented through the electronic device 100 and the user terminal 110 interoperating with the electronic device 100 . In other words, the electronic device 100 and the user terminal 110 interoperating with the electronic device 100 may perform operations according to embodiments of the present disclosure based on information providing methods implemented in each. Meanwhile, the method for providing cognitive state information according to embodiments of the present disclosure is not limited to that shown in FIG. 1 and may be implemented in various electronic devices or servers.

다양한 실시 예들에 따른 전자 장치(100)는, 전자 장치(100)와 연동되는 사용자 단말(110)과 유선 또는 무선 통신을 수행하며, 대단위의 저장 용량을 갖는 메모리를 포함하는 장치일 수 있다. 예를 들어, 전자 장치(100)는 사용자 단말(110)과 연결된 클라우드 장치(cloud device)일 수 있다. 다시 말하면, 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법은 클라우드 장치의 논리적인 디바이스 상에서 구현될 수도 있다.The electronic device 100 according to various embodiments may be a device that performs wired or wireless communication with the user terminal 110 interworking with the electronic device 100 and includes a memory having a large storage capacity. For example, the electronic device 100 may be a cloud device connected to the user terminal 110 . In other words, the method for providing cognitive state information according to embodiments of the present disclosure may be implemented on a logical device of a cloud device.

다양한 실시 예들에 따른 전자 장치(100)와 연동되는 사용자 단말(110)은, 데스크탑 피시, 태블릿 피시, 모바일 단말 등 서비스 사용자에 의해 이용될 수 있는 장치일 수 있다. 이외에도 유사한 기능을 수행하는 다른 전자 장치들이 전자 장치(100)와 연동되는 사용자 단말(110)로 이용될 수 있다.The user terminal 110 that works with the electronic device 100 according to various embodiments may be a device that can be used by a service user, such as a desktop PC, a tablet PC, or a mobile terminal. In addition, other electronic devices performing similar functions may be used as the user terminal 110 interworking with the electronic device 100 .

본 개시의 실시 예들에 따른 동작을 위한 다양한 모듈들이 제공될 수 있다. 모듈들은 정보 제공 방법이 구현되는(또는, 물리적 장치에 포함되는) 물리적 장치(예를 들어, 전자 장치(100))가 지정된 동작을 수행할 수 있도록 구현된 컴퓨터 코드 내지는 하나 이상의 명령어일 수 있다. 다시 말하면, 정보 제공 방법이 구현되는 물리적 장치는 복수 개의 모듈들을 컴퓨터 코드 형태로 메모리에 저장하고, 메모리에 저장된 복수 개의 모듈들이 실행되는 경우 복수 개의 모듈들은 물리적 장치가 복수 개의 모듈들에 대응하는 지정된 동작들을 수행하도록 할 수 있다.Various modules for operations according to embodiments of the present disclosure may be provided. The modules may be computer codes implemented so that a physical device (eg, the electronic device 100) in which an information providing method is implemented (or included in the physical device) may perform a designated operation or one or more instructions. In other words, the physical device in which the information providing method is implemented stores a plurality of modules in a memory in the form of computer code, and when the plurality of modules stored in the memory are executed, the plurality of modules are designated by the physical device corresponding to the plurality of modules. actions can be performed.

도 2는 본 개시의 실시 예들에 따른 전자 장치 및 사용자 단말을 설명하기 위한 개략적인 블록도이다.2 is a schematic block diagram illustrating an electronic device and a user terminal according to embodiments of the present disclosure.

도 2를 참조하면, 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110) 각각은 통신부(210), 메모리(220) 및 프로세서(230)를 포함할 수 있다.Referring to FIG. 2 , each of an electronic device 100 and a user terminal 110 interworking with the electronic device 100 may include a communication unit 210 , a memory 220 and a processor 230 .

실시 예들에 따르면, 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110) 각각은 입력부 및 출력부를 더 포함할 수도 있다. 입력부 및 출력부 각각은 사용자 입력을 받거나 또는 사용자에게 정보를 출력하는 각종 인터페이스나 연결 포트 등일 수 있다. According to embodiments, each of the electronic device 100 and the user terminal 110 interworking with the electronic device 100 may further include an input unit and an output unit. Each of the input unit and the output unit may be various interfaces or connection ports that receive user input or output information to the user.

입력부는 입력 모듈을 포함할 수 있고, 입력 모듈은 사용자로부터 사용자 입력을 수신한다. 사용자 입력은 키 입력, 터치 입력, 음성 입력을 비롯한 다양한 형태로 이루어질 수 있다. 이러한 사용자 입력을 받을 수 있는 입력 모듈의 예로는 전통적인 형태의 키패드나 키보드, 마우스는 물론, 사용자의 터치를 감지하는 터치 센서, 음성 신호를 입력받는 마이크, 영상 인식을 통해 제스처 등을 인식하는 카메라, 사용자 접근을 감지하는 조도 센서나 적외선 센서 중 적어도 하나를 포함하는 근접 센서, 가속도 센서나 자이로 센서 등을 통해 사용자 동작을 인식하는 모션 센서 및 그 외의 다양한 형태의 사용자 입력을 감지하거나 입력 받는 다양한 형태의 입력 수단이 있으며, 본 개시의 실시 예에 따른 입력 모듈은 위에 나열한 장치 중 적어도 하나를 포함할 수 있다. 여기서, 터치 센서는 디스플레이 패널에 부착되는 터치 패널이나 터치 필름을 통해 터치를 감지하는 압전식 또는 정전식 터치 센서, 광학적인 방식에 의해 터치를 감지하는 광학식 터치 센서 등으로 구현될 수 있다. 이외에도 입력 모듈은 자체적으로 사용자 입력을 감지하는 장치 대신 사용자 입력을 입력 받는 외부의 입력 장치를 연결시키는 입력 인터페이스(USB 포트, PS/2 포트 등)의 형태로 구현될 수도 있다. The input unit may include an input module, and the input module receives a user input from a user. User input may be made in various forms including key input, touch input, and voice input. Examples of input modules capable of receiving such user input include a traditional keypad, keyboard, and mouse, as well as a touch sensor that detects a user's touch, a microphone that receives a voice signal, a camera that recognizes gestures through image recognition, A proximity sensor including at least one of an illuminance sensor and an infrared sensor for detecting user approach, a motion sensor for recognizing a user's motion through an acceleration sensor or a gyro sensor, and various other types of sensors that detect or receive user input. There is an input means, and the input module according to an embodiment of the present disclosure may include at least one of the devices listed above. Here, the touch sensor may be implemented as a piezoelectric or capacitive touch sensor that detects a touch through a touch panel attached to a display panel or a touch film, an optical touch sensor that detects a touch by an optical method, and the like. In addition, the input module may be implemented in the form of an input interface (USB port, PS/2 port, etc.) connecting an external input device that receives a user input instead of a device that detects a user input by itself.

한편, 출력부는 출력 모듈을 포함할 수 있고, 출력 모듈은 각종 정보를 출력할 수 있다. 출력 모듈은 영상을 출력하는 디스플레이, 소리를 출력하는 스피커, 진동을 발생시키는 햅틱 장치 및 그 외의 다양한 형태의 출력 수단 중 적어도 하나를 포함할 수 있다. 이외에도 출력 모듈은 상술한 개별 출력 수단을 연결시키는 포트 타입의 출력 인터페이스의 형태로 구현될 수도 있다. 예를 들어, 디스플레이 형태의 출력 모듈은 텍스트, 정지 영상, 동영상을 디스플레이 할 수 있다. 디스플레이는 액정 디스플레이(LCD; Liquid Crystal Display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; Organic Light Emitting Diode) 디스플레이, 평판 디스플레이(FPD; Flat Panel Display), 투명 디스플레이(transparent display), 곡면 디스플레이(Curved Display), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 홀로그래픽 디스플레이(holographic display), 프로젝터 및 그 외의 영상 출력 기능을 수행할 수 있는 다양한 형태의 장치 중 적어도 하나를 포함할 수 있다. 이러한 디스플레이는 입력 모듈의 터치 센서와 일체로 구성된 터치 디스플레이의 형태일 수도 있다.Meanwhile, the output unit may include an output module, and the output module may output various types of information. The output module may include at least one of a display for outputting an image, a speaker for outputting sound, a haptic device for generating vibration, and other various types of output means. In addition, the output module may be implemented in the form of a port type output interface connecting the above-described individual output means. For example, the output module in the form of a display can display text, still images, and moving images. The display includes a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a flat panel display (FPD), and a transparent display. display), curved display, flexible display, 3D display, holographic display, projector, and other various types of devices capable of performing image output functions. may contain at least one. Such a display may be in the form of a touch display integrally formed with the touch sensor of the input module.

통신부(210)는 다른 장치와 통신할 수 있다. 따라서, 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110) 각각은 통신부(210)를 통해 다른 장치와 정보를 송수신할 수 있다. 예를 들어, 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110) 각각은 통신부(210)를 이용해 상호 간 통신을 수행하거나, 기타 다른 장치와 통신을 수행할 수 있다.The communication unit 210 may communicate with other devices. Accordingly, each of the electronic device 100 and the user terminal 110 interworking with the electronic device 100 may transmit and receive information with other devices through the communication unit 210 . For example, the electronic device 100 and each of the user terminals 110 interworking with the electronic device 100 may communicate with each other or with other devices using the communication unit 210 .

여기서, 통신, 즉 데이터의 송수신은 유선 또는 무선으로 이루어질 수 있다. 이를 위해 통신부(210)는 LAN(Local Area Network)를 통해 인터넷 등에 접속하는 유선 통신 모듈, 이동 통신 기지국을 거쳐 이동 통신 네트워크에 접속하여 데이터를 송수신하는 이동 통신 모듈, 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 블루투스(Bluetooth), 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용하는 근거리 통신 모듈, GPS(Global Positioning System)과 같은 GNSS(Global Navigation Satellite System)을 이용하는 위성 통신 모듈 또는 이들의 조합으로 구성될 수 있다.Here, communication, that is, transmission and reception of data may be performed by wire or wireless. To this end, the communication unit 210 includes a wired communication module that accesses the Internet through a LAN (Local Area Network), a mobile communication module that accesses a mobile communication network via a mobile communication base station to transmit and receive data, and a WLAN such as Wi-Fi. (Wireless Local Area Network)-based communication method, short-distance communication module using WPAN (Wireless Personal Area Network)-based communication method such as Bluetooth or Zigbee, GNSS (Global Positioning System) such as GPS It can be composed of a satellite communication module using a Navigation Satellite System) or a combination thereof.

메모리(220)는 각종 정보를 저장할 수 있다. 메모리(220)는 데이터를 임시적으로 또는 반영구적으로 저장할 수 있다. 예를 들어, 전자 장치(100)의 메모리(220)에는 전자 장치(100)를 구동하기 위한 운용 프로그램(OS; Operating System), 웹 사이트를 호스팅하기 위한 데이터나 점자 생성을 위한 프로그램 내지는 어플리케이션(예를 들어, 웹 어플리케이션)에 관한 데이터 등이 저장될 수 있다. 또, 메모리(220)는 상술한 바와 같이 모듈들을 컴퓨터 코드 형태로 저장할 수 있다. The memory 220 may store various kinds of information. The memory 220 may temporarily or semi-permanently store data. For example, the memory 220 of the electronic device 100 includes an Operating System (OS) for driving the electronic device 100, a program or application for generating data or Braille characters for hosting a website (e.g. For example, data related to a web application) may be stored. Also, the memory 220 may store the modules in the form of computer codes as described above.

메모리(220)의 예로는 하드 디스크(HDD; Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM; Read-Only Memory), 램(RAM; Random Access Memory) 등이 있을 수 있다. 이러한 메모리(220)는 내장 타입 또는 탈부착 가능한 타입으로 제공될 수 있다.Examples of the memory 220 include a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), a random access memory (RAM), and the like. This can be. This memory 220 may be provided in a built-in type or a detachable type.

프로세서(230)는 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110) 각각의 전반적인 동작을 제어한다. 이를 위해 프로세서(230)는 각종 정보의 연산 및 처리를 수행하고 전자 장치(100)의 구성요소들의 동작을 제어할 수 있다. 예를 들어, 프로세서(230)는 배송 관련 정보 제공을 위한 프로그램 내지 어플리케이션을 실행시킬 수 있을 것이다. 프로세서(230)는 하드웨어, 소프트웨어 또는 이들의 조합에 따라 컴퓨터나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 프로세서(230)는 전기적인 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 구현될 수 있으며, 소프트웨어적으로는 하드웨어적인 프로세서(230)를 구동시키는 프로그램 형태로 구현될 수 있다. 한편, 이하의 설명에서 특별한 언급이 없는 경우에는 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110)의 동작은 프로세서(230)의 제어에 의해 수행되는 것으로 해석될 수 있다. 즉, 본 개시의 실시 예들에 따른 배송 관련 정보 제공 방법에 구현되는 모듈들이 실행되는 경우, 모듈들은 프로세서(230)가 전자 장치(100) 및 전자 장치(100)와 연동되는 사용자 단말(110)이 배송 관련 정보 제공 방법의 단계들을 수행하도록 제어하는 것으로 해석될 수 있다.The processor 230 controls the overall operation of each of the electronic device 100 and the user terminal 110 interworking with the electronic device 100 . To this end, the processor 230 may perform calculations and processing of various types of information and control operations of components of the electronic device 100 . For example, the processor 230 may execute a program or application for providing delivery-related information. The processor 230 may be implemented as a computer or a similar device according to hardware, software, or a combination thereof. In terms of hardware, the processor 230 may be implemented in the form of an electronic circuit that performs a control function by processing electrical signals, and in terms of software, it may be implemented in the form of a program that drives the processor 230 in hardware. Meanwhile, in the following description, unless otherwise noted, the operation of the electronic device 100 and the user terminal 110 interoperating with the electronic device 100 may be interpreted as being performed under the control of the processor 230 . That is, when the modules implemented in the delivery-related information providing method according to the embodiments of the present disclosure are executed, the modules include the processor 230, the electronic device 100, and the user terminal 110 interworking with the electronic device 100. It can be interpreted as controlling to perform the steps of the delivery related information providing method.

요약하면, 다양한 실시 예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 다양한 실시 예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.In summary, various embodiments may be implemented through various means. For example, various embodiments may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 다양한 실시 예들에 따른 방법은 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to various embodiments includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.

펌웨어나 소프트웨어에 의한 구현의 경우, 다양한 실시 예들에 따른 방법은 이하에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 메모리는 프로세서 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고받을 수 있다.In the case of implementation by firmware or software, the method according to various embodiments may be implemented in the form of a module, procedure, or function that performs functions or operations described below. For example, software codes can be stored in memory and run by a processor. The memory may be located inside or outside the processor, and may exchange data with the processor by various means known in the art.

이하에서 상술한 기술적 사상에 기반하여 다양한 실시 예들에 대해 보다 상세히 설명한다. 이하에서 설명되는 다양한 실시 예들에 대해서는 앞서 설명한 내용들이 적용될 수 있다. 예를 들어, 이하에서 설명되는 다양한 실시 예들에서 정의되지 않은 동작, 기능, 용어 등은 앞서 설명한 내용들에 기반하여 수행되고 설명될 수 있다.Hereinafter, various embodiments will be described in more detail based on the above-described technical idea. The above-described contents may be applied to various embodiments described below. For example, operations, functions, and terms that are not defined in various embodiments described below may be performed and described based on the contents described above.

이하에서, 사용자 단말(110)이 인지 상태 정보 제공 방법의 단계들을 수행함을 전제로 다양한 실시 예들에 대하여 설명하며, 다양한 실시 예들에 따르면, 사용자 단말(110)은 인지 상태 정보 제공 방법의 단계들과 관련된 정보를 전자 장치(100)와 송수신할 수 있다.Hereinafter, various embodiments will be described on the premise that the user terminal 110 performs steps of a method for providing cognitive state information. According to various embodiments, the user terminal 110 performs steps and steps of a method for providing cognitive state information. Related information may be transmitted and received with the electronic device 100 .

도 3a는 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법을 설명하기 위한 흐름도이다.3A is a flowchart illustrating a method for providing cognitive state information according to embodiments of the present disclosure.

도 3a를 참조하면, 단계 S310에서, 사용자 단말은 검사 관련 정보를 포함하는 제1 페이지를 제공할 수 있다. 제1 페이지는 음성 입력과 관련된 상태를 나타내는 아이콘을 더 포함할 수 있다. 아이콘은, 예를 들어, 음성 입력의 확인 여부에 따라 다른 이미지로 표시될 수 있다.Referring to FIG. 3A , in step S310, the user terminal may provide a first page including test-related information. The first page may further include an icon representing a state related to voice input. For example, the icon may be displayed as a different image depending on whether a voice input is confirmed.

검사 관련 정보는 후술하는 학습 모델의 분석 대상이 되는 자유 발화를 유도하는 검사와 관련된 정보일 수 있다. 검사 관련 정보는 복수의 검사 정보를 포함할 수 있다. 검사 관련 정보는, 예를 들어, 이미지 정보 및 이미지 정보에 대한 설명을 요청하는 제1 텍스트 정보를 포함하는 제1 검사 정보 및 특정 주제(예를 들어, 기뻤던 일, 슬펐던 일, 어제 있었던 일)에 대한 제2 텍스트 정보 및 제2 텍스트 정보에 대한 설명을 요청하는 제3 텍스트 정보를 포함하는 제2 검사 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 제1 검사 정보는 '그림 설명하기 검사(Picture Description Test; PDT)'와 관련된 정보일 수 있고, 제2 검사 정보는 '이야기하기 검사(Storytelling Test)'와 관련된 정보일 수 있으나, 검사의 유형은 예시적인 것일 뿐 본 개시는 이에 제한되지 않는다.The test-related information may be information related to a test that induces free speech, which is an analysis target of a learning model to be described later. The test-related information may include a plurality of pieces of test information. The test-related information may include, for example, first test information including image information and first text information requesting an explanation of the image information and a specific subject (eg, happy, sad, or yesterday's events). It may include at least one of second text information about the second text information and second inspection information including third text information requesting an explanation of the second text information. For example, the first test information may be information related to a 'Picture Description Test (PDT)', and the second test information may be information related to a 'Storytelling Test'. The type of inspection is only exemplary and the present disclosure is not limited thereto.

단계 S320에서, 사용자 단말은 제1 페이지가 표시된 상태에서 검사 관련 정보에 대한 사용자 음성 데이터를 획득할 수 있다. 사용자 음성 데이터는 제1 페이지가 표시된 상태에서 아이콘에 대응하는 입력에 따라 획득될 수 있다. 사용자 음성 데이터는, 예를 들어, 제1 검사 정보에 대하여 획득된 제1 음성 데이터 및 제2 검사 정보에 대하여 획득된 제2 음성 데이터 중 적어도 하나를 포함할 수 있다. 이때, 제1 음성 데이터 및 제2 음성 데이터는 서로 다른 학습 모델에 의하여 분석될 수 있다. 다만, 이는 예시적인 것일 뿐 본 개시는 이에 제한되지 않으며, 제1 음성 데이터 및 제2 음성 데이터는 동일한 학습 모델에 의하여 분석될 수도 있다.In step S320, the user terminal may acquire user voice data for examination-related information in a state in which the first page is displayed. User voice data may be obtained according to an input corresponding to an icon while the first page is displayed. The user voice data may include, for example, at least one of first voice data obtained for the first test information and second voice data obtained for the second test information. In this case, the first voice data and the second voice data may be analyzed by different learning models. However, this is only an example and the present disclosure is not limited thereto, and the first voice data and the second voice data may be analyzed by the same learning model.

예를 들어, 제1 음성 데이터의 길이와 제2 음성 데이터의 길이는 다를 수 있다. 또한, 제1 음성 데이터 및 제2 음성 데이터 각각은 길이의 하한 및 상한 중 적어도 하나를 가질 수 있다. 이때, 제1 음성 데이터의 길이의 상한은 제2 음성 데이터의 길이의 상한과 다를 수 있다. 예를 들어, 제1 음성 데이터의 길이의 상한은 제2 음성 데이터의 길이의 상한보다 클 수 있다. 실시 예들에 따르면, 사용자 음성 데이터가 그 길이의 상한을 갖는 경우, 사용자 음성 데이터의 길이가 그 상한과 같아지면 자동으로 단계 S320이 종료될 수도 있다.For example, the length of the first voice data and the length of the second voice data may be different. Also, each of the first voice data and the second voice data may have at least one of a lower limit and an upper limit in length. In this case, the upper limit of the length of the first voice data may be different from the upper limit of the length of the second voice data. For example, the upper limit of the length of the first voice data may be greater than the upper limit of the length of the second voice data. According to embodiments, when the length of the user voice data has an upper limit, step S320 may automatically end when the length of the user voice data becomes equal to the upper limit.

실시 예들에 따르면, 사용자 단말은 단계 S320에 따라 획득된 사용자 음성 데이터가 설정된 조건을 만족하는 경우 녹음 완료에 대한 정보를 표시할 수 있다. 또한, 실시 예들에 따르면, 사용자 단말은 단계 S320에 따라 획득된 사용자 음성 데이터가 설정된 조건을 만족하지 않는 경우 재녹음 요청에 대한 정보를 표시할 수 있다. 녹음 완료에 대한 정보 및 재녹음 요청에 대한 정보 각각은 제1 페이지 상에 제공될 수도 있고, 제1 페이지와 다른 별도의 페이지에 제공될 수도 있다. 이때, 어떤 정보를 표시할지 결정하는 설정된 조건은 음성 입력이 확인되는지 여부, 사용자 음성 데이터의 길이가 하한 및 상한을 만족하는지 여부 및 사용자 음성 데이터 중 음성 입력이 확인된 구간의 길이의 합이 기준 값 이상인지 여부(즉, 사용자 음성 데이터가 실질적으로 분석할 수 있는 발화량을 포함하는지 여부) 중 적어도 하나를 포함할 수 있다.According to embodiments, the user terminal may display information about completion of recording when the user voice data obtained in step S320 satisfies a set condition. Also, according to embodiments, the user terminal may display information on a re-recording request when the user voice data obtained in step S320 does not satisfy a set condition. Each of information on completion of recording and information on request for re-recording may be provided on the first page or on a separate page different from the first page. At this time, the set condition for determining which information to display is whether or not voice input is confirmed, whether the length of the user voice data satisfies the lower and upper limits, and the sum of the lengths of the sections in which the voice input is confirmed among the user voice data is the reference value. It may include at least one of whether or not there is an anomaly (ie, whether the user voice data includes a utterance amount that can be substantially analyzed).

단계 S330에서, 사용자 단말은 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제2 페이지를 제공할 수 있다. 실시 예들에 따르면, 사용자 단말과 연동되는 전자 장치가 사용자 음성 데이터를 설정된 학습 모델로 분석할 수 있다. 제2 페이지는 사용자 음성 데이터와 관련된 적어도 하나의 지표에 대한 제2 평가 정보를 더 포함할 수 있다.In step S330, the user terminal may provide a second page including first evaluation information obtained using a learning model set based on user voice data. According to embodiments, an electronic device that works with a user terminal may analyze user voice data with a set learning model. The second page may further include second evaluation information for at least one indicator related to user voice data.

제2 평가 정보는 제1 평가 정보와 다른 방식으로 획득될 수 있다. 실시 예들에 따르면, 제2 평가 정보의 지표는 제1 평가 정보를 도출하기 위한 사용자 음성 데이터 중 적어도 일부를 기반으로 평가자에 의해 입력될 수 있다. 이때, 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법은, 단계 S320 및 단계 S330 사이에, 사용자 단말이 평가자에 의해 입력된 제2 평가 정보의 지표에 대한 정보를 수신하는 단계를 더 포함할 수 있다. The second evaluation information may be obtained in a different way from the first evaluation information. According to embodiments, an index of the second evaluation information may be input by an evaluator based on at least a part of user voice data for deriving the first evaluation information. In this case, the method for providing cognitive state information according to embodiments of the present disclosure may further include, between steps S320 and S330, the user terminal receiving information on an indicator of the second evaluation information input by the evaluator. there is.

또한, 제1 평가 정보와 다른 양식으로 제2 페이지 상에 또는 제2 페이지의 링크 정보를 통해 연결되는 별도의 페이지 상에 표시될 수 있다. 예를 들어, 제1 평가 정보는 사용자의 인지 상태를 직관적으로 파악할 수 있는 이미지로 표시될 수 있고, 제2 평가 정보는 사용자 음성 데이터와 관련된 적어도 하나의 지표 및 그 지표에 대한 설명을 확인할 수 있는 텍스트로 표시될 수 있다.In addition, it may be displayed on a second page in a form different from that of the first evaluation information or on a separate page connected through link information of the second page. For example, the first evaluation information may be displayed as an image capable of intuitively grasping the user's cognitive state, and the second evaluation information may be at least one indicator related to user voice data and a description of the indicator. Can be displayed as text.

사용자 음성 데이터는, 예를 들어, 발화 자체의 양과 비율(예를 들어, 발화-침묵의 비율, 발화 중 특이치가 있는지)과 관련된 음향 영역의 정보, 발화 내용의 언어적 의미(예를 들어, 발화 중 단어의 의미, 문장의 연결이나 복잡도, 고유 단어 수)와 관련된 언어 영역의 정보 및 발화를 일관된 내용으로 이어갈 수 있는지 여부(예를 들어, 주어진 주제에 대해 얼마나 일관되게 서술하는지 여부)와 관련된 의미 영역의 정보를 포함할 수 있다. 사용자 음성 데이터와 관련된 지표는 음향 영역, 언어 영역 및 의미 영역 각각과 관련된 지표들을 포함할 수 있다.The user voice data may include, for example, sound domain information related to the amount and rate of speech itself (eg, speech-silence ratio, whether there is an outlier during speech), linguistic meaning of speech content (eg, speech-silence ratio). information in linguistic domains related to the meaning of words, connection or complexity of sentences, number of unique words), and semantics related to whether utterances can be connected in a coherent way (for example, how coherently they describe a given topic). It can contain information about the area. The indicators related to the user voice data may include indicators related to each of the acoustic region, the language region, and the semantic region.

음향 영역과 관련된 지표는, 예를 들어, 총 발화량(즉, 음성 입력이 확인된 구간의 길이의 합), 발화율(즉, 전체 음성 데이터 중 음성 입력이 확인된 구간의 비율), 침묵률(즉, 전체 음성 데이터 중 음성 입력이 확인되지 않은 구간의 비율) 및 발화 특이도(즉, 전체 음성 데이터 중 특이하게 짧거나 긴 구간의 길이 또는 비율)를 포함할 수 있다. 발화 특이도는 음성 입력이 연속적인 복수의 구간들의 평균 길이를 기반으로 판단할 수 있다. 예를 들어, 평균 길이의 절반 이하의 길이를 갖는 구간은 특이하게 짧은 구간으로 판단할 수 있고, 평균 길이의 2배 이상의 길이를 갖는 구간은 특이하게 긴 구간으로 판단할 수 있다.Indices related to the acoustic region include, for example, the total utterance volume (ie, the sum of the lengths of the intervals in which voice input is confirmed), the utterance rate (ie, the ratio of the intervals in which voice input is confirmed among the entire voice data), the silence rate ( That is, it may include the ratio of sections in which voice input is not confirmed among all voice data) and speech specificity (ie, the length or ratio of unusually short or long sections in all voice data). Speech specificity may be determined based on the average length of a plurality of sections in which speech input is continuous. For example, a section having a length of less than half of the average length may be determined as an unusually short section, and a section having a length of more than twice the average length may be determined as an unusually long section.

언어 영역과 관련된 지표는, 예를 들어, 명사 비율(즉, 전체 단어 중 명사의 비율), 문장 복잡도(즉, 문장을 복잡하게 구성하여 말하는 정도), 연결어 비율(즉, 전체 단어 중 연결어 및 접속사의 비율) 및 고유 단어 수(즉, 중복되지 않고 새롭게 말하는 고유 단어의 수)를 포함할 수 있다. 문장 복잡도는 문장을 이루는 단어의 수 및 문장을 이루는 서로 다른 품사의 개수 중 적어도 하나를 기반으로 판단할 수 있다.Indicators related to the language domain include, for example, noun ratio (i.e., the ratio of nouns to total words), sentence complexity (i.e., the degree to which a sentence is composed in a complex way), and linking word ratio (i.e., linking words and conjunctions in total words). ratio) and the number of unique words (ie, the number of unique words that are newly spoken without overlapping). Sentence complexity may be determined based on at least one of the number of words forming a sentence and the number of different parts of speech forming a sentence.

의미 영역과 관련된 지표는 전체 일관성(즉, 제시된 주제와 음성 데이터의 내용 전체 사이의 일관성) 및 문장 일관성(즉, 음성 데이터의 문장들 사이의 일관성)을 포함할 수 있다.Indicators related to the semantic domain may include overall consistency (ie, consistency between the presented topic and the entire content of the speech data) and sentence consistency (ie, consistency between sentences of the speech data).

제1 평가 정보 및 제2 평가 정보 각각은 수치화된 점수로 제공될 수 있다. 실시 예들에 따르면, 수치화된 점수는 추가적으로 정규화 과정을 거친 뒤에 제공될 수 있다. 제1 평가 정보는, 예를 들어, 0 내지 1 사이의 수치화된 점수 또는 0% 내지 100% 사이의 수치화된 점수로 제공될 수 있다. 제2 평가 정보 중 사용자 음성 데이터와 관련된 적어도 하나의 지표는, 예를 들어, 0점 내지 100점 사이의 수치화된 점수로 제공될 수 있다. 다만, 이는 예시적인 것일 뿐 수치화된 점수의 단위 및 범위는 이에 제한되지 않는다.Each of the first evaluation information and the second evaluation information may be provided as a numerical score. According to embodiments, the digitized score may be provided after additional normalization. The first evaluation information may be provided as, for example, a numerical score between 0 and 1 or a numerical score between 0% and 100%. Among the second evaluation information, at least one indicator related to user voice data may be provided as a numerical score between 0 and 100 points, for example. However, this is merely an example, and the unit and range of the digitized score are not limited thereto.

실시 예들에 따르면, 제2 페이지는 제1 평가 정보를 수치화한 점수가 기준 값 이상인 경우 유사한 검사 관련 정보를 이용한 재검사, 전문 상담사와의 화상 통화 및 상담을 통한 추가 검사, 난이도 선택이 가능한 인지 훈련 및 병원 이송 중 적어도 하나의 사후 조치를 안내하는 추천 정보를 더 포함할 수 있다.According to embodiments, the second page is a retest using similar test-related information when the score obtained by digitizing the first evaluation information is equal to or higher than the reference value, an additional test through video call and consultation with a professional counselor, cognitive training with difficulty selection, and Recommendation information for guiding at least one follow-up action during transfer to the hospital may be further included.

본 개시에 따르면, 사용자 단말이 제공하는 제1 페이지 및 제1 페이지의 텍스트 정보 및 이미지 정보를 통해 사용자는 쉽고 빠르게 인지 상태 검사를 진행할 수 있고, 이에 대한 평가 정보를 제2 페이지에서 쉽고 빠르게 확인할 수 있으며, 이를 통해 어떤 사후 조치가 필요한지 확인할 수 있다.According to the present disclosure, a user can easily and quickly perform a cognitive state test through a first page and text information and image information of the first page provided by a user terminal, and can easily and quickly check evaluation information for this on a second page. and, through this, it is possible to determine what follow-up measures are required.

단계 S330은, 보다 구체적으로, 제1 인코더를 사용하여 사용자 음성 데이터를 기반으로 화자 식별 임베딩(embedding)을 획득하는 단계, 제2 인코더를 사용하여 사용자 음성 데이터 및 화자 식별 임베딩을 기반으로 콘텐츠 임베딩을 획득하는 단계, 타겟 모델을 사용하여 콘텐츠 임베딩을 기반으로 제1 평가 정보를 확인하는 단계 및 제1 평가 정보를 포함하는 제2 페이지를 제공하는 단계를 포함할 수 있다.In step S330, in more detail, obtaining a speaker identification embedding based on user voice data using a first encoder, and obtaining content embedding based on the user voice data and speaker identification embedding using a second encoder. The method may include acquiring, identifying first evaluation information based on content embedding using a target model, and providing a second page including the first evaluation information.

화자 식별 임베딩을 획득하는 단계는 사용자 음성 데이터를 기반으로 적어도 하나의 부분 음성 데이터를 포함하는 부분 음성 데이터 세트를 확인하는 단계 및 제1 인코더를 사용하여 부분 음성 데이터 세트를 기반으로 화자 식별 임베딩을 획득하는 단계를 포함할 수 있다. 화자 식별 임베딩은 사용자 음성 데이터에 포함된 음색(timbre) 정보를 포함할 수 있다.Acquiring the speaker identification embedding includes identifying a partial speech data set including at least one partial speech data based on the user speech data, and obtaining the speaker identification embedding based on the partial speech data set using a first encoder. steps may be included. Speaker identification embedding may include timbre information included in user voice data.

콘텐츠 임베딩을 획득하는 단계는 사용자 음성 데이터와 화자 식별 임베딩을 연결하여(concatenate) 제2 인코더에 입력하는 단계를 포함할 수 있다. 콘텐츠 임베딩은 사용자 음성 데이터에 포함된 리듬(rhythm) 정보, 피치(pitch) 정보 및 콘텐츠 정보를 포함할 수 있다.Obtaining the content embedding may include concatenating the user voice data and the speaker identification embedding and inputting the concatenated data to a second encoder. Content embedding may include rhythm information, pitch information, and content information included in user voice data.

제2 인코더는 콘텐츠 임베딩 및 제2 인코더에 대응하는 제2 디코더를 사용하여 화자 식별 임베딩을 디코딩하여 생성된 출력 음성 데이터 및 사용자 음성 데이터의 비교를 기반으로 학습될 수 있다. 제2 인코더 및 제2 디코더는 출력 음성 데이터 및 사용자 음성 데이터의 차이를 최소화하도록 학습될 수 있다.The second encoder may be learned based on a comparison of user voice data and output voice data generated by decoding the speaker identification embedding using the second decoder corresponding to the content embedding and the second encoder. The second encoder and the second decoder may be trained to minimize a difference between output voice data and user voice data.

제1 인코더는 LSTM(Long Short Term Memory) 및 정류 선형 유닛(Rectified Linear Unit, ReLU) 중 적어도 하나를 포함할 수 있고, 제2 인코더는 컨벌루션 레이어, 양방향 LSTM(bidirectional LSTM) 및 다운샘플링 유닛 중 적어도 하나를 포함할 수 있다.The first encoder may include at least one of a Long Short Term Memory (LSTM) and a Rectified Linear Unit (ReLU), and the second encoder may include at least one of a convolutional layer, a bidirectional LSTM, and a downsampling unit. may contain one.

타겟 모델은 완전 연결층(fully connected layer)을 포함할 수 있다. 완전 연결층은 복수의 콘텐츠 임베딩과 복수의 콘텐츠 임베딩 각각에 대응하는 라벨을 기반으로 학습될 수 있다. 제1 평가 정보는, 예를 들어, 간이 정신 상태 검사(mini-mental state examination; MMSE)와 연관된 점수로 제공될 수 있다.The target model may include a fully connected layer. The fully connected layer may be learned based on a plurality of content embeddings and a label corresponding to each of the plurality of content embeddings. The first evaluation information may be provided as, for example, a score associated with a mini-mental state examination (MMSE).

본 개시에 따르면, 사용자 음성 데이터로부터 사용자의 인지 상태를 자동으로 판단할 수 있다. 보다 구체적으로, 사용자 음성 데이터로부터 화자 식별 임베딩을 분리한 콘텐츠 임베딩을 기반으로 사용자의 인지 상태와 관련된 정보를 빠르고 정확하게 판단할 수 있고, 사용자 단말은 인지 상태와 관련된 정보를 사용자에게 제공할 수 있다.According to the present disclosure, a user's cognitive state can be automatically determined from user voice data. More specifically, information related to a user's cognitive state can be quickly and accurately determined based on content embedding obtained by separating speaker identification embedding from user voice data, and the user terminal can provide the information related to the cognitive state to the user.

도 3b는 본 개시의 실시 예들에 따른 인지 상태 정보 제공 방법을 설명하기 위한 흐름도이다.3B is a flowchart illustrating a method for providing cognitive state information according to embodiments of the present disclosure.

도 3b를 참조하면, 단계 S340에서, 사용자 단말은 검사 전 체크 리스트 정보를 획득할 수 있다. 검사 전 체크 리스트는 사용자의 각성 상태 여부, 주변 환경, 검사 주기 및 재검사 여부 중 적어도 하나에 대한 정보를 포함할 수 있다. 검사 전에 몇 가지 사항을 체크하는 것을 통해 사용자 단말에 입력되는 사용자 음성 데이터의 정확도 및 사용자 음성 데이터를 기반으로 하는 판단의 신뢰도를 제고할 수 있다. 실시 예들에 따르면, 사용자 단말은 단계 S340 이후에 검사 진행을 위한 음성 녹음 권한과 관련된 안내 팝업을 제공할 수 있다.Referring to FIG. 3B , in step S340, the user terminal may obtain checklist information before examination. The pre-examination checklist may include information on at least one of whether the user is awake, surrounding environment, examination period, and re-examination. The accuracy of the user voice data input to the user terminal and the reliability of the judgment based on the user voice data can be improved by checking several items before the test. According to embodiments, the user terminal may provide a pop-up guide related to the voice recording authority for the test to proceed after step S340.

단계 S350에서, 사용자 단말은 적어도 하나의 테스트 검사 정보를 포함하는 제3 페이지를 제공할 수 있다. 제3 페이지는 음성 입력과 관련된 상태를 나타내는 아이콘을 더 포함할 수 있다. 아이콘은, 예를 들어, 음성 입력의 확인 여부에 따라 다른 이미지로 표시될 수 있다. 테스트 검사 정보는, 예를 들어, 학습 모델의 분석 대상이 되는 자유 발화를 유도하는 검사와 관련된 정보일 수 있다. 예를 들어, 테스트 검사 정보는 특정 주제(예를 들어, 동물 이름)에 대한 텍스트 정보를 포함하는 검사 정보일 수 있다.In step S350, the user terminal may provide a third page including at least one piece of test information. The third page may further include an icon representing a state related to voice input. For example, the icon may be displayed as a different image depending on whether a voice input is confirmed. The test inspection information may be, for example, information related to a test inducing free speech that is an analysis target of a learning model. For example, test information may be test information including text information on a specific subject (eg, animal name).

단계 S360에서, 사용자 단말은 제3 페이지가 표시된 상태에서 테스트 검사 정보에 대응하는 테스트 음성 데이터를 획득할 수 있다. 테스트 음성 데이터는 제3 페이지가 표시된 상태에서 아이콘에 대응하는 입력에 따라 획득될 수 있다. 테스트 음성 데이터의 길이의 상한은 도 3a를 참조하여 설명한 제1 음성 데이터의 길이의 하한(예를 들어, 약 2분)보다 작을 수 있다. 테스트 음성 데이터의 길이의 상한은, 예를 들어, 약 10초 이하일 수 있다.In step S360, the user terminal may acquire test voice data corresponding to the test examination information while the third page is displayed. Test voice data may be obtained according to an input corresponding to an icon while the third page is displayed. The upper limit of the length of the test voice data may be smaller than the lower limit (eg, about 2 minutes) of the first voice data described with reference to FIG. 3A . The upper limit of the length of the test voice data may be, for example, about 10 seconds or less.

단계 S370에서, 사용자 단말은 테스트 음성 데이터를 기반으로 음성 입력을 확인할 수 있다. 테스트 음성 데이터는 학습 모델의 분석 대상이 아니며, 사용자 단말은 테스트 음성 데이터를 기반으로 음성이 제대로 입력되는지를 확인할 수 있다. 단계 S370 이후에, 도 3a를 참조하여 설명한 단계 S310이 수행될 수 있다.In step S370, the user terminal can check the voice input based on the test voice data. The test voice data is not an analysis target of the learning model, and the user terminal can check whether the voice is properly input based on the test voice data. After step S370, step S310 described with reference to FIG. 3A may be performed.

도 4a 내지 도 4g는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 제1 검사 정보를 포함하는 페이지를 설명하기 위한 도면들이다. 이때, 제1 검사 정보는 도 3a를 참조하여 설명한 검사 관련 정보 중 이미지 정보 및 이미지 정보에 대한 설명을 요청하는 제1 텍스트 정보를 포함하는 검사 정보이다.4A to 4G are diagrams for describing a page including first inspection information provided to a user terminal according to embodiments of the present disclosure. In this case, the first inspection information is inspection information including image information and first text information requesting an explanation of the image information among the inspection-related information described with reference to FIG. 3A .

도 4a를 참조하면, 제1 검사 정보를 안내하는 제1 페이지(410)가 도시된다. 제1 검사 정보는 제1 검사(예를 들어, 그림 설명하기 검사(Picture Description Test; PDT))와 관련된 정보이다. 제1 페이지(410)를 통해 사용자는 제1 검사 정보에 대하여 음성을 입력하는 방법을 포함하는 제1 검사의 진행 방법을 확인할 수 있다. 특히, 제1 페이지(410)를 통해 사용자는 제1 검사 정보에 대하여 획득되는 제1 음성 데이터의 하한(예를 들어, 2분) 및 상한(예를 들어, 10분)을 확인할 수 있다. 제1 페이지(410)는 하단의 '검사 시작' 아이콘(411)을 포함할 수 있다.Referring to FIG. 4A , a first page 410 guiding first inspection information is shown. The first test information is information related to the first test (eg, Picture Description Test (PDT)). Through the first page 410, the user can check how to proceed with the first examination, including a method of inputting a voice for the first examination information. In particular, through the first page 410, the user can check the lower limit (eg, 2 minutes) and upper limit (eg, 10 minutes) of the first voice data obtained for the first test information. The first page 410 may include a 'test start' icon 411 at the bottom.

도 4b, 도 4c, 도 4d 및 도 4e를 참조하면, 도 4a를 참조하여 설명한 '검사 시작' 아이콘(411)에 대응하는 입력에 따라 사용자 단말에 제공되는 제2 페이지(420)가 도시된다. 제2 페이지(420)는 도 3a를 참조하여 설명한 검사 관련 정보를 포함하는 제1 페이지에 해당할 수 있다.Referring to FIGS. 4B, 4C, 4D, and 4E, a second page 420 provided to the user terminal according to an input corresponding to the 'test start' icon 411 described with reference to FIG. 4A is illustrated. The second page 420 may correspond to the first page including test-related information described with reference to FIG. 3A .

제2 페이지(420)는 제1 검사 정보를 포함하는 제1 영역(421) 및 제1 아이콘(4221)을 포함하는 제2 영역(422)을 포함할 수 있다. 제1 검사 정보는 이미지 정보(4211) 및 이미지 정보(4211)에 대한 설명을 요청하는 제1 텍스트 정보(4212)를 포함할 수 있다. 제1 검사 정보의 이미지 정보(4211)는, 예를 들어, 적어도 하나의 사물(예를 들어, '선반 속의 사탕', '커튼이 설치된 창문', '물이 가득차 넘치고 있는 싱크대')을 포함하는 공간에서 적어도 하나의 동작(예를 들어, '사탕을 꺼내는 동작', '손으로 선반을 가리키는 동작', '그릇을 닦는 동작')을 수행하는 적어도 하나의 인물(예를 들어, '의자 옆의 소녀', '의자 위에 올라간 소년', '싱크대 앞의 여자')의 이미지를 포함할 수 있다. 실시 예들에 따르면, 제1 검사 정보의 이미지 정보(4211)가 복수로 제공되는 경우, 이에 대응하는 복수의 제2 페이지(420)가 사용자 단말에 순차적으로 제공될 수 있다.The second page 420 may include a first area 421 including first inspection information and a second area 422 including a first icon 4221 . The first inspection information may include image information 4211 and first text information 4212 requesting an explanation of the image information 4211 . The image information 4211 of the first inspection information includes, for example, at least one object (eg, 'candy on the shelf', 'window with curtains installed', 'sink overflowing with water'). At least one person performing at least one action (e.g., 'taking out the candy', 'pointing to the shelf', 'wiping the dishes') in the space (eg, 'moving next to the chair') 'Girl', 'Boy on a chair', 'Woman in front of a sink'). According to embodiments, when a plurality of image information 4211 of the first examination information is provided, a plurality of second pages 420 corresponding to the plurality of image information 4211 may be sequentially provided to the user terminal.

제1 검사 정보의 제1 텍스트 정보(4212)는, 예를 들어, '그림에 대해 2분~10분 동안 자유롭게 말씀해 주세요.'와 같은 문구를 포함할 수 있다. 실시 예들에 따르면, 제1 영역(421)의 이미지 정보(4211) 상에 음성 입력이 진행된 시간을 나타내는 프로그레스 바(Progress Bar) 형태의 GUI(Graphical User Interface)가 제공될 수 있다.The first text information 4212 of the first inspection information may include, for example, a phrase such as 'Please feel free to talk about the picture for 2 to 10 minutes.' According to embodiments, a graphical user interface (GUI) in the form of a progress bar indicating a time when a voice input has been performed may be provided on the image information 4211 of the first area 421 .

도 4b를 참조하면, 제2 영역(422)의 제1 아이콘(4221)은, 예를 들어, 적색 원 형상을 가질 수 있다. 제1 아이콘(4221) 아래에 '녹음 시작' 문구가 제공될 수 있다. 제1 검사 정보에 대한 제1 음성 데이터는 제2 페이지(420)가 표시된 상태에서 제1 아이콘(4221) 및 '녹음 시작' 문구 중 적어도 하나에 대응하는 입력에 따라 획득될 수 있다.Referring to FIG. 4B , the first icon 4221 of the second region 422 may have, for example, a red circular shape. A 'recording start' phrase may be provided below the first icon 4221 . The first voice data for the first test information may be obtained according to an input corresponding to at least one of the first icon 4221 and the phrase 'start recording' while the second page 420 is displayed.

도 4c를 참조하면, 제2 영역(422)의 제1 아이콘(4221)은 음성 입력이 확인되는 것에 대응하여 사람 얼굴 형상을 갖는 제1 이미지(IMa)로 표시될 수 있다. 제1 이미지(IMa)는, 예를 들어, 음성 입력이 확인되는 것에 대응하여 움직이는(예를 들어, 원 형상 내의 사람 얼굴이 고개를 끄덕이는) 동적 이미지(즉, 애니메이션)일 수 있다. 이때, 제1 이미지(IMa)로 표시되는 제1 아이콘(4221) 아래에 '듣고 있어요!' 문구가 제공될 수 있다. 또한, 제1 아이콘(4221) 아래에 제2 아이콘(4222)이 추가로 제공될 수 있다. 제2 아이콘(4222)은, 예를 들어, 원의 테두리 내에 사각형이 있는 형상을 가질 수 있다. 제2 아이콘(4222) 아래에 '녹음 종료' 문구가 제공될 수 있다. 제1 검사 정보에 대한 제1 음성 데이터를 획득하는 과정은 제2 아이콘(4222) 및 '녹음 종료' 문구 중 적어도 하나에 대응하는 입력에 따라 종료될 수 있다.Referring to FIG. 4C , the first icon 4221 of the second area 422 may be displayed as a first image IMa having a human face shape in response to confirmation of voice input. The first image IMa may be, for example, a dynamic image (ie, animation) that moves (eg, a person's face in a circular shape nods) in response to confirmation of a voice input. At this time, 'I'm listening!' A phrase may be provided. Also, a second icon 4222 may be additionally provided under the first icon 4221 . The second icon 4222 may have, for example, a shape of a rectangle within a circle rim. Under the second icon 4222, a phrase 'end recording' may be provided. The process of obtaining the first voice data for the first test information may be terminated according to an input corresponding to at least one of the second icon 4222 and the phrase 'end recording'.

도 4d를 참조하면, 제2 영역(422)의 제1 아이콘(4221)은 확인되던 음성 입력이 확인되지 않는 것에 대응하여 도 4c를 참조하여 설명한 동적 이미지인 제1 이미지(IMa) 대신에 웃는 표정의 사람 얼굴 형상을 갖는 제2 이미지(IMb)로 표시될 수 있다. 이때, 제2 이미지(IMb)로 표시되는 제1 아이콘(4221) 아래에 '듣고 있어요!' 문구가 제공될 수 있다. 또한, 도 4e를 참조하면, 제2 영역(422)의 제1 아이콘(4221)은 음성 입력이 확인되지 않는 시간이 기준 시간(예를 들어, 5초 내지 1분)을 경과하는 경우 놀란 표정의 사람 얼굴 형상을 갖는 제3 이미지(IMc)로 표시될 수 있다. 이때, 제3 이미지(IMc)로 표시되는 제1 아이콘(4221) 아래에 '소리가 안 들려요! 말씀해 주세요' 문구가 제공될 수 있다. 제2 이미지(IMb) 및 제3 이미지(IMc)는 제1 이미지(IMa)와 달리 움직이지 않는 정적 이미지일 수 있다.Referring to FIG. 4D , the first icon 4221 of the second area 422 corresponds to the fact that the previously confirmed voice input is not confirmed, and instead of the first image IMa, which is a dynamic image described with reference to FIG. 4C , a smiling expression. may be displayed as a second image IMb having a human face shape of . At this time, 'I'm listening!' A phrase may be provided. Also, referring to FIG. 4E , the first icon 4221 of the second region 422 shows a surprised expression when the time period in which the voice input is not confirmed has elapsed by a reference time (eg, 5 seconds to 1 minute). It may be displayed as a third image IMc having a human face shape. At this time, 'I can't hear the sound! A 'Please tell me' phrase may be provided. Unlike the first image IMa, the second image IMb and the third image IMc may be static images that do not move.

도 4f 및 도 4g를 참조하면, 도 4b 내지 도 4e를 참조하여 설명한 제1 아이콘(4221)에 대응하는 입력에 따라 제1 음성 데이터가 획득된 경우 사용자 단말에 제공되는 제3 페이지(430) 및 제4 페이지(440)가 각각 도시된다.Referring to FIGS. 4F and 4G , a third page 430 provided to the user terminal when first voice data is acquired according to an input corresponding to the first icon 4221 described with reference to FIGS. 4B to 4E , and A fourth page 440 is shown respectively.

도 4f를 참조하면, 제3 페이지(430)는 제1 음성 데이터가 설정된 조건을 만족하는 경우 표시되는 녹음 완료에 대한 정보를 포함할 수 있다. 보다 구체적으로, 제3 페이지(430)는 상단의 '그림 설명하기 검사 완료!' 문구를 포함하는 텍스트 정보(431), 웃는 표정의 사람 얼굴 형상을 갖는 이미지 정보(432) 및 '네. 알겠어요' 아이콘(433)을 포함할 수 있다.Referring to FIG. 4F , the third page 430 may include information about completion of recording displayed when the first voice data satisfies a set condition. More specifically, the third page 430 is 'Describe the picture inspection complete!' Text information 431 including a phrase, image information 432 having a human face with a smiling expression, and 'Yes. OK' icon 433 may be included.

도 4g를 참조하면, 제4 페이지(440)는 제1 음성 데이터가 설정된 조건을 만족하지 않는 경우 표시되는 재녹음 요청에 대한 정보를 포함할 수 있다. 보다 구체적으로, 제4 페이지(440)는 상단의 '녹음이 되지 않았어요.' 문구를 포함하는 텍스트 정보(441), 걱정스러운 표정의 사람 얼굴 형상을 갖는 이미지 정보(442) 및 '다시하기' 아이콘(443)을 포함할 수 있다. '다시하기' 아이콘(443)에 대응하는 입력에 따라 도 4a를 참조하여 설명한 제1 페이지(410) 또는 도 4b를 참조하여 설명한 제2 페이지(420)가 사용자 단말에 다시 제공될 수 있다.Referring to FIG. 4G , a fourth page 440 may include information on a re-recording request displayed when the first voice data does not satisfy a set condition. More specifically, the fourth page (440) is 'recording was not done' at the top. It may include text information 441 including a phrase, image information 442 having a human face with a worried expression, and a 'do it again' icon 443. According to an input corresponding to the 'play again' icon 443, the first page 410 described with reference to FIG. 4A or the second page 420 described with reference to FIG. 4B may be provided to the user terminal again.

도 5a 내지 도 5f는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 제2 검사 정보를 포함하는 페이지를 설명하기 위한 도면들이다. 이때, 제2 검사 정보는 도 3a를 참조하여 설명한 검사 관련 정보 중 검사 관련 정보 중 특정 주제에 대한 제2 텍스트 정보 및 제2 텍스트 정보에 대한 설명을 요청하는 제3 텍스트 정보를 포함하는 검사 정보이다.5A to 5F are diagrams for describing a page including second examination information provided to a user terminal according to embodiments of the present disclosure. In this case, the second examination information is examination information including second text information on a specific subject among the examination-related information described with reference to FIG. 3A and third text information requesting an explanation of the second text information. .

도 5a를 참조하면, 제2 검사 정보를 안내하는 제1 페이지(510)가 도시된다. 제2 검사 정보는 제2 검사(예를 들어, 이야기하기 검사(Storytelling Test))와 관련된 정보이다. 제1 페이지(510)를 통해 사용자는 제2 검사 정보에 대하여 음성을 입력하는 방법을 포함하는 제2 검사의 진행 방법을 확인할 수 있다. 특히, 제1 페이지(510)를 통해 사용자는 제2 검사 정보에 대하여 획득되는 제2 음성 데이터의 상한(예를 들어, 1분)을 확인할 수 있다. 제1 페이지(510)는 하단의 '검사 시작' 아이콘(511)을 포함할 수 있다.Referring to FIG. 5A , a first page 510 guiding second inspection information is shown. The second test information is information related to a second test (eg, a storytelling test). Through the first page 510, the user can check how to proceed with the second examination, including a method of inputting a voice for the second examination information. In particular, through the first page 510, the user can check the upper limit (eg, 1 minute) of the second voice data acquired for the second examination information. The first page 510 may include a 'test start' icon 511 at the bottom.

실시 예들에 따르면, 도 4f를 참조하여 설명한 '네. 알겠어요' 아이콘(433)에 대응하는 입력에 따라 제1 페이지(510)가 사용자 단말에 제공될 수 있다. 이는 제1 검사 이후에 제2 검사가 수행되는 경우를 가정한 것이나, 본 개시는 이에 제한되지 않으며, 제2 검사 이후에 제1 검사가 수행되는 경우에는 도 4f를 참조하여 설명한 '네. 알겠어요' 아이콘(433)에 대응하는 입력에 따라 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 페이지가 사용자 단말에 제공될 수도 있다.According to embodiments, 'Yes. According to an input corresponding to the 'I understand' icon 433 , the first page 510 may be provided to the user terminal. This assumes that the second inspection is performed after the first inspection, but the present disclosure is not limited thereto, and the first inspection is performed after the second inspection, as described with reference to FIG. 4F 'Yes. According to an input corresponding to the 'I understand' icon 433, a page including first evaluation information obtained by using a learning model set based on user voice data may be provided to the user terminal.

도 5b, 도 5c 및 도 5d를 참조하면, 도 5a를 참조하여 설명한 '검사 시작' 아이콘(511)에 대응하는 입력에 따라 사용자 단말에 제공되는 제2 페이지(520a, 520b, 520c)가 도시된다. 제2 페이지(520a, 520b, 520c)는 도 3a를 참조하여 설명한 검사 관련 정보를 포함하는 제1 페이지에 해당할 수 있다.Referring to FIGS. 5B, 5C, and 5D, second pages 520a, 520b, and 520c provided to the user terminal according to an input corresponding to the 'test start' icon 511 described with reference to FIG. 5A are illustrated. . The second pages 520a, 520b, and 520c may correspond to the first page including test-related information described with reference to FIG. 3A.

제2 페이지(520a, 520b, 520c)는 제2 검사 정보를 포함하는 제1 영역(521) 및 제1 아이콘(5221)을 포함하는 제2 영역(422)을 포함할 수 있다. 제2 검사 정보는 특정 주제에 대한 제2 텍스트 정보(5211) 및 제2 텍스트 정보(5211)에 대한 설명을 요청하는 제3 텍스트 정보(5212)를 포함할 수 있다. 제2 검사 정보의 제2 텍스트 정보(5211)는, 예를 들어, '기뻤던 일', '슬펐던 일', '어제 있었던 일' 중 어느 하나의 문구를 포함할 수 있다. 실시 예들에 따르면, 제2 검사 정보의 특정 주제가 복수로 제공되는 경우, 이에 대응하는 복수의 제2 페이지(520a, 520b, 520c)가 사용자 단말에 순차적으로 제공될 수 있다.The second pages 520a, 520b, and 520c may include a first area 521 including second examination information and a second area 422 including a first icon 5221 . The second examination information may include second text information 5211 on a specific subject and third text information 5212 requesting an explanation of the second text information 5211 . The second text information 5211 of the second examination information may include, for example, one of 'happy things', 'sad things', and 'what happened yesterday'. According to embodiments, when a plurality of specific subjects of the second examination information are provided, a plurality of second pages 520a, 520b, and 520c corresponding thereto may be sequentially provided to the user terminal.

제2 검사 정보의 제3 텍스트 정보(5212)는, 예를 들어, '기뻤던 일(또는 슬펐던 일, 어제 있었던 일)에 대해 1분 동안 자유롭게 말씀해 주세요.'와 같은 문구를 포함할 수 있다. 실시 예들에 따르면, 제1 영역(521)의 일 부분에 음성 입력이 진행된 시간을 나타내는 프로그레스 바 형태의 GUI가 제공될 수 있다.The third text information 5212 of the second examination information may include, for example, a phrase such as 'Please feel free to tell me about a happy event (or a sad event, or an event that happened yesterday) for 1 minute.' According to embodiments, a GUI in the form of a progress bar indicating a time when a voice input progresses may be provided to a portion of the first region 521 .

제2 페이지(520a, 520b, 520c)의 제2 영역(522) 및 제2 영역(522)의 제1 아이콘(5221)은 도 4b, 도 4c, 도 4d 및 도 4e를 참조하여 설명한 제2 페이지(420)의 제2 영역(422) 및 제2 영역(422)의 제1 아이콘(4221)과 실질적으로 동일할 수 있다. 제2 검사 정보에 대한 제2 음성 데이터는 제2 페이지(520a, 520b, 520c)가 표시된 상태에서 제1 아이콘(5221) 및 '녹음 시작' 문구 중 적어도 하나에 대응하는 입력에 따라 획득될 수 있다. 또한, 제2 영역(522)의 제1 아이콘(5221)은 음성 입력이 확인되는 것, 음성 입력이 확인되지 않는 것 및 음성 입력이 확인되지 않는 시간이 기준 시간을 경과하는 경우 각각에 대응하여 서로 다른 이미지로 표시될 수 있다.The second area 522 of the second pages 520a, 520b, and 520c and the first icon 5221 of the second area 522 are the second pages described with reference to FIGS. 4B, 4C, 4D, and 4E. The second area 422 of 420 and the first icon 4221 of the second area 422 may be substantially the same. Second voice data for the second examination information may be obtained according to an input corresponding to at least one of the first icon 5221 and the phrase 'start recording' while the second pages 520a, 520b, and 520c are displayed. . In addition, the first icon 5221 of the second area 522 corresponds to each other when the voice input is confirmed, when the voice input is not confirmed, and when the time when the voice input is not confirmed passes the reference time. It may be displayed as a different image.

도 5e 및 도 5f를 참조하면, 도 5b 내지 도 5d를 참조하여 설명한 제1 아이콘(5221)에 대응하는 입력에 따라 제2 음성 데이터가 획득된 경우 사용자 단말에 제공되는 제3 페이지(530) 및 제4 페이지(540)가 각각 도시된다.Referring to FIGS. 5E and 5F , a third page 530 provided to the user terminal when second voice data is obtained according to an input corresponding to the first icon 5221 described with reference to FIGS. 5B to 5D , and A fourth page 540 is shown respectively.

도 5e를 참조하면, 제3 페이지(530)는 제2 음성 데이터가 설정된 조건을 만족하는 경우 표시되는 녹음 완료에 대한 정보를 포함할 수 있다. 보다 구체적으로, 제3 페이지(530)는 상단의 '기뻤던 일(또는 슬펐던 일, 어제 있었던 일) 녹음 완료!' 문구를 포함하는 텍스트 정보(531), 웃는 표정의 사람 얼굴 형상을 갖는 이미지 정보(532) 및 '알겠어요' 아이콘(533)을 포함할 수 있다.Referring to FIG. 5E , the third page 530 may include information about completion of recording displayed when the second voice data satisfies a set condition. More specifically, the third page (530) at the top of 'happy event (or sad event, yesterday's event) recording complete!' Text information 531 including a phrase, image information 532 having a human face with a smiling expression, and an 'I understand' icon 533 may be included.

도 5f를 참조하면, 제4 페이지(540)는 제2 음성 데이터가 설정된 조건을 만족하지 않는 경우 표시되는 재녹음 요청에 대한 정보를 포함할 수 있다. 보다 구체적으로, 제4 페이지(540)는 상단의 '녹음이 되지 않았어요.' 문구를 포함하는 텍스트 정보(541), 걱정스러운 표정의 사람 얼굴 형상을 갖는 이미지 정보(542) 및 '다시하기' 아이콘(543)을 포함할 수 있다. '다시하기' 아이콘(543)에 대응하는 입력에 따라 도 5a를 참조하여 설명한 제1 페이지(510) 또는 도 5b를 참조하여 설명한 제2 페이지(520a)가 사용자 단말에 다시 제공될 수 있다.Referring to FIG. 5F , a fourth page 540 may include information on a re-recording request displayed when the second voice data does not satisfy a set condition. More specifically, the 4th page (540) is 'not recorded' at the top. Text information 541 including a phrase, image information 542 having a human face with a worried expression, and a 'do it again' icon 543 may be included. According to an input corresponding to the 'play again' icon 543, the first page 510 described with reference to FIG. 5A or the second page 520a described with reference to FIG. 5B may be provided to the user terminal again.

도 6a 내지 도 6e는 본 개시의 실시 예들에 따라 사용자 단말에 제공되는 평가 정보를 포함하는 페이지를 설명하기 위한 도면들이다.6A to 6E are diagrams for describing a page including evaluation information provided to a user terminal according to embodiments of the present disclosure.

도 6a, 도 6b 및 도 6c를 참조하면, 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제1 페이지(610a, 610b, 610c)가 도시된다. 제1 페이지(610a, 610b, 610c)는 도 3a를 참조하여 설명한 제1 평가 정보를 포함하는 제2 페이지에 해당할 수 있다.Referring to FIGS. 6A, 6B, and 6C, first pages 610a, 610b, and 610c including first evaluation information obtained using a learning model set based on user voice data are shown. The first pages 610a, 610b, and 610c may correspond to second pages including the first evaluation information described with reference to FIG. 3A.

제1 페이지(610a, 610b, 610c)는 분석 결과 텍스트 정보(611), 사람 얼굴 형상을 갖는 분석 결과 이미지 정보(612), '더 자세한 결과 보러가기' 아이콘(613), '확인' 아이콘(614) 및 '재검사하기' 아이콘(615)을 포함할 수 있다. The first pages 610a, 610b, and 610c include analysis result text information 611, analysis result image information having a human face shape 612, 'go to see more detailed results' icon 613, and 'confirm' icon 614 ) and a 'recheck' icon 615.

제1 평가 정보는, 예를 들어, 0% 내지 100% 사이의 수치화된 점수로 제공될 수 있다. 예를 들어, 제1 평가 정보가 0% 이상 50% 이하인 경우, 인지 상태가 '정상'으로 판단될 수 있다. 또한, 예를 들어, 제1 평가 정보가 50% 초과 75% 이하인 경우, 인지 상태가 '주의'로 판단될 수 있다. 또한, 예를 들어, 제1 평가 정보가 75% 초과 100% 이하인 경우, 인지 상태가 '위험'으로 판단될 수 있다.The first evaluation information may be provided as a numerical score between 0% and 100%, for example. For example, when the first evaluation information is 0% or more and 50% or less, the cognitive state may be determined to be 'normal'. Also, for example, when the first evaluation information is greater than 50% and less than or equal to 75%, the cognitive state may be determined as 'attention'. Also, for example, when the first evaluation information is greater than 75% and less than or equal to 100%, the cognitive state may be determined to be 'dangerous'.

인지 상태가 '정상'인 경우, 분석 결과 텍스트 정보(611)는 '홍길동님의 인지 상태는 정상이에요.' 문구를 포함할 수 있고, 분석 결과 이미지 정보(612)는 웃는 표정의 사람 얼굴 형상을 가질 수 있다. 이때, 제1 페이지(610a)는, 예를 들어, 분석 결과 이미지 정보(612) 아래에 제공되는 '홍길동님의 인지 상태는 동일한 성별, 연령대, 학력 수준 대비 건강하신 수준입니다. 현재 상태를 꾸준히 증진하시어, 건강한 인지 상태를 유지하시길 바랍니다.'와 같은 설명 문구를 포함하는 추천 정보(616)를 더 포함할 수 있다.If the cognitive status is 'normal', the analysis result text information (611) is 'Hong Gil-dong's cognitive status is normal.' phrase, and the analysis result image information 612 may have a human face shape with a smiling expression. At this time, the first page 610a, for example, provided under the analysis result image information 612, 'Hong Gil-dong's cognitive status is a healthy level compared to the same gender, age group, and educational level. It may further include recommendation information 616 including an explanatory phrase such as 'I hope you maintain a healthy cognitive state by steadily improving your current condition.'

인지 상태가 '주의'인 경우, 분석 결과 텍스트 정보(611)는 '홍길동님의 인지 상태는 주의예요.' 문구를 포함할 수 있고, 분석 결과 이미지 정보(612)는 걱정스러운 표정의 사람 얼굴 형상을 가질 수 있다. 이때, 제1 페이지(610b)는, 예를 들어, 분석 결과 이미지 정보(612) 아래에 제공되는 '홍길동님의 인지 상태는 동일한 성별, 연령대, 학력 수준 대비 다소 저하된 수준입니다. 치매의 전 단계인 경도인지장애 상태가 다소 우려되오니, 추가 검사를 통해 보다 자세한 결과를 확인해보시길 권유드립니다.'와 같은 설명 문구를 포함하는 추천 정보(616)를 더 포함할 수 있다.If the cognitive state is 'attention', the text information 611 as a result of the analysis is 'Hong Gil-dong's cognitive status is caution.' phrase, and the analysis result image information 612 may have a human face shape with a worried expression. At this time, the first page 610b, for example, provided under the analysis result image information 612, 'Hong Gil-dong's cognitive status is at a slightly lower level compared to the same gender, age group, and educational level. Recommendation information 616 including an explanatory phrase such as 'I am concerned about mild cognitive impairment, which is the previous stage of dementia, so I recommend that you check more detailed results through additional tests.'

인지 상태가 '위험'인 경우, 분석 결과 텍스트 정보(611)는 '홍길동님의 인지 상태는 위험이에요.' 문구를 포함할 수 있고, 분석 결과 이미지 정보(612)는 찡그린 표정의 사람 얼굴 형상을 가질 수 있다. 이때, 제1 페이지(610c)는, 예를 들어, 분석 결과 이미지 정보(612) 아래에 제공되는 '홍길동님의 인지 상태는 동일한 성별, 연령대, 학력 수준 대비 뚜렷히 저하된 수준입니다. 추가 검사를 통해 보다 자세한 결과를 확인하시거나 병원 진료를 권유드립니다.'와 같은 설명 문구를 포함하는 추천 정보(616)를 더 포함할 수 있다.If the cognitive state is 'danger', the analysis result text information (611) is 'Hong Gil-dong's cognitive status is dangerous.' phrase, and as a result of the analysis, the image information 612 may have a human face shape with a frowning expression. At this time, the first page 610c, for example, provided under the analysis result image information 612, 'Hong Gil-dong's cognitive status is at a markedly lower level compared to the same gender, age group, and educational level. Recommendation information 616 including an explanatory phrase such as, 'Check for more detailed results through additional tests or recommend hospital treatment.'

도 6d를 참조하면, 사용자 음성 데이터와 관련된 적어도 하나의 지표에 대한 제2 평가 정보를 포함하는 제2 페이지(620)가 도시된다. 제2 페이지(620)는 도 6a, 도 6b 및 도 6c를 참조하여 설명한 '더 자세한 결과 보러가기' 아이콘(613)에 대응하는 입력에 따라 사용자 단말에 제공될 수 있다. 실시 예들에 따르면, 제2 페이지(620)는 제1 페이지(610a, 610b, 610c)와 동일한 페이지 상에 함께 제공될 수도 있다. 즉, 제2 페이지(620)는 도 3a를 참조하여 설명한 제1 평가 정보를 포함하는 제2 페이지의 일부에 해당할 수도 있다.Referring to FIG. 6D , a second page 620 including second evaluation information for at least one indicator related to user voice data is shown. The second page 620 may be provided to the user terminal according to an input corresponding to the 'Go to see more detailed results' icon 613 described with reference to FIGS. 6A, 6B, and 6C. According to embodiments, the second page 620 may be provided together on the same page as the first pages 610a, 610b, and 610c. That is, the second page 620 may correspond to a part of the second page including the first evaluation information described with reference to FIG. 3A.

제2 페이지(620)는 음향 영역의 정보, 언어 영역의 정보 및 의미 영역의 정보에 대한 종합 분석 결과 정보를 포함하는 제1 영역(621), 음향 영역과 관련된 지표들(예를 들어, '총 발화량, 발화율, 침묵률, 발화 특이도')에 대한 정보를 포함하는 제2 영역(622), 언어 영역과 관련된 지표들(예를 들어, '명사 비율, 문장 복잡도, 연결어 비율, 고유 단어 수')에 대한 정보를 포함하는 제3 영역(623) 및 의미 영역과 관련된 지표들(예를 들어, '전체 일관성, 문장 일관성')에 대한 정보를 포함하는 제4 영역(624)을 포함할 수 있다. The second page 620 includes a first area 621 including comprehensive analysis result information on information in the acoustic domain, information in the language domain, and information in the semantic domain, indicators related to the acoustic domain (eg, 'total A second area 622 including information on utterance amount, utterance rate, silence rate, and utterance specificity') and indicators related to language areas (eg, 'noun ratio, sentence complexity, linking word ratio, number of unique words') ') and a fourth area 624 including information on indicators related to the semantic domain (eg, 'overall consistency, sentence consistency'). there is.

제1 영역(621)의 종합 분석 결과 정보는, 예를 들어, 각 영역에 대한 분석 결과 및 사용자와 동일한 연령대의 평균적인 분석 결과 중 적어도 하나를 기반으로 하는 방사형 차트(즉, 레이더 차트)로 제공될 수 있다. Comprehensive analysis result information of the first area 621 is provided as, for example, a radial chart (ie, a radar chart) based on at least one of the analysis result for each area and the average analysis result of the same age group as the user. It can be.

각 영역과 관련된 지표들에 대한 정보는, 예를 들어, 0점 내지 100점 사이의 수치화된 점수로 제공될 수 있다. 지표들 각각에 대한 수치화된 점수는 막대 그래프 형태의 GUI로 표시될 수 있고, 이때 사용자와 동일한 연령대의 평균적인 점수가 막대 그래프 상에 표시될 수도 있다.Information on indicators related to each area may be provided as a numerical score between 0 and 100 points, for example. The digitized scores for each of the indices may be displayed in a GUI in the form of a bar graph, and at this time, an average score of the same age group as the user may be displayed on the bar graph.

제2 영역(622), 제3 영역(623) 및 제4 영역(624) 각각은 하단의 '각 영역이 어떤 의미인가요?' 아이콘(625)을 더 포함할 수 있다. 실시 예들에 따르면, 제2 페이지(620)의 제1 내지 제4 영역들(621, 622, 623, 624)은 제2 페이지(620)의 일부분을 스크롤하는 입력에 따라 순차적으로 사용자 단말 상에 표시될 수 있다. 다른 실시 예들에 따르면, 제2 페이지(620)의 제1 내지 제4 영역들(621, 622, 623, 624)은 서로 다른 별도의 페이지에 제공될 수도 있다.Each of the second area 622, the third area 623, and the fourth area 624 is displayed in the 'What does each area mean?' An icon 625 may be further included. According to embodiments, the first to fourth areas 621, 622, 623, and 624 of the second page 620 are sequentially displayed on the user terminal according to an input for scrolling a portion of the second page 620. It can be. According to other embodiments, the first to fourth areas 621 , 622 , 623 , and 624 of the second page 620 may be provided on different pages.

도 6e를 참조하면, 도 6d를 참조하여 설명한 '각 영역이 어떤 의미인가요?' 아이콘(625)에 대응하는 입력에 따라 사용자 단말에 제공되는 제3 페이지(630)가 도시된다. 제3 페이지(630)는 음향 영역과 관련된 지표들에 대하여 설명하는 텍스트 정보(631), 언어 영역과 관련된 지표들에 대하여 설명하는 텍스트 정보(632) 및 의미 영역과 관련된 지표들에 대하여 설명하는 텍스트 정보(633)를 포함할 수 있다. 실시 예들에 따르면, 제3 페이지(630)의 텍스트 정보들(631, 632, 633)은 제3 페이지(630)의 일부분을 스크롤하는 입력에 따라 순차적으로 사용자 단말 상에 표시될 수 있다. 다른 실시 예들에 따르면, 제3 페이지(630)의 텍스트 정보들(631, 632, 633)은 서로 다른 별도의 페이지에 제공될 수도 있다.Referring to FIG. 6E, 'What does each region mean?' described with reference to FIG. 6D. A third page 630 provided to the user terminal according to the input corresponding to the icon 625 is shown. The third page 630 includes text information 631 describing indicators related to the acoustic domain, text information 632 describing indicators related to the language domain, and text describing indicators related to the semantic domain. information 633. According to embodiments, the text information 631 , 632 , and 633 of the third page 630 may be sequentially displayed on the user terminal according to an input for scrolling a portion of the third page 630 . According to other embodiments, the text information 631, 632, and 633 of the third page 630 may be provided on different pages.

도 7a 내지 도 7c는 본 개시의 실시 예들에 따라 검사 전 체크 리스트 정보 및 테스트 음성 데이터를 획득하기 위한 페이지를 설명하기 위한 도면들이다.7A to 7C are diagrams for describing pages for obtaining pre-test check list information and test voice data according to embodiments of the present disclosure.

도 7a를 참조하면, 검사 전 체크 리스트 정보를 안내하는 제1 페이지(710)가 도시된다. 제1 페이지(710)를 통해 사용자는 인지 상태 검사를 진행하기 전 필요한 상황 및 조건을 확인할 수 있다. 검사 전 체크 리스트 정보는 사용자의 각성 상태 여부, 주변 환경, 검사 주기 및 재검사 여부 중 적어도 하나에 대한 정보를 포함할 수 있다. 제1 페이지(710)는 하단의 '확인했어요' 아이콘(711)을 포함할 수 있다.Referring to FIG. 7A , a first page 710 for guiding check list information before examination is shown. Through the first page 710, the user can check necessary situations and conditions before proceeding with the cognitive state test. The pre-examination checklist information may include information on at least one of whether the user is in an awake state, the surrounding environment, an examination period, and whether or not the examination is re-examination. The first page 710 may include a 'confirmed' icon 711 at the bottom.

도 7b를 참조하면, 테스트 검사 정보를 안내하는 제2 페이지(720)가 도시된다. 제2 페이지(720)는 도 7a를 참조하여 설명한 '확인했어요' 아이콘(711)에 대응하는 입력에 따라 사용자 단말에 제공될 수 있다. 제2 페이지(720)를 통해 사용자는 테스트 검사 정보에 대하여 음성을 입력하는 방법을 포함하는 테스트 검사의 진행 방법을 확인할 수 있다. 특히, 제1 페이지(720)를 통해 사용자는 테스트 검사 정보에 대하여 획득되는 테스트 음성 데이터의 상한(예를 들어, 10초)을 확인할 수 있다. 제2 페이지(720)는 하단의 '연습 검사 시작' 아이콘(721)을 포함할 수 있다.Referring to FIG. 7B , a second page 720 for guiding test inspection information is shown. The second page 720 may be provided to the user terminal according to an input corresponding to the 'confirmed' icon 711 described with reference to FIG. 7A . Through the second page 720, the user can confirm a method of proceeding with the test including a method of inputting a voice for the test information. In particular, through the first page 720, the user can check the upper limit (eg, 10 seconds) of test voice data acquired for the test examination information. The second page 720 may include a 'practice test start' icon 721 at the bottom.

도 7c를 참조하면, 도 7b를 참조하여 설명한 '연습 검사 시작' 아이콘(721)에 대응하는 입력에 따라 사용자 단말에 제공되는 제3 페이지(730)가 도시된다. 제3 페이지(730)는 도 3b를 참조하여 설명한 제3 페이지에 해당할 수 있다.Referring to FIG. 7C , a third page 730 provided to the user terminal according to an input corresponding to the 'start practice test' icon 721 described with reference to FIG. 7B is shown. The third page 730 may correspond to the third page described with reference to FIG. 3B .

제3 페이지(730)는 테스트 검사 정보를 포함하는 제1 영역(731) 및 제1 아이콘(7321)을 포함하는 제2 영역(732)을 포함할 수 있다. 테스트 검사 정보는 특정 주제에 대한 텍스트 정보(7311)(예를 들어, '동물 이름') 및 그에 대한 설명을 요청하는 텍스트 정보(7312)(예를 들어, '동물 이름에 대해 생각나는 내용을 10초 동안 자유롭게 말씀해 주세요.')를 포함할 수 있다. 실시 예들에 따르면, 테스트 검사 정보의 특정 주제가 복수로 제공되는 경우, 이에 대응하는 복수의 제3 페이지(730)가 사용자 단말에 순차적으로 제공될 수 있다. 실시 예들에 따르면, 제1 영역(731)의 일 부분에 음성 입력이 진행된 시간을 나타내는 프로그레스 바 형태의 GUI가 제공될 수 있다.The third page 730 may include a first area 731 including test information and a second area 732 including a first icon 7321 . The test information includes text information 7311 (for example, 'animal name') for a specific subject and text information 7312 requesting an explanation (for example, 'animal name'). Please feel free to tell me for a second.'). According to embodiments, when a specific subject of test information is provided in plural, a plurality of third pages 730 corresponding to the specific subject may be sequentially provided to the user terminal. According to embodiments, a GUI in the form of a progress bar indicating a time when a voice input progresses may be provided to a portion of the first area 731 .

제3 페이지(730)의 제2 영역(732) 및 제2 영역(732)의 제1 아이콘(7321)은 도 4b, 도 4c, 도 4d 및 도 4e를 참조하여 설명한 제2 페이지(420)의 제2 영역(422) 및 제2 영역(422)의 제1 아이콘(4221)과 실질적으로 동일할 수 있다. 테스트 검사 정보에 대한 테스트 음성 데이터는 제3 페이지(730)가 표시된 상태에서 제1 아이콘(7321) 및 '녹음 시작' 문구 중 적어도 하나에 대응하는 입력에 따라 획득될 수 있다. 또한, 제2 영역(732)의 제1 아이콘(7321)은 음성 입력이 확인되는 것, 음성 입력이 확인되지 않는 것 및 음성 입력이 확인되지 않는 시간이 기준 시간을 경과하는 경우 각각에 대응하여 서로 다른 이미지로 표시될 수 있다. 실시 예들에 따르면, 제1 아이콘(7321)에 대응하는 입력에 따라 테스트 음성 데이터가 획득된 경우 사용자 단말에 도 4f 및 도 4g를 참조하여 설명한 제3 페이지(530) 및 제4 페이지(540)와 실질적으로 동일한 페이지들 중 적어도 하나가 제공될 수 있다.The second area 732 of the third page 730 and the first icon 7321 of the second area 732 are of the second page 420 described with reference to FIGS. 4B, 4C, 4D, and 4E. It may be substantially the same as the second area 422 and the first icon 4221 of the second area 422 . Test voice data for the test examination information may be obtained according to an input corresponding to at least one of the first icon 7321 and the phrase 'start recording' while the third page 730 is displayed. In addition, the first icon 7321 of the second area 732 corresponds to the case where the voice input is confirmed, the voice input is not confirmed, and the time when the voice input is not confirmed passes the reference time. It may be displayed as a different image. According to embodiments, when the test voice data is obtained according to the input corresponding to the first icon 7321, the third page 530 and the fourth page 540 described with reference to FIGS. 4F and 4G are provided to the user terminal. At least one of the substantially identical pages may be provided.

한편, 본 명세서와 도면에는 본 개시의 바람직한 실시 예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 개시의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 개시의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예 외에도 본 개시의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, in the present specification and drawings, preferred embodiments of the present disclosure have been disclosed, and although specific terms have been used, they are only used in a general sense to easily describe the technical content of the present disclosure and help understanding of the present invention. It is not intended to limit the scope of the disclosure. In addition to the embodiments disclosed herein, it is obvious to those skilled in the art that other modified examples based on the technical spirit of the present disclosure may be implemented.

전술한 실시 예들에 따른 전자 장치 또는 단말은, 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 프로세서 상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령어들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD; Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An electronic device or terminal according to the above-described embodiments includes a processor, a memory for storing and executing program data, a permanent storage unit such as a disk drive, a communication port for communicating with an external device, a touch panel, and a key. , user interface devices such as buttons, and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on a processor. Here, the computer-readable recording medium includes magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM) ), and DVD (Digital Versatile Disc). A computer-readable recording medium may be distributed among computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed by a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상술한 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment can be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, an embodiment is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., which can execute various functions by control of one or more microprocessors or other control devices. can employ them. Similar to components that can be implemented as software programming or software elements, the present embodiments include data structures, processes, routines, or various algorithms implemented as combinations of other programming constructs, such as C, C++, Java ( It can be implemented in a programming or scripting language such as Java), assembler, Python, or the like. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, this embodiment may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components. The above terms may include meanings of a series of software routines in connection with a processor or the like.

전술한 실시 예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시 예들이 구현될 수 있다.The foregoing embodiments are just examples, and other embodiments may be implemented within the scope of the following claims.

Claims (17)

전자 장치가 인지 상태와 관련된 정보를 제공하는 방법에 있어서,
검사 관련 정보를 포함하는 제1 페이지를 제공하는 단계;
상기 제1 페이지가 표시된 상태에서 상기 검사 관련 정보에 대한 사용자 음성 데이터를 획득하는 단계; 및
상기 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제2 페이지를 제공하는 단계를 포함하되,
상기 제1 평가 정보는 상기 사용자 음성 데이터로부터 음색 정보를 포함하는 화자 식별 임베딩을 분리한 콘텐츠 임베딩을 기반으로 확인되고,
상기 화자 식별 임베딩은 상기 사용자 음성 데이터를 기반으로 제1 인코더를 사용하여 획득되고,
상기 콘텐츠 임베딩은 상기 사용자 음성 데이터 및 상기 화자 식별 임베딩을 기반으로 제2 인코더를 사용하여 획득되고,
상기 콘텐츠 임베딩은 리듬 정보 및 피치 정보를 포함하는,
인지 상태 정보 제공 방법.
A method for providing information related to a cognitive state by an electronic device,
providing a first page including test-related information;
obtaining user voice data for the examination-related information in a state in which the first page is displayed; and
Providing a second page including first evaluation information obtained using a learning model set based on the user voice data;
The first evaluation information is identified based on a content embedding obtained by separating a speaker identification embedding including timbre information from the user voice data;
The speaker identification embedding is obtained using a first encoder based on the user voice data;
The content embedding is obtained using a second encoder based on the user voice data and the speaker identification embedding;
The content embedding includes rhythm information and pitch information,
How to Provide Cognitive State Information.
제1항에 있어서,
상기 제1 페이지는 상기 검사 관련 정보를 포함하는 제1 영역 및 음성 입력과 관련된 상태를 나타내는 아이콘을 포함하는 제2 영역을 포함하는,
인지 상태 정보 제공 방법.
According to claim 1,
The first page includes a first area including the test-related information and a second area including an icon indicating a state related to voice input.
How to Provide Cognitive State Information.
제2항에 있어서,
상기 사용자 음성 데이터는 상기 제1 페이지가 표시된 상태에서 상기 아이콘에 대응하는 입력에 따라 획득되는,
인지 상태 정보 제공 방법.
According to claim 2,
The user voice data is obtained according to an input corresponding to the icon while the first page is displayed.
How to Provide Cognitive State Information.
제2항에 있어서,
상기 제2 영역의 상기 아이콘은, 상기 음성 입력이 확인되는 것에 대응하여 제1 이미지로 표시되고, 상기 음성 입력이 확인되지 않는 것에 대응하여 제2 이미지로 표시되는,
인지 상태 정보 제공 방법.
According to claim 2,
The icon of the second area is displayed as a first image corresponding to the confirmation of the voice input, and displayed as a second image corresponding to the confirmation of the voice input.
How to Provide Cognitive State Information.
제4항에 있어서,
상기 제2 영역의 상기 아이콘은, 상기 음성 입력이 확인되지 않는 시간이 기준 시간을 경과하는 경우 제3 이미지로 표시되는,
인지 상태 정보 제공 방법.
According to claim 4,
The icon of the second area is displayed as a third image when the time when the voice input is not confirmed passes the reference time.
How to Provide Cognitive State Information.
제5항에 있어서,
상기 제1 이미지는 상기 음성 입력이 확인되는 것에 대응하여 움직이는 동적 이미지이고,
상기 제2 이미지 및 상기 제3 이미지는 정적 이미지인,
인지 상태 정보 제공 방법.
According to claim 5,
The first image is a dynamic image that moves in response to the confirmation of the voice input,
The second image and the third image are static images,
How to Provide Cognitive State Information.
제1항에 있어서,
상기 검사 관련 정보는, 이미지 정보 및 상기 이미지 정보에 대한 설명을 요청하는 제1 텍스트 정보를 포함하는 제1 검사 정보 및 특정 주제에 대한 제2 텍스트 정보 및 상기 제2 텍스트 정보에 대한 설명을 요청하는 제3 텍스트 정보를 포함하는 제2 검사 정보 중 적어도 하나를 포함하는,
인지 상태 정보 제공 방법.
According to claim 1,
The inspection-related information includes first inspection information including image information and first text information requesting an explanation of the image information, second text information on a specific subject, and requesting an explanation of the second text information. Including at least one of the second inspection information including the third text information,
How to Provide Cognitive State Information.
제7항에 있어서,
상기 사용자 음성 데이터는, 상기 제1 검사 정보에 대하여 획득된 제1 음성 데이터 및 상기 제2 검사 정보에 대하여 획득된 제2 음성 데이터 중 적어도 하나를 포함하고,
상기 제1 음성 데이터 및 상기 제2 음성 데이터는 서로 다른 학습 모델에 의해 분석되는,
인지 상태 정보 제공 방법.
According to claim 7,
The user voice data includes at least one of first voice data obtained for the first test information and second voice data obtained for the second test information;
The first voice data and the second voice data are analyzed by different learning models,
How to Provide Cognitive State Information.
제8항에 있어서,
상기 제1 음성 데이터의 길이의 상한은 상기 제2 음성 데이터의 길이의 상한과 다른,
인지 상태 정보 제공 방법.
According to claim 8,
The upper limit of the length of the first voice data is different from the upper limit of the length of the second voice data,
How to Provide Cognitive State Information.
제1항에 있어서,
획득된 상기 사용자 음성 데이터가 설정된 조건을 만족하는 경우 녹음 완료에 대한 정보를 표시하고,
획득된 상기 사용자 음성 데이터가 상기 설정된 조건을 만족하지 않는 경우 재녹음 요청에 대한 정보를 표시하는,
인지 상태 정보 제공 방법.
According to claim 1,
When the obtained user voice data satisfies a set condition, information on completion of recording is displayed;
Displaying information on a re-recording request when the obtained user voice data does not satisfy the set condition;
How to Provide Cognitive State Information.
제1항에 있어서,
상기 제2 페이지는 상기 제1 평가 정보와 다른 방식으로 획득된 제2 평가 정보를 더 포함하는,
인지 상태 정보 제공 방법.
According to claim 1,
The second page further includes second evaluation information obtained in a different way from the first evaluation information.
How to Provide Cognitive State Information.
제11항에 있어서,
상기 제1 평가 정보 및 상기 제2 평가 정보 각각은 수치화된 점수로 제공되는,
인지 상태 정보 제공 방법.
According to claim 11,
Each of the first evaluation information and the second evaluation information is provided as a digitized score,
How to Provide Cognitive State Information.
제1항에 있어서,
상기 제2 페이지는 상기 제1 평가 정보를 수치화한 점수가 기준 값 이상인 경우 재검사, 추가 검사, 인지 훈련 및 병원 이송 중 적어도 하나를 안내하는 추천 정보를 더 포함하는,
인지 상태 정보 제공 방법.
According to claim 1,
The second page further includes recommendation information for guiding at least one of retest, additional test, cognitive training, and hospital transfer when the score obtained by digitizing the first evaluation information is equal to or greater than a reference value.
How to Provide Cognitive State Information.
제1항에 있어서,
검사 전 체크 리스트 정보를 획득하는 단계;
적어도 하나의 테스트 검사 정보를 포함하는 제3 페이지를 제공하는 단계;
상기 제3 페이지가 표시된 상태에서 상기 테스트 검사 정보에 대응하는 테스트 음성 데이터를 획득하는 단계; 및
상기 테스트 음성 데이터를 기반으로 음성 입력을 확인하는 단계를 더 포함하는,
인지 상태 정보 제공 방법.
According to claim 1,
obtaining check list information before inspection;
providing a third page including at least one test check information;
obtaining test voice data corresponding to the test examination information while the third page is displayed; and
Further comprising the step of confirming voice input based on the test voice data,
How to Provide Cognitive State Information.
제14항에 있어서,
상기 검사 전 체크 리스트 정보는 사용자의 각성 상태 여부, 주변 환경, 검사 주기 및 재검사 여부 중 적어도 하나에 대한 정보를 포함하는,
인지 상태 정보 제공 방법.
According to claim 14,
The pre-examination checklist information includes information on at least one of whether the user is awake, the surrounding environment, an examination period, and whether or not a re-examination is performed.
How to Provide Cognitive State Information.
제1항 내지 제15항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적 저장 매체.
A computer-readable non-transitory storage medium storing a program for executing the method of any one of claims 1 to 15 in a computer.
인지 상태와 관련된 정보를 제공하는 전자 장치에 있어서,
적어도 하나의 명령어를 저장하는 메모리; 및
상기 적어도 하나의 명령어에 기초하여, 검사 관련 정보를 포함하는 제1 페이지를 제공하고, 상기 제1 페이지가 표시된 상태에서 상기 검사 관련 정보에 대한 사용자 음성 데이터를 획득하며, 상기 사용자 음성 데이터에 기초하여 설정된 학습 모델을 사용하여 얻은 제1 평가 정보를 포함하는 제2 페이지를 제공하는 프로세서를 포함하되,
상기 제1 평가 정보는 상기 사용자 음성 데이터로부터 음색 정보를 포함하는 화자 식별 임베딩을 분리한 콘텐츠 임베딩을 기반으로 확인되고,
상기 화자 식별 임베딩은 상기 사용자 음성 데이터를 기반으로 제1 인코더를 사용하여 획득되고,
상기 콘텐츠 임베딩은 상기 사용자 음성 데이터 및 상기 화자 식별 임베딩을 기반으로 제2 인코더를 사용하여 획득되고,
상기 콘텐츠 임베딩은 리듬 정보 및 피치 정보를 포함하는,
전자 장치.
An electronic device providing information related to a cognitive state,
a memory storing at least one instruction; and
Based on the at least one command, providing a first page including test-related information, obtaining user voice data for the test-related information while the first page is displayed, and based on the user voice data A processor providing a second page including first evaluation information obtained using a set learning model;
The first evaluation information is identified based on a content embedding obtained by separating a speaker identification embedding including timbre information from the user voice data;
The speaker identification embedding is obtained using a first encoder based on the user voice data;
The content embedding is obtained using a second encoder based on the user voice data and the speaker identification embedding;
The content embedding includes rhythm information and pitch information,
electronic device.
KR1020220098150A 2022-08-05 2022-08-05 Cognitive state information providing method and electronic device for the same KR102539191B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220098150A KR102539191B1 (en) 2022-08-05 2022-08-05 Cognitive state information providing method and electronic device for the same
KR1020230068630A KR20240020172A (en) 2022-08-05 2023-05-26 Cognitive state information providing method and electronic device for the same
PCT/KR2023/010414 WO2024029800A1 (en) 2022-08-05 2023-07-19 Method for providing cognitive state information and electronic device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220098150A KR102539191B1 (en) 2022-08-05 2022-08-05 Cognitive state information providing method and electronic device for the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230068630A Division KR20240020172A (en) 2022-08-05 2023-05-26 Cognitive state information providing method and electronic device for the same

Publications (2)

Publication Number Publication Date
KR102539191B1 true KR102539191B1 (en) 2023-06-02
KR102539191B9 KR102539191B9 (en) 2023-10-12

Family

ID=86755411

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220098150A KR102539191B1 (en) 2022-08-05 2022-08-05 Cognitive state information providing method and electronic device for the same
KR1020230068630A KR20240020172A (en) 2022-08-05 2023-05-26 Cognitive state information providing method and electronic device for the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230068630A KR20240020172A (en) 2022-08-05 2023-05-26 Cognitive state information providing method and electronic device for the same

Country Status (2)

Country Link
KR (2) KR102539191B1 (en)
WO (1) WO2024029800A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029800A1 (en) * 2022-08-05 2024-02-08 주식회사 실비아헬스 Method for providing cognitive state information and electronic device therefor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101969540B1 (en) * 2018-03-26 2019-08-13 주식회사 에임메드 Method and apparatus for rehabilitation training for cognitive skill
JP2020144264A (en) * 2019-03-07 2020-09-10 本田技研工業株式会社 Agent device, control method of agent device, and program
KR102274072B1 (en) * 2020-09-04 2021-07-08 김형준 Method and apparatus for determining a degree of dementia of a user
JP2021108843A (en) * 2020-01-09 2021-08-02 株式会社エクサウィザーズ Cognitive function determination apparatus, cognitive function determination system, and computer program
KR102392318B1 (en) * 2022-01-17 2022-05-02 주식회사 하이 A technique for identifying a dementia based on mixed tests
KR102406561B1 (en) * 2021-12-08 2022-06-09 주식회사 세븐포인트원 Method and server for dementia test based on artificial intelligence call with improved completion rate

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102539191B1 (en) * 2022-08-05 2023-06-02 주식회사 실비아헬스 Cognitive state information providing method and electronic device for the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101969540B1 (en) * 2018-03-26 2019-08-13 주식회사 에임메드 Method and apparatus for rehabilitation training for cognitive skill
JP2020144264A (en) * 2019-03-07 2020-09-10 本田技研工業株式会社 Agent device, control method of agent device, and program
JP2021108843A (en) * 2020-01-09 2021-08-02 株式会社エクサウィザーズ Cognitive function determination apparatus, cognitive function determination system, and computer program
KR102274072B1 (en) * 2020-09-04 2021-07-08 김형준 Method and apparatus for determining a degree of dementia of a user
KR102406561B1 (en) * 2021-12-08 2022-06-09 주식회사 세븐포인트원 Method and server for dementia test based on artificial intelligence call with improved completion rate
KR102392318B1 (en) * 2022-01-17 2022-05-02 주식회사 하이 A technique for identifying a dementia based on mixed tests

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029800A1 (en) * 2022-08-05 2024-02-08 주식회사 실비아헬스 Method for providing cognitive state information and electronic device therefor

Also Published As

Publication number Publication date
WO2024029800A1 (en) 2024-02-08
KR20240020172A (en) 2024-02-14
KR102539191B9 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
Low et al. Automated assessment of psychiatric disorders using speech: A systematic review
Slavich et al. Stress measurement using speech: Recent advancements, validation issues, and ethical and privacy considerations
Fan et al. Concurrent think-aloud verbalizations and usability problems
Song et al. How well do phonological awareness and rapid automatized naming correlate with Chinese reading accuracy and fluency? A meta-analysis
Llama et al. The influence of language distance and language status on the acquisition of L3 phonology
Lim et al. Stuttering in English–Mandarin bilingual speakers: The influence of language dominance on stuttering severity
Paulmann et al. Cross-cultural emotional prosody recognition: Evidence from Chinese and British listeners
Van Donselaar et al. Exploring the role of lexical stress in lexical recognition
Pattamadilok et al. The locus of the orthographic consistency effect in auditory word recognition: Further evidence from French
Leech et al. Preliminary evidence that growth in productive language differentiates childhood stuttering persistence and recovery
KR102161638B1 (en) Method, System and Computer-Readable Mediums thereof for determining the degree of dementia Based on Voice Recognition Using Machine Learning Model
Godfroid et al. Exploring the depths of second language processing with eye tracking: An introduction
Taliancich-Klinger et al. The disfluent speech of a Spanish–English bilingual child who stutters
US11094322B2 (en) Optimizing speech to text conversion and text summarization using a medical provider workflow model
Jesse et al. Suprasegmental lexical stress cues in visual speech can guide spoken-word recognition
KR102539191B1 (en) Cognitive state information providing method and electronic device for the same
Lany et al. Infants’ lexical processing efficiency is related to vocabulary size by one year of age
Dikaios et al. Applications of speech analysis in psychiatry
Margetson et al. Transcribing multilingual children’s and adults’ speech
Soroski et al. Evaluating web-based automatic transcription for Alzheimer speech data: transcript comparison and machine learning analysis
Kandel et al. Agreement attraction error and timing profiles in continuous speech
Yeh et al. Comparing the informativeness of single-word samples and connected speech samples in assessing speech sound disorders
Kashyap et al. Stuttering frequency and severity in Kannada-English balanced bilingual adults
Yamada et al. Using speech data from interactions with a voice assistant to predict the risk of future accidents for older drivers: prospective cohort study
Rojas et al. Classifying disfluencies in preschool-and school-age Spanish–English bilinguals who do not stutter: An exploratory study

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]