KR20240031137A - Apparatus and method for classificating types of primary progressive aphasia based on task performance results - Google Patents

Apparatus and method for classificating types of primary progressive aphasia based on task performance results Download PDF

Info

Publication number
KR20240031137A
KR20240031137A KR1020230113960A KR20230113960A KR20240031137A KR 20240031137 A KR20240031137 A KR 20240031137A KR 1020230113960 A KR1020230113960 A KR 1020230113960A KR 20230113960 A KR20230113960 A KR 20230113960A KR 20240031137 A KR20240031137 A KR 20240031137A
Authority
KR
South Korea
Prior art keywords
group
primary progressive
pause
progressive aphasia
user
Prior art date
Application number
KR1020230113960A
Other languages
Korean (ko)
Inventor
김향희
예병석
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to PCT/KR2023/012855 priority Critical patent/WO2024049186A1/en
Publication of KR20240031137A publication Critical patent/KR20240031137A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본 개시는 사용자가 수행한 과제를 기반으로 원발진행실어증 유형을 분류할 수 있는 장치 및 분류방법에 관한 것이다. 본 개시에 따른 과제 수행 결과 기반 원발진행실어증 유형 분류 장치는, 과제 관련 컨텐츠를 저장하도록 이루어지는 메모리, 사용자의 음성 정보를 수집하도록 이루어지는 마이크, 화면정보를 표시하도록 이루어지는 디스플레이부 및 사용자의 발화를 유도하도록, 상기 과제 관련 컨텐츠를 상기 디스플레이부 상에 출력하고, 상기 마이크를 통해 수집된 상기 사용자의 발화 정보를 기반으로, 상기 사용자의 원발진행실어증 유형을 분류하는 프로세서를 포함하는 원발진행실어증 유형 분류 장치를 제공할 수 있다.This disclosure relates to a device and a classification method that can classify types of primary progressive aphasia based on tasks performed by the user. The primary progressive aphasia type classification device based on task performance results according to the present disclosure includes a memory configured to store task-related content, a microphone configured to collect the user's voice information, a display unit configured to display screen information, and a device configured to guide the user's speech. A primary progressive aphasia type classification device including a processor that outputs the task-related content on the display unit and classifies the user's primary progressive aphasia type based on the user's speech information collected through the microphone. can be provided.

Description

과제 수행 결과 기반 원발진행실어증 유형 분류 장치 및 분류 방법{APPARATUS AND METHOD FOR CLASSIFICATING TYPES OF PRIMARY PROGRESSIVE APHASIA BASED ON TASK PERFORMANCE RESULTS}Primary progressive aphasia type classification device and classification method based on task performance results {APPARATUS AND METHOD FOR CLASSIFICATING TYPES OF PRIMARY PROGRESSIVE APHASIA BASED ON TASK PERFORMANCE RESULTS}

본 개시는 사용자가 수행한 과제를 기반으로 원발진행실어증 유형을 분류할 수 있는 장치 및 분류방법에 관한 것이다.This disclosure relates to a device and a classification method that can classify types of primary progressive aphasia based on tasks performed by the user.

원발진행실어증(primary progressive aphasia, 이하 PPA)은 신경학적 퇴행성 질환으로 인하여 언어나 말 능력이 점진적으로 손상되며, 발병 후 적어도 2년 동안 비 언어적 인지 및 행동 기능 장애는 상대적으로 보존되는 신경말언어장애이다. PPA는 원인이 되는 병태생리학적 질환에 따라 그 임상적 유형이 적어도 다음의 세 가지로 나뉘는데, 발화부족형(logopenic variant of PPA, lvPPA), 의미형(semantic variant of PPA, svPPA), 비유창형(nonfluent/agrammatic variant of PPA, nfvPPA)을 포함한다. Primary progressive aphasia (PPA) is a neurological degenerative disease in which language and speech abilities are gradually impaired, and non-verbal cognitive and behavioral dysfunction is relatively preserved for at least 2 years after onset. It is a disability. PPA is divided into at least three clinical types depending on the causative pathophysiological disease: logopenic variant of PPA (lvPPA), semantic variant of PPA (svPPA), and nonfluent type (logopenic variant of PPA, lvPPA). Includes nonfluent/agrammatic variant of PPA, nfvPPA).

각 유형의 특징을 살펴보면, 먼저 lvPPA는 전반적으로 유창한 편이기는 하나, 어휘 인출 결함 등으로 인하여 발화 개시가 어렵거나 간투사(filler)등을 포함한 주저함을 보이면서 말의 흐름이 끊기기도 하나 이는 말운동장애와는 구별되어야 한다. 이러한 어휘 인출 결함을 보상하기 위하여 발화내, 발화간 쉼(pause)를 자주 사용한다. 또한, '따라말하기'를 포함한 특정한 언어과제에서 어절 생략 등의 오류가 두드러지는 특징을 보이기도 한다. Looking at the characteristics of each type, first, lvPPA is generally fluent, but due to lexical retrieval defects, it is difficult to initiate speech or the flow of speech is interrupted due to hesitation, including filler, but this is due to speech motor disorders and must be distinguished. To compensate for these lexical retrieval defects, pauses within and between utterances are often used. In addition, errors such as word omission are a prominent feature in certain language tasks, including 'repeat'.

svPPA의 가장 주요 특징은 의미적 결손이며 특히 어휘 의미 손상이 두드러진다. 이러한 의미 손상으로 인하여 단단어를 이해하지 못하거나 발화 상에 단어 활용이 어려워 '이거, 저거' 등의 지시대명사나 대체어를 구사하며, 목표 어휘 대신 에둘러 말하기 (circumlocution)로 특징짓는 유창한 형태의 발화를 보인다. 그러나 lvPPA와 마찬가지로 말운동장애는 보이지 않는다. The most important characteristic of svPPA is semantic deficits, with lexical semantic impairment being particularly prominent. Due to this damage to meaning, they cannot understand simple words or have difficulty using words in speech, so they use demonstrative pronouns such as 'this, that' or alternative words, and have a fluent form characterized by circumlocution instead of target vocabulary. Shows utterance. However, like lvPPA, speech motor impairment is not observed.

nfvPPA은 비유창한 형태의 PPA유형이다. 말운동 계획이나 프로그램 상의 결함으로 인하여 전반적으로 말속도가 느리고 운율이 단조롭다. 또한 발화 길이가 짧으며 비문법성(agrammatism)을 지닌 발화를 구사한다. 운동구어적인 측면에서는 말 실행증(apraxia of speech, 이하 AOS)를 동반하기도 하기도 하는데, 다음절 발화나 복잡한 조음을 요구하는 발화에서 특히 자가 수정(self-correction), 말더듬 등의 특징을 보인다. nfvPPA is a non-fluent type of PPA. Due to a defect in the speech motor plan or program, the overall speaking speed is slow and the prosody is monotonous. Additionally, the length of the utterance is short and the utterance contains agrammatism. In terms of motor speech, it may be accompanied by apraxia of speech (AOS), and features such as self-correction and stuttering are particularly evident in polysyllabic utterances or utterances requiring complex articulation.

이와 같이 PPA의 각 유형은 특징되는 발화로서 유형을 서로 구별할 수 있음에도 불구하고 질환의 시기가 초기인 경우에는 각 유형의 발화 특징이 도드라지지 않을 수 있기 때문에 각 유형 간의 구별이 쉽지 않을 수 있다. 유형 분류는 PPA의 원인질환을 사전에 탐지하여 그에 적합한 약물치료를 진행하기 위하여 필수적인 과정이기 때문에 언어 평가가 그 진단에 도움이 될 수 있다. 이러한 이유로 인하여 기존에 영어권 국가에서 진행된 선행 연구들에서는 유형별 분류에 힘써왔음에도 불구하고, 발화 연구가 영어에 집중되어 있으며, 한국어라는 언어적 특색이 반영된 연구는 전무한 실정이었다. 예컨대, 한국어 발화는 음절간 간격이 뚜렷하다는 언어특이적(language-specific) 특성이 두드러지므로, 기존 영어권 국가의 선행 연구 결과를 그대로 반영하여 PPA 하위 유형 분류에 적용하기 힘들다.In this way, although each type of PPA has characteristic speech and can be distinguished from each other, when the disease is in its early stages, the speech characteristics of each type may not be prominent, so it may not be easy to distinguish between the types. Since classification is an essential process to detect the cause of PPA in advance and provide appropriate drug treatment, language evaluation can be helpful in the diagnosis. For this reason, although previous studies conducted in English-speaking countries have tried to classify by type, speech research has focused on English, and there has been no research that reflects the linguistic characteristics of Korean. For example, Korean speech has a prominent language-specific characteristic of clear inter-syllable spacing, so it is difficult to apply it to PPA subtype classification by directly reflecting the results of previous studies in English-speaking countries.

대한민국 특허등록공보 제10-2444012호Republic of Korea Patent Registration No. 10-2444012

본 개시는 사용자에게 복수의 과제를 수행하게 하고 과제 수행 결과를 기반으로 PPA 하위 유형을 분류하는 장치 및 방법을 제공하는 것을 그 목적으로 한다. The purpose of the present disclosure is to provide a device and method for allowing a user to perform a plurality of tasks and classifying PPA subtypes based on the task performance results.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 과제 수행 결과 기반 원발진행실어증 유형 분류 장치는, 과제 관련 컨텐츠를 저장하도록 이루어지는 메모리, 사용자의 음성 정보를 수집하도록 이루어지는 마이크, 화면정보를 표시하도록 이루어지는 디스플레이부 및 사용자의 발화를 유도하도록, 상기 과제 관련 컨텐츠를 상기 디스플레이부 상에 출력하고, 상기 마이크를 통해 수집된 상기 사용자의 발화 정보를 기반으로, 상기 사용자의 원발진행실어증 유형을 분류하는 프로세서를 포함하는 원발진행실어증 유형 분류 장치를 제공할 수 있다.The primary progressive aphasia type classification device based on the task performance results to achieve the above-mentioned technical task includes a memory configured to store task-related content, a microphone configured to collect the user's voice information, a display unit configured to display screen information, and a user's input device. Primary progressive aphasia comprising a processor that outputs the task-related content on the display unit to induce speech and classifies the user's primary progressive aphasia type based on the user's speech information collected through the microphone. A type classification device may be provided.

일 실시 예에 있어서, 상기 컨텐츠는 상기 사용자와 평가자 간의 대화를 유도하는 컨텐츠, 이미지, 문장 또는 문단으로 이루어지는 텍스트 중 적어도 하나를 포함할 수 있다.In one embodiment, the content may include at least one of text consisting of content, images, sentences, or paragraphs that induce conversation between the user and the evaluator.

일 실시 예에 있어서, 상기 프로세서는, 상기 문장으로 이루어지는 상기 대화를 유도하는 컨텐츠에 대응되는 과제 수행 결과, 상기 이미지에 대응되는 과제 수행 결과, 상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 상기 문장으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 순으로 높은 가중치를 부여하여 원발진행실어증의 유형 분류를 수행할 수 있다.In one embodiment, the processor performs a task performance result corresponding to the content that induces the conversation consisting of the sentence, a task performance result corresponding to the image, a task performance result corresponding to the text consisting of the paragraph, and the sentence. It is possible to classify the type of primary progressive aphasia by assigning high weight to the task performance results corresponding to the text.

일 실시 예에 있어서, 상기 프로세서는, 상기 발화 정보에서 추출된 총 발화 수, 총 음절 수, 발화당 음절수, 발화당 어절 수, 전체 쉼 빈도, 발화 간 쉼 빈도, 발화 내 쉼 빈도(어절 간+어절 내), 어절 간 쉼 빈도, 어절 내 쉼 빈도, 전체 쉼 기간, 발화 간 쉼 시간, 발화 내 쉼 시간(어절 간+어절 내), 어절 간 쉼 시간, 어절 내 쉼 시간, 발화속도 및 조음속도 중 적어도 하나를 기반으로 원발진행실어증의 유형 분류를 수행할 수 있다.In one embodiment, the processor extracts the total number of utterances from the utterance information, the total number of syllables, the number of syllables per utterance, the number of words per utterance, the overall pause frequency, the pause frequency between utterances, and the pause frequency within utterances (between words). + intra-word pause), inter-word pause frequency, intra-word pause frequency, total pause duration, inter-utterance pause time, intra-utterance pause time (inter-word + intra-word pause), inter-word pause time, intra-word pause time, speech speed and articulation Classification of the type of primary progressive aphasia can be performed based on at least one of the speeds.

일 실시 예에 있어서, 상기 프로세서는, 비유창형 PPA(nonfluent/agrammatic variant of PPA, nfvPPA), 의미형 PPA(semantic variant of PPA, svPPA), 발화부족형 PPA(logopenic variant of PPA, lvPPA) 및 정상 중 어느 하나로 상기 사용자의 원발진행실어증 유형을 분류할 수 있다.In one embodiment, the processor is a nonfluent/agrammatic variant of PPA (nfvPPA), a semantic variant of PPA (svPPA), a logopenic variant of PPA (lvPPA), and a normal PPA. The type of primary progressive aphasia of the user can be classified as one of the following.

일 실시 예에 있어서, 상기 프로세서는, 상기 이미지에 대응되는 과제 수행 결과를 기반으로, 상기 사용자의 원발진행실어증 유형이 정상인지 여부를 판단할 수 있다.In one embodiment, the processor may determine whether the user's primary progressive aphasia type is normal, based on a task performance result corresponding to the image.

일 실시 예에 있어서, 상기 프로세서는, 상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과를 기반으로, 상기 사용자의 원발진행실어증 유형이 nfvPPA인지 여부를 판단할 수 있다.In one embodiment, the processor may determine whether the user's primary progressive aphasia type is nfvPPA, based on a task performance result corresponding to the text consisting of the paragraph.

일 실시 예에 있어서, 상기 프로세서는, 상기 발화 정보에서 발화 내, 그리고 발화간 100ms(0.1초) 이상의 무음 구간을 쉼으로 설정하고, 상기 발화 정보에서 추출된 전체 쉼 빈도 및 발화 내 쉼 시간 중 적어도 하나를 기반으로, 상기 사용자의 원발진행실어증 유형을 svPPA 및 lvPPA 중 어느 하나로 분류할 수 있다.In one embodiment, the processor sets a silent section of 100 ms (0.1 second) or more within an utterance and between utterances as a pause in the utterance information, and sets at least the total pause frequency and the pause time within the utterance extracted from the utterance information. Based on this, the user's primary progressive aphasia type can be classified as either svPPA or lvPPA.

또한, 상술한 기술적 과제를 달성하기 위한 과제 수행 결과 기반 원발진행실어증 유형 분류 방법은 사용자의 발화를 유도하도록, 과제 관련 컨텐츠를 디스플레이부 상에 출력하는 단계, 마이크를 통해 사용자의 발화 정보를 수집하는 단계 및 상기 사용자의 발화 정보를 기반으로, 상기 사용자의 원발진행실어증 유형을 분류하는 단계를 포함하는 원발진행실어증 유형 분류 방법을 포함할 수 있다.In addition, the primary progressive aphasia type classification method based on task performance results to achieve the above-mentioned technical task includes the steps of outputting task-related content on a display unit to induce user speech, and collecting user speech information through a microphone. It may include a primary progressive aphasia type classification method including the step of classifying the user's primary progressive aphasia type based on the step and speech information of the user.

또한, 본 개시는 컴퓨터와 결합되어, 상기 원발진행실어증 유형 분류 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 프로그램을 제공할 수 있다.In addition, the present disclosure can be combined with a computer to provide a program stored in a computer-readable recording medium to execute the method for classifying the primary progressive aphasia type.

본 개시에 따르면, 원발진행실어증(primary progressive aphasia, PPA)환자의 말속도(발화속도, 조음속도) 및 쉼(쉼 빈도, 쉼 시간, 쉼 비율)의 수행력 차이를 분석하여, 원발진행실어증의 유형 및 중증도를 분류할 수 있도록 한다.According to the present disclosure, differences in performance of speech rate (speech rate, articulation rate) and pauses (pause frequency, pause time, pause ratio) of patients with primary progressive aphasia (PPA) are analyzed to determine the type of primary progressive aphasia. and severity.

도 1은 본 개시의 전반적 시스템 도면이다.
도 2는 본 개시의 분류 장치에 포함된 서버의 블록도이다.
도 3은 본 개시의 분류 장치에 포함된 단말기의 블록도이다.
도 4는 본 개시에 따른 분류 방법을 나타내는 흐름도이다.
도 5는 이미지 형태로 표시되는 과제의 일 실시 예를 나타내는 개념도이다.
도 6 및 7은 사용자의 발화를 센싱한 결과이다.
1 is an overall system diagram of the present disclosure.
Figure 2 is a block diagram of a server included in the classification device of the present disclosure.
Figure 3 is a block diagram of a terminal included in the classification device of the present disclosure.
Figure 4 is a flowchart showing a classification method according to the present disclosure.
Figure 5 is a conceptual diagram showing an example of a task displayed in the form of an image.
Figures 6 and 7 show the results of sensing the user's speech.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. Like reference numerals refer to like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure pertains is omitted. The term 'unit, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'unit, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

본 명세서에서 '과제'란 사용자의 발화를 유도하는 컨텐츠를 의미한다. 구체적으로, 상기 컨텐츠는 텍스트, 이미지 및 소리 중 적어도 하나의 형태로 표시될 수 있고, 사용자는 상기 컨텐츠를 육안으로 확인하거나, 들은 후 해당 과제를 수행할 수 있다. 상기 과제에 대한 구체적인 예에 대하여는 후술한다.In this specification, 'task' refers to content that induces the user to speak. Specifically, the content may be displayed in the form of at least one of text, image, and sound, and the user can visually check or listen to the content and then perform the corresponding task. Specific examples of the above tasks will be described later.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present disclosure will be described with reference to the attached drawings.

본 명세서에서 '본 개시에 따른 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, 'device according to the present disclosure' includes all various devices that can perform computational processing and provide results to the user. For example, the device according to the present disclosure may include all of a computer, a server device, and a portable terminal, or may take the form of any one.

여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop, desktop, laptop, tablet PC, slate PC, etc. equipped with a web browser.

상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.The server device is a server that processes information by communicating with external devices, and may include an application server, computing server, database server, file server, game server, mail server, proxy server, and web server.

상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.The portable terminal is, for example, a wireless communication device that guarantees portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone ), all types of handheld wireless communication devices, and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-device (HMD). may include.

본 개시에 따른 분류 장치는 서버 및 단말기 중 적어도 하나에 의해 구현될 수 있다. 구체적으로, 본 개시에 따른 장치는 서버 및 단말기 중 어느 하나에 의해 구현되거나, 서버 및 단말기 간의 데이터 송수신을 통해 시스템으로 구현될 수 있다. The classification device according to the present disclosure may be implemented by at least one of a server and a terminal. Specifically, the device according to the present disclosure may be implemented by either a server or a terminal, or may be implemented as a system through data transmission and reception between the server and the terminal.

이하에서는, 본 개시에 따른 분류 장치에 대하여 설명한다. Below, a classification device according to the present disclosure will be described.

도 1을 참고하면, 본 개시에 따른 분류 장치는 서버(10) 및 단말기(20) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1, the classification device according to the present disclosure may include at least one of a server 10 and a terminal 20.

서버(10)는 단말기(20)와 네트워크로 연결되며, 단말기(20)로부터 분류에 필요한 데이터를 수신한 후, 분류 결과를 단말기(20)로 전송할 수 있다.The server 10 is connected to the terminal 20 through a network, and can receive data required for classification from the terminal 20 and then transmit the classification result to the terminal 20.

한편, 상기 단말기(20)는 상술한 휴대용 단말기에 한정되지 않고, 프로세서가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있는 것은 통상의 기술자에게 자명하다. Meanwhile, it is obvious to those skilled in the art that the terminal 20 is not limited to the above-mentioned portable terminal, and may include a laptop, desktop, laptop, tablet PC, slate PC, etc. equipped with a processor. do.

상술한 바와 같이, 본 개시에 따른 분류 장치는 서버(10) 및 단말기(20) 간 데이터 송수신을 통해 구현될 수 있다. 또한, 본 개시에 따른 분류 장치는 사용자(1)로부터 음성정보를 입력받도록 이루어지는 마이크(30)를 포함한다. 상기 마이크(30)는 단말기(20)에 포함되거나, 별도의 장치로 상기 단말기(20)와 데이터 송수신이 가능하도록 연결될 수 있다. As described above, the classification device according to the present disclosure can be implemented through data transmission and reception between the server 10 and the terminal 20. Additionally, the classification device according to the present disclosure includes a microphone 30 configured to receive voice information from the user 1. The microphone 30 may be included in the terminal 20 or may be connected as a separate device to enable data transmission and reception with the terminal 20.

이하에서는, 본 개시에 따른 분류 장치를 구현하기 위한 서버(10) 및 단말기(20) 각각에 대하여 설명한다. Hereinafter, each of the server 10 and the terminal 20 for implementing the classification device according to the present disclosure will be described.

도 2는 본 개시의 분류 장치에 포함된 서버의 블록도이다.Figure 2 is a block diagram of a server included in the classification device of the present disclosure.

본 개시에 따른 서버(100)는 통신부(110), 저장부(120) 및 프로세서(130) 중 적어도 하나를 포함할 수 있다. The server 100 according to the present disclosure may include at least one of a communication unit 110, a storage unit 120, and a processor 130.

통신부(110)는 단말기, 외부 저장소(예를 들어, 데이터베이스(database, 140)), 외부 서버 및 클라우드 서버 중 적어도 하나와 통신을 수행할 수 있다.The communication unit 110 may communicate with at least one of a terminal, an external storage (eg, a database 140), an external server, and a cloud server.

한편, 외부 서버 또는 클라우드 서버에서는, 프로세서(130)의 적어도 일부의 역할을 수행하도록 구성될 수 있다. 즉, 데이터 처리 또는 데이터 연산 등의 수행은 외부 서버 또는 클라우드 서버에서 이루어지는 것이 가능하며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.Meanwhile, in an external server or cloud server, it may be configured to perform at least a portion of the role of the processor 130. In other words, data processing or data computation can be performed on an external server or cloud server, and the present invention does not place any special restrictions on this method.

한편, 통신부(110)는 통신하는 대상(예를 들어, 전자기기, 외부 서버, 디바이스 등)의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Meanwhile, the communication unit 110 may support various communication methods depending on the communication standard of the communicating object (eg, electronic device, external server, device, etc.).

예를 들어, 통신부(110)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 통신 대상과 통신하도록 이루어질 수 있다.For example, the communication unit 110 supports wireless LAN (WLAN), wireless-fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, digital living network alliance (DLNA), wireless broadband (WiBro), and WiMAX ( World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication) , Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi Direct, Wireless USB (Wireless Universal) Serial Bus) technology may be used to communicate with a communication target.

다음으로 저장부(120)는, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(120)는 본 발명에 따른 장치 자체에 구비될 수 있다. 이와 다르게, 저장부(120)의 적어도 일부는, 데이터베이스(database: DB, 140) 클라우드 저장소(또는 클라우드 서버) 중 적어도 하나를 의미할 수 있다. 즉, 저장부(120)는 본 발명에 따른 장치 및 방법을 위하여 필요한 정보가 저장되는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 이에, 이하에서는, 저장부(120), 데이터베이스(140), 외부 저장소, 클라우드 저장소(또는 클라우드 서버)를 별도로 구분하지 않고, 모두 저장부(120)라고 표현하도록 한다. Next, the storage unit 120 can be configured to store various information related to the present invention. In the present invention, the storage unit 120 may be provided in the device itself according to the present invention. Alternatively, at least a portion of the storage unit 120 may refer to at least one of a database (DB) 140 and cloud storage (or cloud server). In other words, it can be understood that the storage unit 120 is sufficient as a space to store information necessary for the device and method according to the present invention, and there are no restrictions on physical space. Accordingly, hereinafter, the storage unit 120, the database 140, external storage, and cloud storage (or cloud server) will not be separately distinguished, and all will be referred to as the storage unit 120.

다음으로, 프로세서(130)는 본 발명과 관련된 장치의 전반적인 동작을 제어하도록 이루어질 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.Next, the processor 130 may be configured to control the overall operation of the device related to the present invention. The processor 130 can process signals, data, information, etc. input or output through the components discussed above, or provide or process appropriate information or functions to the user.

프로세서(130)는 적어도 하나의 CPU(Central Processing Unit, 중앙처리장치)를 포함하여, 본 발명에 따른 기능을 수행할 수 있다. The processor 130 may include at least one CPU (Central Processing Unit) and perform the function according to the present invention.

도 2에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 장치의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted in response to the performance of the components shown in FIG. 2. Additionally, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed in response to the performance or structure of the device.

이하, 본 개시의 분류 장치에 포함된 단말기에 대하여 구체적으로 설명한다.Hereinafter, the terminal included in the classification device of the present disclosure will be described in detail.

도 3은 본 개시의 분류 장치에 포함된 단말기의 블록도이다.Figure 3 is a block diagram of a terminal included in the classification device of the present disclosure.

도 3을 참고하면, 본 개시에 따른 단말기(200)는 통신부(210), 입력부(220), 표시부(230) 및 프로세서(240) 등을 포함할 수 있다. 도 3에 도시된 구성요소들은 본 개시에 따른 분류 장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 3, the terminal 200 according to the present disclosure may include a communication unit 210, an input unit 220, a display unit 230, and a processor 240. The components shown in FIG. 3 are not essential for implementing the classification device according to the present disclosure, so the terminal described herein may have more or fewer components than the components listed above.

상기 구성요소들 중 통신부(210)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다. Among the components, the communication unit 210 may include one or more components that enable communication with an external device, for example, a broadcast reception module, a wired communication module, a wireless communication module, a short-range communication module, and location information. It may contain at least one of the modules.

유선 통신 모듈은, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-1302(recommended standard1302), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules such as Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules, as well as USB (Universal Serial Bus) modules. ), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-1302 (recommended standard 1302), power line communication, or POTS (plain old telephone service).

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to Wi-Fi modules and WiBro (Wireless broadband) modules, wireless communication modules include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications system). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.

입력부(220)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 적어도 하나의 카메라, 적어도 하나의 마이크로폰 및 사용자 입력부 중 적어도 하나를 포함할 수 있다. 입력부에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 220 is for inputting image information (or signal), audio information (or signal), data, or information input from a user, and includes at least one of at least one camera, at least one microphone, and a user input unit. can do. Voice data or image data collected from the input unit can be analyzed and processed as a user's control command.

표시부(230)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅팁 모듈 및 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 본 장치와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 본 장치와 사용자 간에 출력 인터페이스를 제공할 수 있다.The display unit 230 is intended to generate output related to vision, hearing, or tactile sensation, and may include at least one of a display unit, an audio output unit, a haptip module, and an optical output unit. A touch screen can be implemented by forming a layered structure with the touch sensor or being integrated with the display unit. This touch screen functions as a user input unit that provides an input interface between the device and the user, and can simultaneously provide an output interface between the device and the user.

디스플레이부는 본 장치에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부는 본 장치에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit displays (outputs) information processed in the device. For example, the display unit may display execution screen information of an application program (eg, an application) running on the device, or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.

디스플레이부에는 사용자(1)가 특정 과제를 수행할 수 있도록 하는 과제가 표시될 수 있다. 다만, 이에 한정되지 않고, 상기 과제는 표시부(230)에 포함된 음향 출력부를 통해 출력될 수 있다. A task that allows the user 1 to perform a specific task may be displayed on the display unit. However, the task is not limited to this, and the task may be output through an audio output unit included in the display unit 230.

상술한 구성요소 외에, 상술한 단말기는 인터페이스부 및 메모리를 더 포함할 수 있다. In addition to the above-described components, the above-described terminal may further include an interface unit and memory.

인터페이스부는 본 장치에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈(SIM)이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 본 장치에서는, 상기 인터페이스부에 연결된 외부 기기와 관련된 적절한 제어를 수행할 수 있다.The interface unit serves as a passageway for various types of external devices connected to this device. These interface units include a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a port for connecting a device equipped with an identification module (SIM) ( port), an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In this device, appropriate control related to external devices connected to the interface unit can be performed.

메모리는 본 장치의 다양한 기능을 지원하는 데이터와, 프로세서의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. The memory can store data that supports various functions of the device and programs for processor operation, and can store input/output data (e.g., music files, still images, videos, etc.), and can store data that supports various functions of the device. A number of application programs (application programs or applications) running in the device, data for operation of the device, and commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication.

이러한, 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.These memories include flash memory type, hard disk type, SSD type (Solid State Disk type), SDD type (Silicon Disk Drive type), and multimedia card micro type. , card-type memory (e.g., SD or It may include at least one type of storage medium among (only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk. Additionally, the memory may be a database that is separate from the device, but is connected wired or wirelessly.

한편, 상술한 단말기는 프로세서(240)를 포함한다. 프로세서는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.Meanwhile, the above-described terminal includes a processor 240. The processor includes a memory that stores data for an algorithm for controlling the operation of components within the device or a program that reproduces the algorithm, and at least one processor (not shown) that performs the above-described operations using the data stored in the memory. It can be implemented as: At this time, the memory and processor may each be implemented as separate chips. Alternatively, the memory and processor may be implemented as a single chip.

또한, 프로세서는 이하의 도면에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다. In addition, the processor may control any one or a combination of the above-described components in order to implement various embodiments according to the present disclosure described in the drawings below on the present device.

한편, 도 1 내지 3에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 장치의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.Meanwhile, at least one component may be added or deleted in accordance with the performance of the components shown in FIGS. 1 to 3. Additionally, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed in response to the performance or structure of the device.

이하에서는, 상술한 구성요소를 활용한 분류 방법에 대해 구체적으로 설명한다. 후술하는 분류 방법은 상술한 서버 및 단말기 간 데이터 송수신을 통해 구현되며, 상기 방법의 일부 단계는 서버 및 단말기 중 어느 하나에서 수행될 수 있다. 다만, 이에 한정되지 않고 후술하는 방법은 서버 및 단말기 중 어느 하나에서 단독으로 수행될 수 있음은 통상의 기술자에게 자명하다.Below, a classification method using the above-described components will be described in detail. The classification method described later is implemented through data transmission and reception between the server and the terminal described above, and some steps of the method may be performed in either the server or the terminal. However, it is obvious to those skilled in the art that the method described below is not limited to this and can be performed independently in either a server or a terminal.

이하, 도 1 내지 3에서 설명한 구성요소를 활용한 분류 방법에 대하여 설명한다.Hereinafter, a classification method using the components described in FIGS. 1 to 3 will be described.

도 4는 본 개시에 따른 분류 방법의 흐름도이고, 도 5는 이미지 형태로 표시되는 과제의 일 실시 예를 나타내는 개념도이고, 도 6 및 7은 사용자의 발화를 센싱한 결과이다.Figure 4 is a flowchart of a classification method according to the present disclosure, Figure 5 is a conceptual diagram showing an example of a task displayed in the form of an image, and Figures 6 and 7 are the results of sensing the user's utterance.

먼저, 표시부에 컨텐츠를 출력하는 단계가 진행된다(S110).First, the step of outputting content to the display unit proceeds (S110).

상기 컨텐츠는 과제에 대응되는 컨텐츠로 특정인(예를 들어, 평가자)과의 대화를 유도하는 컨텐츠, 이미지, 문단 또는 문장으로 이루어진 텍스트 중 적어도 하나일 수 있다.The content corresponds to the task and may be at least one of content that induces a conversation with a specific person (eg, an evaluator), an image, a paragraph, or a text consisting of a sentence.

일 실시 예에 있어서, 표시부는 특정인과 자유롭게 대화할 것을 안내하는 텍스트를 표시하거나, 안내 메시지를 소리 형태로 출력할 수 있다.In one embodiment, the display unit may display text guiding free conversation with a specific person or output a guidance message in the form of sound.

일 실시 예에 있어서, 사용자가 이미지를 육안으로 확인하고, 이미지를 설명하는 발화를 수행하도록, 표시부는 이미지를 표시할 수 있다. 예를 들어, 도 5와 같이, 표시부에는 사용자의 발화를 유도하는 이미지가 출력될 수 있다.In one embodiment, the display unit may display an image so that the user can visually check the image and make a speech explaining the image. For example, as shown in FIG. 5, an image that induces the user to speak may be displayed on the display unit.

일 실시 예에 있어서, 사용자가 텍스트를 육안으로 확인하고, 텍스트를 그대로 따라 읽는 발화를 수행하도록, 표시부는 복수의 문장으로 이루어진 문단 또는 문장을 텍스트로 표시할 수 있다. In one embodiment, the display unit may display a paragraph or sentence consisting of a plurality of sentences as text so that the user can visually check the text and read the text as it is.

일 실시 예에 있어서, 사용자가 소리 형태로 출력된 문단 또는 문장을 듣고 그대로 따라하는 발화를 수행하도록, 표시부는 복수의 문장으로 이루어진 문단 또는 문장을 소리 형태로 출력할 수 있다.In one embodiment, the display unit may output a paragraph or sentence consisting of a plurality of sentences in sound form so that the user listens to the paragraph or sentence output in sound form and then utters the same text.

여기서, 상기 컨텐츠는 사용자의 대응 발화를 유도한다. 이때, 문장, 문단, 이미지, 대화 순으로 결과 예측이 용이하다. 즉, 사용자에게 부과하는 과제가 단순할수록 결과 예측이 용이하다.Here, the content induces a corresponding utterance from the user. At this time, it is easy to predict the results in the order of sentences, paragraphs, images, and conversations. In other words, the simpler the task assigned to the user, the easier it is to predict the results.

다음으로, 사용자가 컨텐츠에 대응되는 발화를 하도록 유도하고, 입력부가 사용자의 발화 정보를 수집하는 단계가 진행된다(S120).Next, the user is guided to utter an utterance corresponding to the content, and the input unit collects the user's utterance information (S120).

디스플레이부 또는 음성출력부를 통해 컨텐츠가 출력된 후, 디스플레이부 또는음성 출력부에서는 사용자의 발화를 가이드하는 안내 멘트가 출력될 수 있다. After content is output through the display unit or audio output unit, a guidance comment guiding the user's speech may be output from the display unit or audio output unit.

입력부는 사용자가 발화 시 이를 녹음한다. 상기 발화 정보는 사용자가 과제에 대응되는 발화를 수행할 때 녹음하여 생성된 음성 정보를 의미한다.The input unit records when the user speaks. The speech information refers to voice information generated by recording when a user performs a speech corresponding to a task.

표시부에 출력된 컨텐츠가 대화에 대응되는 컨텐츠인 경우, 사용자는 특정 인물과 자유롭게 대화를 수행하고, 입력부는 상기 대화를 녹음하여 발화 정보를 생성할 수 있다. 이때, 녹음은 기 설정된 시간동안 수행될 수 있다.When the content output on the display unit is content corresponding to a conversation, the user can freely conduct a conversation with a specific person, and the input unit can record the conversation and generate speech information. At this time, recording can be performed for a preset time.

한편, 표시부에 출력된 컨텐츠가 이미지인 경우, 사용자는 상기 표시된 이미지를 설명하는 발화를 기 설정된 시간동안 수행하고, 입력부는 상기 발화를 녹음하여 발화 정보를 생성할 수 있다. Meanwhile, when the content output to the display unit is an image, the user may perform a speech explaining the displayed image for a preset time, and the input unit may record the speech to generate speech information.

한편, 표시부에 출력된 컨텐츠가 문단 또는 문장인 경우, 사용자는 상기 표시된 텍스트를 읽는 발화를 수행하고, 입력부는 상기 발화를 녹음하여 발화 정보를 생성할 수 있다. Meanwhile, when the content output to the display unit is a paragraph or sentence, the user can perform a speech reading the displayed text, and the input unit may record the speech to generate speech information.

일 실시 예로, 발화 정보 수집 시, 주변 환경이 조용한 실내에서 실시하고, 의자에 편안하게 앉은 자세를 취하도록 할 수 있다. 또한, 마이크를 사용자의 입에서 기 설정된 거리(예, 15) 내외에 위치하도록 하고, 사용자의 입과 마이크가 90도를 유지하도록 한 후, 사용자의 발화를 녹음하는 방식으로 수행될 수 있다.As an example, when collecting speech information, the collection may be conducted indoors in a quiet environment, and the person may be seated comfortably in a chair. In addition, it can be performed by placing the microphone within a preset distance (e.g., 15) from the user's mouth, maintaining the user's mouth and the microphone at 90 degrees, and then recording the user's speech.

이미지 형태의 컨텐츠를 출력한 과제(이하, 그림설명하기 과제)에서는, 사용자가 전체적으로 이미지를 탐색할 수 있도록 충분히 시간을 제공한 후, 이미지에서 벌어지고 있는 상황들을 1분 동안 최대한 자세하게 문장으로 설명하도록 지시하는 방식(예, “지금부터 이 그림에서 무슨 일이 벌어지고 있는지 상세히 설명해보세요”)으로 수행될 수 있다. 문장으로 설명하기를 수행하지 못할 경우, 1회에 한해“문장으로 자세하게 설명해주세요.”라고 재 지시할 수 있다.In tasks that output content in the form of images (hereinafter referred to as picture description tasks), the user is given sufficient time to explore the image as a whole, and then is asked to explain the situations occurring in the image in as much detail as possible in sentences for one minute. This can be done in a directive manner (e.g., “Now explain in detail what is happening in this picture”). If you are unable to explain in sentences, you may re-instruct once, “Please explain in detail in sentences.”

다음으로, 발화 정보를 기초로 사용자의 원발진행실어증 유형을 예측하는 단계가 진행된다(S130).Next, the step of predicting the user's primary progressive aphasia type based on the speech information proceeds (S130).

여기서, 원발진행실어증 유형을 예측은 발화 정보로부터 추출된 총 발화시간, 총 음절수, 발화속도, 조음속도, 쉼 빈도, 쉼 시간 및 쉼 비율 중 적어도 하나를 기반으로 예측될 수 있다. Here, the type of primary progressive aphasia can be predicted based on at least one of total speech time, total number of syllables, speech rate, articulation rate, pause frequency, pause time, and pause ratio extracted from speech information.

상기 총 발화시간은 첫 음절을 산출하는 시점부터 끝 음절을 마치기까지의 시간을 의미한다.The total speech time refers to the time from producing the first syllable to completing the last syllable.

상기 총 음절수는 총 발화시간 동안 산출된 음절의 전체 수를 의미한다. The total number of syllables refers to the total number of syllables calculated during the total speech time.

상기 발화속도는 총 음절수÷총 발화시간이며, 쉼 시간을 포함한 총 발화시간 동안 산출한 총 음절수를 의미한다. 이때, 상기 발화시간은 쉼 시간을 포함한다. 일 실시 예로, 시간 단위는 초(second), 발화 단위를 음절(syllable)로 분석한 초당음절수(SPS: syllable per second)가 활용될 수 있다.The speech rate is the total number of syllables divided by the total speech time, which means the total number of syllables calculated during the total speech time including pause time. At this time, the utterance time includes rest time. As an example, the time unit may be seconds, and syllables per second (SPS), which is an utterance unit analyzed as syllables, may be used.

상기 조음속도는 총 음절수÷조음시간이며, 이때 상기 조음시간은 총 발화시간-쉼 시간이다. 즉, 상기 조음시간은 총 발화시간에서 쉼 시간을 제외한 조음시간 동안 산출한 총 음절수를 의미한다.The articulation speed is the total number of syllables ÷ articulation time, and in this case, the articulation time is the total speech time - pause time. In other words, the articulation time means the total number of syllables calculated during the articulation time excluding the pause time from the total utterance time.

한편, 상기 쉼(pause)은 발화가 이어지지 않는 부분 중 최소 시간(예를 들어, 0.1초) 이상인 구간으로 쉼이 하나 이상일 경우 이들을 모두 합하여 계산될 수 있다. 한편, 간투사(예, rr …), 기타 발성(예: 한숨, 웃음, 기침 등), 소음은 음향적 파형에서 수동으로 조정하여 모두 쉼 구간에 포함될 수 있다.Meanwhile, the pause is a section longer than the minimum time (for example, 0.1 seconds) among the parts where speech is not continued. If there is more than one pause, it can be calculated by adding them all together. Meanwhile, interprojections (e.g., rr...), other vocalizations (e.g., sighing, laughing, coughing, etc.), and noises can all be included in the rest period by manually adjusting the acoustic waveform.

쉼은 음성이 없는 무음 구간으로서 음향학적 신호가 나타나지 않는 물리적 쉼(silent pause)으로 간주된다. 물리적 쉼(silent pause)은 조음적 쉼(articulatory pause)과 지각가능한 쉼(audible pause)으로 구분될 수 있다. A pause is a silent section without speech and is considered a physical pause in which no acoustic signal appears. Physical pause (silent pause) can be divided into articulatory pause and audible pause.

물리적 쉼은 발화에 나타나는 무음 구간으로, 음성이 없는 부분이다. 이러한 쉼은 음향학적인 신호가 나타나지 않는다. 조음적 쉼은 폐쇄음이나 파찰음과 같은 특정 음소의 조음을 위해 필연적으로 발생하는 쉼 구간을 의미한다. 지각가능한 쉼은 발화 내에서 들리는 쉼을 의미한다. 이러한 쉼은 발화 내 쉼 비율을 측정하는 데 사용될 수 있다.A physical pause is a silent section that appears in a speech and is a part without voice. These pauses do not produce an acoustic signal. An articulatory pause refers to a pause that inevitably occurs for the articulation of a specific phoneme, such as a stop or affricate. A perceptible pause is an audible pause within an utterance. These pauses can be used to measure the proportion of pauses within an utterance.

상기 쉼 빈도(총 쉼 횟수)는 총 발화시간 동안 나타난 쉼의 전체 횟수를 의미한다. 여기서, 쉼 빈도는 기준에 따라 다양하게 정의될 수 있다. 구체적으로, 발화 간 쉼 빈도는 발화와 발화 사이에 나타나는 쉼의 빈도이다. 발화 내 쉼 빈도는 발화 내(어절 간+어절 내)에 나타나는 쉼의 빈도이다. 어절 간 쉼 빈도는 어절과 어절 사이에 나타나는 쉼의 빈도이다. 어절 내 쉼 빈도는 하나의 어절 중간에서 음절과 음절 사이에 나타나는 쉼의 빈도이다.The pause frequency (total number of pauses) refers to the total number of pauses that appear during the total speech time. Here, the pause frequency can be defined in various ways depending on the standard. Specifically, the inter-utterance pause frequency is the frequency of pauses that appear between utterances. The frequency of pauses within an utterance is the frequency of pauses that appear within an utterance (between words + within words). Inter-word pause frequency is the frequency of pauses that appear between words. The frequency of pauses within a word is the frequency of pauses that appear between syllables in the middle of a word.

상기 쉼 시간은 총 발화시간 동안 쉼이 나타난 시간을 의미한다. 쉼은 파형에서 0.1초 내지 2초의 묵음 구간이 나타난 부분을 측정할 수 있다.The pause time refers to the time when the pause appears during the total speech time. Pause can be measured in the portion of the waveform where a silent section of 0.1 to 2 seconds appears.

상기 쉼 비율은 (총 쉼 시간÷총 발화시간)이며, 총 발화시간 동안 총 쉼 시간이 차지하는 비율을 의미한다.The pause ratio is (total pause time ÷ total ignition time), and means the ratio of the total pause time to the total ignition time.

도 6 및 7은 Praat의 파형 분석 예를 나타내는 도면이다. Figures 6 and 7 are diagrams showing examples of Praat waveform analysis.

도 6을 참조하면, 총 발화 구간(①)동안 조음구간(②)과 쉼 구간(③)이 나타남을 알 수 있다.Referring to Figure 6, it can be seen that an articulation section (②) and a rest section (③) appear during the total speech section (①).

도 7을 참조하면, “엄마겠죠 여기 볼도 있고”라는 문장을 발화할 때, 쉼(P) 및 비유창성(DF)가 발생하는 것을 알 수 있다. Referring to Figure 7, it can be seen that when uttering the sentence “Mom, there is a ball here,” pause (P) and disfluency (DF) occur.

한편, 원발진행실어증 유형 예측은 사용자를 nfvPPA, svPPA, lvPPA 및 정상 중 어느 하나로 분류하는 것일 수 있다.Meanwhile, primary progressive aphasia type prediction may be to classify the user as one of nfvPPA, svPPA, lvPPA, and normal.

상기 분류는 발화 정보에서 추출된 총 발화 수, 총 음절 수, 발화당 음절수, 발화당 어절 수, 전체 쉼 빈도, 발화 간 쉼 빈도, 발화 내 쉼 빈도(어절 간+어절 내), 어절 간 쉼 빈도, 어절 내 쉼 빈도, 전체 쉼 기간, 발화 간 쉼 시간, 발화 내 쉼 시간(어절 간+어절 내), 어절 간 쉼 시간, 어절 내 쉼 시간, 발화속도 및 조음속도 중 적어도 하나를 기반으로 수행될 수 있다.The above classification includes the total number of utterances extracted from the utterance information, the total number of syllables, the number of syllables per utterance, the number of words per utterance, the overall pause frequency, the pause frequency between utterances, the pause frequency within utterances (between words + within words), and the pause between words. Performed based on at least one of the following: frequency, intra-word pause frequency, overall pause period, inter-utterance pause time, intra-utterance pause time (inter-word + intra-word pause), inter-word pause time, intra-word pause time, speech rate, and articulation rate. It can be.

한편, lvPPA는 말운동장애나 진정한 의미의 문법 오류는 nfvPPA에 비해 적어 비교적 유창성이 보존된다. 또한, 그림설명하기 과제에서 lvPPA는 svPPA 환자군보다 발화속도가 빠르며, 전체 쉼 빈도가 높고, 발화 내 쉼 시간이 길다.On the other hand, lvPPA has fewer speech movement disorders and true grammatical errors than nfvPPA, and fluency is relatively preserved. Additionally, in the picture description task, lvPPA patients had a faster speech rate, higher overall pause frequency, and longer pause times within speech than the svPPA patient group.

한편, nfvPPA는 그림설명하기 과제에서 lvPPA나 svPPA에 비하여 조음기 움직임의 속도가 감소하여 발화속도, 조음속도가 상대적으로 느리며, 쉼빈도, 쉼 비율도 증가한다. 또한, nfvPPA는 발화시 문법적인 오류가 많이 발생한다.Meanwhile, in nfvPPA, the speed of articulator movements is reduced compared to lvPPA or svPPA in the picture description task, so speech and articulation speeds are relatively slow, and pause frequency and pause ratio also increase. Additionally, nfvPPA causes many grammatical errors when speaking.

한편, 그림설명하기 과제 수행 결과를 기반으로, 상기 사용자의 원발진행실어증 유형이 정상인지 여부를 판단할 수 있다.Meanwhile, based on the results of the picture description task, it can be determined whether the user's primary progressive aphasia type is normal.

일 실시 예에 있어서, 문장 내 쉼은 1초 이상, 문장 간 쉼은 2초 이상으로 정의한 상태에서, 그림설명하기 과제에서의 쉼 빈도가 기준치보다 낮은 경우, lvPPA, svPPA, nfvPPA 및 정상 중 정상으로 분류할 수 있다.In one embodiment, the pause within a sentence is defined as 1 second or more, and the pause between sentences is defined as 2 seconds or more, and when the pause frequency in the picture description task is lower than the standard value, it is classified as normal among lvPPA, svPPA, nfvPPA, and normal. Can be classified.

한편, 상기 그림설명하기 과제 수행 결과를 기반으로, 상기 사용자의 원발진행실어증 유형이 nfvPPA인지 여부를 판단할 수 있다.일 실시 예에 있어서, 사용자가 정상의 조건을 만족하지 않는 경우, 문장 내 쉼은 1초 이상, 문장 간 쉼은 2차 이상으로 정의한 상태에서, 그림설명하기 과제에서 발화속도가 기준치 이하, 조음속도가 기준치 이하, 쉼 빈도가 기준치 이상 및 쉼 비율이 기준치 이상 중 적어도 하나의 조건을 만족하는 경우, nfvPPA, svPPA 및 lvPPA 중 nfvPPA로 분류할 수 있다.Meanwhile, based on the results of the picture description task, it can be determined whether the user's primary progressive aphasia type is nfvPPA. In one embodiment, if the user does not meet the normal conditions, a pause in the sentence is defined as 1 second or more, and the pause between sentences is defined as 2nd or more, and in the picture description task, at least one of the following conditions is met: speech rate is below the standard value, articulation rate is below the standard value, pause frequency is above the standard value, and pause ratio is above the standard value. If satisfies, it can be classified as nfvPPA among nfvPPA, svPPA, and lvPPA.

한편, 사용자가 정상 및 nfvPPA의 조건을 만족하지 않는 경우, svPPA 및 lvPPA의 분류는 쉼을 정의하는 최소 무음 구간을 정상 및 nfvPPA 판단 시보다 짧게 정의한 후, 전체 쉼 빈도 및 발화 내 쉼 시간를 활용하여 수행될 수 있다.On the other hand, if the user does not satisfy the conditions of normal and nfvPPA, the classification of svPPA and lvPPA will be performed by defining the minimum silence interval that defines the pause to be shorter than when determining normal and nfvPPA, and then utilizing the overall pause frequency and pause time within the utterance. You can.

일 실시 예에 있어서, 사용자가 정상 및 nfvPPA의 조건을 만족하지 않는 경우, 쉼을 0.1초로 정의한 상태에서, 전체 쉼 빈도가 기준치 이상, 발화 내 쉼 시간이 기준치 이상 중 적어도 하나의 조건을 만족하는 경우, svPPA 및 lvPPA 중 lvPPA로 분류할 수 있다.In one embodiment, if the user does not satisfy the conditions of normal and nfvPPA, and the pause is defined as 0.1 seconds, if at least one condition of the overall pause frequency is greater than or equal to the reference value and the pause time within the utterance is greater than or equal to the standard value is met, It can be classified as lvPPA among svPPA and lvPPA.

사용자가 정상, nfvPPA 및 lvPPA의 조건을 만족하지 않는 경우, svPPA로 분류할 수 있다.If the user does not meet the conditions of normal, nfvPPA, and lvPPA, it can be classified as svPPA.

마지막으로, 예측 결과를 출력하는 단계가 진행된다(S140).Finally, the step of outputting the prediction result proceeds (S140).

상기 예측 결과는 표시부를 통해 출력될 수 있으며, 사용자를 nfvPPA, svPPA, lvPPA 및 정상 중 어느 하나로 분류한 분류 결과일 수 있다.The prediction result may be output through the display unit and may be a classification result that classifies the user as one of nfvPPA, svPPA, lvPPA, and normal.

이하, 사용자의 발화 정보를 수집하고, 이를 분석한 실시 예에 대하여 구체적으로 설명한다.Hereinafter, an embodiment in which user speech information is collected and analyzed will be described in detail.

실시 예1. 정상군과 환자군 간 구분Example 1. Distinction between normal and patient groups

연구는 총 2건이 수행되었다. 연구1에는 정상군과 PPA환자군(세 유형)이 포함되었다. 연구 1의 PPA군은 신경과 전문의에 의해 진단받은 환자군 36명으로서, 유형별 lvPPA 22명(69.5±12.98세), svPPA 8명(70.5±8.21세), nfvPPA 6명(69.7±7.03세)을 포함하였다. 대조군인 정상군은 36명(68.1±2.85세)이었다. 이들 72명 각각에 대하여 상술한 그림설명하기 과제를 실시하였다. 이들 발화에 대한 전반적인 말속도 및 쉼 특성을 분석하였다. 이 때 분석을 위한 통계 처리는 IBM SPSS(Statistical Package for the Social Science, version 25.0)for Window 프로그램을 사용하였다. 정상군과 전체 PPA군 간 뿐만 아니라 정상군과 세 하위유형의 PPA 환자군, 즉 네 군간이 그림설명하기에서 발화속도, 조음속도, 쉼 빈도, 쉼 비율 각각 유의한 차이가 있는지 살펴보기 위하여 비모수 공분산분석(Quade Nonparametric ANCOVA)을 실시하였다. A total of two studies were conducted. Study 1 included a normal group and a PPA patient group (three types). The PPA group in Study 1 was a group of 36 patients diagnosed by a neurologist, including 22 lvPPA (69.5 ± 12.98 years), 8 svPPA (70.5 ± 8.21 years), and 6 nfvPPA (69.7 ± 7.03 years) by type. did. The normal control group consisted of 36 people (68.1 ± 2.85 years old). The picture description task described above was administered to each of these 72 people. The overall speech rate and pause characteristics of these utterances were analyzed. At this time, the IBM SPSS (Statistical Package for the Social Science, version 25.0) for Window program was used for statistical processing for analysis. Non-parametric covariance analysis was conducted to examine whether there were significant differences in speech rate, articulation rate, pause frequency, and pause ratio in picture description between the normal group and the overall PPA group, as well as between the normal group and the three subtypes of PPA patient groups, that is, the four groups. (Quade Nonparametric ANCOVA) was performed.

연구 2에서는 정상군과 PPA환자군(두 유형)을 대상으로 하였다. PPA군은 신경과 전문의에 의해 진단받은 lvPPA 21명(74.9±6.00), svPPA 9명(73.1±8.75세)을 포함하였다. 대조군인 정상군은 30명(70.4±7.42세)이었다. 정상군과 PPA 두 유형간 발화 변인 차이가 있는지를 살펴보기 위하여 그림설명하기에서 발화속도, 조음속도, 쉼 빈도, 쉼 비율 등을 분석하였다. Study 2 targeted the normal group and PPA patient group (two types). The PPA group included 21 patients (74.9 ± 6.00) with lvPPA and 9 patients (73.1 ± 8.75 years old) with svPPA diagnosed by a neurologist. The normal control group consisted of 30 people (70.4 ± 7.42 years old). To examine whether there were differences in speech variables between the normal group and the two types of PPA, speech rate, articulation rate, pause frequency, and pause ratio were analyzed in picture description.

실시 예2. nfvPPA와 다른 두 PPA하위 유형(lvPPA, svPPA)간 구분Example 2. Distinguish between nfvPPA and the other two PPA subtypes (lvPPA, svPPA)

연구1에서 nfvPPA와 다른 두 PPA하위 유형, 즉 lvPPA와 svPPA군 간에 차이가 있는지를 살펴보았다. 또한 유의미한 차이가 나타난 측정 요인들이 어떠한 군 간에서 차이가 있었는지 살펴보기 위하여 사후 검정을 실시하였다. 신뢰도 분석은 전체 발화 자료에서 30%를 무작위로 추출하여 24명의 자료를 분석하였으며 평가자 내 신뢰도 및 평가자 간 신뢰도를 각각 산출하였다. In Study 1, we examined whether there was a difference between nfvPPA and two other PPA subtypes, namely the lvPPA and svPPA groups. In addition, a post hoc test was conducted to examine whether the measurement factors that showed significant differences differed between groups. For the reliability analysis, 30% of the total speech data was randomly selected and data from 24 people were analyzed, and intra-rater reliability and inter-rater reliability were calculated respectively.

실시 예3. lvPPA군과 svPPA 군 간 구분Example 3. Distinction between lvPPA group and svPPA group

연구1과 연구2 모두에서 분석 요인들에서 lvPPA군과 svPPA군간의 차이를 살펴보았다. 이 두 연구간의 차이는 분석시에 적용한 쉼 시간에 있었다. 즉, 연구 2에서는 연구 1과 달리 쉼을 100msec까지 짧게 설정하여 분석하였다.In both Study 1 and Study 2, we examined the differences between the lvPPA group and the svPPA group in the analysis factors. The difference between these two studies was the rest time applied during analysis. That is, in Study 2, unlike Study 1, the pause was set as short as 100 msec for analysis.

분석 결과1. 전체 PPA군과 정상군 간 수행력 비교Analysis result 1. Comparison of performance between the overall PPA group and the normal group

연구 1에서 전체 PPA군과 정상군 간 그림설명하기 과제의 수행력 차이를 비모수 공분산분석(Quade Nonparametric ANCOVA)으로 실시한 결과는 다음과 같다. 쉼 빈도는 전체 PPA군(5.97±2.9회)이 정상군(0.61±0.8회)에 비하여 통계적으로 유의하게 많았다(F=14.092, p<.001). 반면에, 총 발화시간, 총 음절수, 발화속도, 조음속도는 정상군과 전체 PPA군 간 유의하게 차이가 나지 않았다. 상세히 살펴보면, 총 발화시간은 전체 PPA군(46.58±21.8초)과 정상군(49.34±21.2초) 간 차이가 유의하지 않았다(F=.004, p>.05). 총 음절수 역시 전체 PPA군(104.10± 52.8개)과 정상군(145.50±58.8개) 간 차이가 유의하지 않았다(F=.386, p>.05). 또한 발화속도에서는 전체 PPA군(2.31±0.8초)과 정상군(3.12±0.7초) 간 차이가 유의하지 않았다(F=1.825, p>.05). 조음속도 역시 전체 PPA군(3.34 ±0.9초)과 정상군(3.20±0.6초) 간 차이가 유의하지 않았다(F=.071, p>.05). In Study 1, the results of nonparametric analysis of covariance (Quade Nonparametric ANCOVA) on the difference in performance of the picture description task between the overall PPA group and the normal group are as follows. The frequency of pausing in the overall PPA group (5.97±2.9 times) was statistically significantly higher than that in the normal group (0.61±0.8 times) (F=14.092, p<.001). On the other hand, total speech time, total number of syllables, speech rate, and articulation rate were not significantly different between the normal group and the overall PPA group. In detail, there was no significant difference in total speech time between the overall PPA group (46.58±21.8 seconds) and the normal group (49.34±21.2 seconds) (F=.004, p>.05). There was also no significant difference in the total number of syllables between the total PPA group (104.10±52.8) and the normal group (145.50±58.8) (F=.386, p>.05). Additionally, there was no significant difference in speech rate between the overall PPA group (2.31±0.8 seconds) and the normal group (3.12±0.7 seconds) (F=1.825, p>.05). There was also no significant difference in articulation speed between the overall PPA group (3.34 ± 0.9 seconds) and the normal group (3.20 ± 0.6 seconds) (F=.071, p>.05).

연구 1에서 정상군과 환자군 간의 차이를 살펴보았을 때에 총 음절수의 수행력은 nfvPPA군(38.83±16.9개)이 정상군(145.50±58.8개)(p<.01)에 비하여 유의하게 적었다. 그러나, svPPA군(129.50±51.8개)과 정상군(145.50±58.8개) 간, lvPPA군(115.18±43.9)과 정상군 간에 총 음절수의 차이는 유의하지 않았다(p>.05). When examining the differences between the normal and patient groups in Study 1, the performance of total number of syllables in the nfvPPA group (38.83±16.9) was significantly lower than that in the normal group (145.50±58.8) (p<.01). However, the differences in total number of syllables between the svPPA group (129.50 ± 51.8) and the normal group (145.50 ± 58.8), and between the lvPPA group (115.18 ± 43.9) and the normal group were not significant (p>.05).

발화속도의 수행력은 nfvPPA군(0.97±0.3초)이 정상군(3.31±0.7초)(p<.01)에 비하여 발화속도가 유의하게 느렸다. 그러나 svPPA군(2.69±0.5초)과 lvPPA군(2.60±0.6초) 각각은 정상군(3.31±0.7초) 과 비교하여 그 차이는 유의하지 않았다(p>.05). Regarding speech rate performance, the nfvPPA group (0.97±0.3 seconds) had significantly slower firing rate than the normal group (3.31±0.7 seconds) (p<.01). However, the difference between the svPPA group (2.69 ± 0.5 seconds) and the lvPPA group (2.60 ± 0.6 seconds) compared to the normal group (3.31 ± 0.7 seconds) was not significant (p>.05).

조음속도의 수행력 역시 nfvPPA군(2.02±0.4초)이 정상군(3.20±0.6초)에 비하여 유의하게 느렸다(p<.001), 다른 두 유형은 정상군과 유의한 차리를 보이지 않았다. Performance of articulation speed was also significantly slower in the nfvPPA group (2.02±0.4 seconds) than the normal group (3.20±0.6 seconds) (p<.001), and the other two types showed no significant difference from the normal group.

쉼 빈도의 수행력은 nfvPPA군(8.17±2.3회)(p<.01), svPPA군(5.33±3.5회)(p<.05), lvPPA군(5.35±2.6회)(p<.05) 모두 정상군(0.61±0.8회)에 비하여 유의하게 높았다. The performance of rest frequency was all in the nfvPPA group (8.17±2.3 times) (p<.01), svPPA group (5.33±3.5 times) (p<.05), and lvPPA group (5.35±2.6 times) (p<.05). It was significantly higher than the normal group (0.61±0.8 times).

쉼 시간의 수행력은 nfvPPA군(21.82±9.3초), svPPA군(17.28±13.3초), lvPPA군(13.58±9.1초)이 정상군(1.19±1.5초)에 비하여 쉼 시간이 유의하게 길었다(p<.05). Regarding rest time performance, the rest time in the nfvPPA group (21.82 ± 9.3 seconds), svPPA group (17.28 ± 13.3 seconds), and lvPPA group (13.58 ± 9.1 seconds) was significantly longer than that of the normal group (1.19 ± 1.5 seconds) (p <.05).

쉼 비율의 수행력은 nfvPPA군(0.54±0.3%)이 정상군(0.03±0.0%)(p<.001)에 비하여 유의하게 높았다. 또한 svPPA군(0.31±0.1%)과 lvPPA군(0.29±0.1%)이 정상군(0.03±0.0%)에 비하여 유의하게 높았다(p<.05). Rest ratio performance in the nfvPPA group (0.54±0.3%) was significantly higher than that in the normal group (0.03±0.0%) (p<.001). Additionally, the svPPA group (0.31±0.1%) and lvPPA group (0.29±0.1%) were significantly higher than the normal group (0.03±0.0%) (p<.05).

연구 2에서는 전체 쉼 빈도의 수행력은 lvPPA군(22.29±10.71회)(p<.05)이 정상군(16.07±7.09회)(p<.05) 에 비하여 유의하게 높았다. svPPA군(15.22±5.67회)은 정상군과 차이가 없었다.In Study 2, the overall rest frequency performance of the lvPPA group (22.29±10.71 times) (p<.05) was significantly higher than that of the normal group (16.07±7.09 times) (p<.05). The svPPA group (15.22±5.67 times) was no different from the normal group.

발화간 쉼 빈도의 수행력 역시 lvPPA군(7.81±3.79회)(p<.05)이 정상군(4.93±1.72회)(p<.05) 에 비하여 유의하게 높았다. svPPA군(5.56±1.94회)은 정상군과 차이가 없었다.The performance of pause frequency between utterances was also significantly higher in the lvPPA group (7.81±3.79 times) (p<.05) than in the normal group (4.93±1.72 times) (p<.05). The svPPA group (5.56±1.94 times) had no difference from the normal group.

분석 결과2. nfvPPA와 다른 두 PPA하위 유형(lvPPA, svPPA)간 수행력 비교Analysis result 2. Performance comparison between nfvPPA and other two PPA subtypes (lvPPA, svPPA)

PPA군의 세 하위유형인 nfvPPA군, svPPA군, lvPPA군 간 그림설명하기 과제의 수행력 차이를 비모수 공분산분석(Quade Nonparametric ANCOVA)으로 실시한 결과는 다음과 같다. The results of nonparametric analysis of covariance (Quade Nonparametric ANCOVA) on the difference in performance of the picture description task between the three subtypes of the PPA group, the nfvPPA group, the svPPA group, and the lvPPA group, are as follows.

세 군간 총 발화시간의 수행력은 nfvPPA군(40.60±15.4초), lvPPA군 (46.30±20.8초), svPPA군(51.87±28.4초) 간 차이가 유의하지 않았다(F=.352, p>.05). There was no significant difference in performance of total speech time between the three groups among the nfvPPA group (40.60±15.4 seconds), lvPPA group (46.30±20.8 seconds), and svPPA group (51.87±28.4 seconds) (F=.352, p>.05). ).

세 군간 총 음절수의 수행력은 nfvPPA군(38.83±16.9개)이 svPPA군(129.50±51.8개)(p<.01), lvPPA군(115.18±43.9개)(p<.01)에 비하여 총 음절수가 유의하게 적었다. The performance of the total number of syllables among the three groups was higher in the nfvPPA group (38.83 ± 16.9) compared to the svPPA group (129.50 ± 51.8) (p < .01) and the lvPPA group (115.18 ± 43.9) (p < .01). The number was significantly small.

세 군간 발화속도의 수행력은 nfvPPA군(0.97±0.3초)이 svPPA군(2.69±0.5초)(p<.05)나 lvPPA군(2.60±0.6초)(p<.01)에 비하여 발화속도가 유의하게 느렸다. 그러나 svPPA군과 lvPPA군간의 차이는 유의하지 않았다.Regarding the performance of firing rate among the three groups, the nfvPPA group (0.97±0.3 seconds) had a higher firing rate than the svPPA group (2.69±0.5 seconds) (p<.05) or the lvPPA group (2.60±0.6 seconds) (p<.01). It was significantly slower. However, the difference between the svPPA group and the lvPPA group was not significant.

세 군간 조음속도의 수행력은 nfvPPA군(2.02±0.4초)이 svPPA군(3.73±0.6초)나 lvPP군(3.62±0.7초)에 비하여 조음속도가 유의하게 느렸다(p<.001). 그러나 svPPA군과 lvPPA군간의 차이는 유의하지 않았다.Regarding articulation speed performance among the three groups, the nfvPPA group (2.02±0.4 seconds) had significantly slower articulation speed than the svPPA group (3.73±0.6 seconds) or lvPP group (3.62±0.7 seconds) (p<.001). However, the difference between the svPPA group and the lvPPA group was not significant.

세 군간 쉼 빈도의 수행력은 nfvPPA군, svPPA군, lvPPA군 즉, PPA 하위유형군 간 차이는 유의하지 않았다(p>.05).There was no significant difference in rest frequency performance among the three groups among the nfvPPA group, svPPA group, and lvPPA group, that is, the PPA subtype group (p>.05).

세 군간 쉼 시간의 수행력은 nfvPPA군, svPPA군, lvPPA군 즉, PPA 하위유형군 간 차이는 유의하지 않았다(p>.05).There was no significant difference in rest time performance among the three groups among the nfvPPA group, svPPA group, and lvPPA group, that is, the PPA subtype group (p>.05).

세 군간 쉼 비율의 수행력은 nfvPPA군(0.54±0.3%)이 lvPPA군(0.29±0.1%)(p<.05)에 비하여 쉼 비율이 유의하게 높았다. 그러나 nfvPPA군(0.54±0.3%)과 svPPA군(0.31±0.1%) 간, svPPA군(0.31±0.1%)과 lvPPA군(0.29±0.1%) 간 차이는 유의하지 않았다(p>.05).The rest ratio performance among the three groups was significantly higher in the nfvPPA group (0.54±0.3%) than the lvPPA group (0.29±0.1%) (p<.05). However, the differences between the nfvPPA group (0.54±0.3%) and svPPA group (0.31±0.1%) and between the svPPA group (0.31±0.1%) and lvPPA group (0.29±0.1%) were not significant (p>.05).

분석 결과3. lvPPA군과 svPPA 군 간 수행력 비교Analysis result 3. Comparison of performance between lvPPA group and svPPA group

연구1에서는 두 군간 총 음절수의 수행력은 lvPPA군(115.18±43.9개)과 svPPA군(129.50±51.8개) 간 유의한 차이가 없었다. 연구2에서도 두군간 총 음절수의 수행력은 lvPPA군(184.08±14.36개)과 svPPA군(168.93±27.03개) 간 유의하지 않았다.In Study 1, there was no significant difference in performance in total number of syllables between the two groups between the lvPPA group (115.18 ± 43.9) and the svPPA group (129.50 ± 51.8). In Study 2, the performance of the total number of syllables between the two groups was not significant between the lvPPA group (184.08 ± 14.36) and the svPPA group (168.93 ± 27.03).

연구1에서는 두 군간 발화속도의 수행력은 lvPPA군(2.60±0.6초)과 svPPA군(2.69±0.5초) 간, 유의한 차이가 없었다. 연구2에서도 lvPPA군(2.45±0.20초)과 svPPA군(3.03±0.38초) 간 발화속도의 수행력 차이가 유의하지 않았다.In Study 1, there was no significant difference in speech rate performance between the two groups between the lvPPA group (2.60 ± 0.6 seconds) and the svPPA group (2.69 ± 0.5 seconds). In Study 2, there was no significant difference in speech rate performance between the lvPPA group (2.45 ± 0.20 seconds) and the svPPA group (3.03 ± 0.38 seconds).

연구1에서는 두 군간 조음속도의 수행력은 lvPPA군(3.62±0.7초)과 svPPA군(3.73±0.6초) 간 차이는 유의하지 않았다(p>.05). 연구2에서도 lvPPA군(6.27±1.24초)과 svPPA군(6.73±0.93초) 간 조음속도의 수행력 차이가 유의하지 않았다.In Study 1, there was no significant difference in articulation speed performance between the lvPPA group (3.62 ± 0.7 seconds) and the svPPA group (3.73 ± 0.6 seconds) between the two groups (p>.05). In Study 2, there was no significant difference in articulation speed performance between the lvPPA group (6.27 ± 1.24 seconds) and the svPPA group (6.73 ± 0.93 seconds).

연구1에서는 두 군간 쉼 빈도의 수행력은 lvPPA군 과 svPPA군 간 차이는 유의하지 않았다(p>.05). 그러나, 연구2에서는 두 군간 쉼 빈도의 수행력은 lvPPA군(21.99±1.90) 과 svPPA군(19.19±3.57) 간 차이가 유의하였다.In Study 1, there was no significant difference in rest frequency performance between the lvPPA group and the svPPA group between the two groups (p>.05). However, in Study 2, there was a significant difference in rest frequency performance between the lvPPA group (21.99 ± 1.90) and the svPPA group (19.19 ± 3.57) between the two groups.

연구1에서는 두 군간 쉼 시간의 수행력은 lvPPA군 과 svPPA군 간 차이는 유의하지 않았다(p>.05). 한편, 연구2에서는 두 군간 발화내 쉼 시간의 수행력의 경우 lvPPA 군(12.25±1.45)이 svPPA군(9.41±2.75)보다 유의하게 높았다(p<.05).In Study 1, there was no significant difference in rest time performance between the lvPPA group and the svPPA group between the two groups (p>.05). Meanwhile, in Study 2, the performance of pauses within utterances between the two groups was significantly higher in the lvPPA group (12.25±1.45) than in the svPPA group (9.41±2.75) (p<.05).

연구1에서는 두 군간 쉼 비율의 수행력은 lvPPA군 과 svPPA군 간 차이는 유의하지 않았다(p>.05).In Study 1, there was no significant difference in rest ratio performance between the lvPPA group and the svPPA group between the two groups (p>.05).

통계적 분석을 위해 SPSS((Statistical Package for the Social Science, version 26.0) 프로그램을 통해 검정을 실시하였다. PPA 집단(lvPPA, svPPA)과 정상 집단에 따른 성별의 차이를 살펴보고자 카이제곱 검정(chi-square test)을 실시하였으며, PPA 집단(lvPPA, svPPA)과 정상 집단에 따른 연령, 교육년수, K-MMSE, AQ 차이를 살펴보기 위해 일원 분산 분석(analysis of variance, ANOVA)을 실시하였다. 또한, 성별, 연령, 교육년수, K-MMSE 및 AQ의 영향력을 통제하였을 때 PPA 아형에 따라 주요 변인에 차이를 보이는지 분석하고자 일반화 선형 모형(generalized linear model)을 살펴보았다. 이때 주요 변인은 음이 아닌 정수형 변수이므로 포아송 분포를 따른다고 가정하였고, 정상 집단과 PPA 집단(lvPPA, svPPA) 간의 연구 결과 차이를 강조하기 위해 정상 집단을 기준 범주로 설정하여 타 집단과 비교하였다. 이후 PPA 집단(lvPPA, svPPA) 간 추정된 평균값을 비교하였다.For statistical analysis, a test was conducted using the SPSS (Statistical Package for the Social Science, version 26.0) program. To examine gender differences between the PPA group (lvPPA, svPPA) and the normal group, a chi-square test was used. test) was conducted, and one-way analysis of variance (ANOVA) was conducted to examine the differences in age, years of education, K-MMSE, and AQ between the PPA group (lvPPA, svPPA) and the normal group. In addition, gender , a generalized linear model was examined to analyze whether there were differences in major variables depending on PPA subtype when controlling for the influence of age, years of education, K-MMSE, and AQ. In this case, the major variable was a non-negative integer variable. Therefore, it was assumed to follow a Poisson distribution, and to emphasize the difference in research results between the normal group and the PPA group (lvPPA, svPPA), the normal group was set as the reference category and compared with other groups. Afterwards, the PPA group (lvPPA, svPPA) The estimated average values were compared.

검사자 내 신뢰도와 검사자 간 신뢰도를 구하기 위해, 전체 자료의 10%에 해당되는 6명을 무작위로 선택하였다. 제1 검사자는 연구자였고, 제2검사자는 언어병리학을 전공한 대학원 졸업생으로 언어재활사 2급 자격증을 소지한 언어재활사였다. 본격적인 분석에 앞서 제2 검사자에게 분석 지침에 대해 숙지시키고 연습 과정을 거친 후 분석하도록 하였다. 검사자 내 신뢰도 분석 결과, Cronbach’s alpha 계수는 총 발화수 .977, 총 음절수 1, 총 어절수 1, 발화당 음절수 .985, 발화당 어절수 .990, 전체 쉼 빈도 .991, 발화 간 쉼 빈도 .848, 발화 내 쉼 빈도 .942, 어절 간 쉼 빈도 .921, 어절 내 쉼 빈도 1, 전체 쉼 시간 .998, 발화 간 쉼 시간 .996, 발화 내 쉼 시간 .746, 어절 간 쉼 시간 .798, 어절 내 쉼 시간 1, 발화속도 1, 조음속도 .884으로 나타났다.To determine intra-examiner reliability and inter-examiner reliability, 6 people, representing 10% of the total data, were randomly selected. The first examiner was a researcher, and the second examiner was a graduate school graduate majoring in speech-language pathology and a speech-language rehabilitator with a level 2 certificate. Prior to full-scale analysis, the second examiner was made familiar with the analysis guidelines and analyzed after going through a practice process. As a result of the intra-examiner reliability analysis, the Cronbach's alpha coefficient was .977 for the total number of utterances, 1 for the total number of syllables, 1 for the total number of words, .985 for the number of syllables per utterance, .990 for the number of words per utterance, .991 for the total pause frequency, and .991 for the pause frequency between utterances. .848, intra-utterance pause frequency .942, inter-word pause frequency .921, intra-word pause frequency 1, total pause time .998, inter-utterance pause time .996, intra-utterance pause time .746, inter-word pause time .798, Intraword pause time was 1, speech rate was 1, and articulation rate was .884.

검사자 간 신뢰도 분석 결과, Cronbach’s alpha 계수는 총 발화수 .971, 총 음절수 .993, 총 어절수 .996, 발화당 음절수 .934, 발화당어절수 .952, 전체 쉼 빈도 .971, 발화 간 쉼 빈도 1, 발화 내 쉼 빈도 .989, 어절 간 쉼 빈도 .985, 어절 내 쉼 빈도 1, 전체 쉼 시간 .999, 발화 간 쉼 시간 .991, 발화 내 쉼 시간 .882, 어절 간 쉼 시간 .845, 어절 내 쉼 시간 1, 발화속도 .996, 조음속도 .966으로 나타났다.As a result of the inter-examiner reliability analysis, Cronbach's alpha coefficients were .971 for the total number of utterances, .993 for the total number of syllables, .996 for the total number of words, .934 for the number of syllables per utterance, .952 for the number of words per utterance, .971 for the total pause frequency, and .971 for the total number of pauses between utterances. Pause frequency 1, intra-utterance pause frequency .989, inter-word pause frequency .985, intra-word pause frequency 1, total pause time .999, inter-utterance pause time .991, intra-utterance pause time .882, inter-word pause time .845 , the pause time within a word was 1, the speech rate was .996, and the articulation rate was .966.

1. 발화 길이 비교1. Comparison of utterance length

1) 총 발화 수 비교1) Comparison of total number of utterances

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 총 발화 수를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 총 발화 수 평균은 각각 9.38±3.90, 7.11±1.69, 6.50±1.85로 집단 간 차이가 통계적으로 유의하였다(p<.01).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with the total number of utterances as the dependent variable. As a result, the average total number of utterances in the lvPPA group, svPPA group, and normal group was 9.38±3.90, 7.11±1.69, and 6.50±1.85, respectively, and the difference between groups was statistically significant (p<.01).

총 발화 수를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 총 발화 수는 정상 집단(p=0.002)에 비해 3.19(0.95) 높은 것으로 추정되었으나 svPPA 집단의 총 발화 수는 정상 집단(p=0.169)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 연령과 K-MMSE는 총 발화 수에 영향을 주는 것으로 추정되었다(p<.05).The results of examining the generalized linear model with the total number of utterances as the dependent variable are as follows. The total number of utterances in the lvPPA group was estimated to be 3.19 (0.95) higher than the normal group (p=0.002), but the total number of utterances in the svPPA group was estimated to be no significant difference compared to the normal group (p=0.169). Additionally, age and K-MMSE were estimated to affect the total number of utterances (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 총 발화 수 결과는 다음과 같다. 총 발화 수 추정 값의 경우 lvPPA 집단은 9.32±0.63, svPPA 집단은 8.26±1.18, 정상 집단은 6.13±0.61로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(9.32±0.63)이 정상 집단(6.13±0.61)보다 유의하게 높았다(p<.01).The results of the total number of utterances by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The estimated total number of utterances was 9.32±0.63 for the lvPPA group, 8.26±1.18 for the svPPA group, and 6.13±0.61 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (9.32±0.63) was significantly higher than the normal group (6.13±0.61) (p<.01).

2) 총 음절 수 비교2) Compare the total number of syllables

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 총 음절 수를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 총 음절 수 평균은 각각 187.86±70.73, 138.78±59.52, 143.93±61.32로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with the total number of syllables as the dependent variable. As a result, the average total number of syllables for the lvPPA group, svPPA group, and normal group were 187.86±70.73, 138.78±59.52, and 143.93±61.32, respectively, and the difference between groups was statistically significant (p<.05).

총 음절 수를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 총 음절 수는 정상 집단(p=0. 032)에 비해 48.07(21.83) 높은 것으로 추정되었으나 svPPA 집단의 총 음절 수는 정상 집단(p=0.349)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 연령의 회귀 계수는 3.25(1.26)로 유의하게 총 음절 수에 영향을 주는 것으로 추정되었다(p<.05).The results of examining the generalized linear model with the total number of syllables as the dependent variable are as follows. The total number of syllables in the lvPPA group was estimated to be 48.07 (21.83) higher than the normal group (p=0.032), but the total number of syllables in the svPPA group was estimated to be no significant difference compared to the normal group (p=0.349). . Additionally, the regression coefficient for age was 3.25 (1.26), which was estimated to significantly affect the total number of syllables (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 총 음절 수 결과는 다음과 같다. 총 음절 수 추정값의 경우 lvPPA 집단은 184.08±14.36, svPPA 집단은 168.93±27.03, 정상 집단은 136.01±13.85로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the total number of syllables by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The total number of syllables was estimated at 184.08±14.36 for the lvPPA group, 168.93±27.03 for the svPPA group, and 136.01±13.85 for the normal group, with no significant difference between the three groups.

3) 발화당 음절수 비교3) Comparison of number of syllables per utterance

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화당 음절수를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화당 음절수 평균은 각각 22.63±12.98, 19.64±8.51, 23.22±9.25로 집단 간 차이는 유의하지 않았다.Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with the number of syllables per utterance as the dependent variable. As a result, the average number of syllables per utterance for the lvPPA group, svPPA group, and normal group was 22.63±12.98, 19.64±8.51, and 23.22±9.25, respectively, and the differences between groups were not significant.

발화당 음절수를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. 그 결과, 유의한 회귀계수가 추정되지 않았다. 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다. 또한, 정상 집단에 비해 lvPPA나 svPPA 집단에서 발화당 음절수의 유의한 차이를 보이지 않았음을 의미한다.The results of examining the generalized linear model with the number of syllables per utterance as the dependent variable are as follows. As a result, no significant regression coefficient was estimated. This means that the effects of age, gender, years of education, K-MMSE, and AQ are not significant. Additionally, this means that there was no significant difference in the number of syllables per utterance in the lvPPA or svPPA group compared to the normal group.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화당 음절수 결과는 다음과 같다. 발화당 음절수 추정값의 경우 lvPPA 집단은 21.55±2.59, svPPA 집단은 18.64±4.88, 정상 집단은 24.16±2.50으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the number of syllables per utterance by PPA subtype estimated through a generalized linear model by controlling for each group's age, gender, years of education, K-MMSE, and AQ are as follows. The estimated number of syllables per utterance was estimated at 21.55±2.59 for the lvPPA group, 18.64±4.88 for the svPPA group, and 24.16±2.50 for the normal group, with no significant difference between the three groups.

4) 발화당 어절수 비교4) Comparison of number of words per utterance

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화당 어절수를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화당 어절수 평균은 각각 9.47±3.31, 7.26±2.70, 7.55±2.55로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with the number of words per utterance as the dependent variable. As a result, the average number of words per utterance for the lvPPA group, svPPA group, and normal group was 9.47±3.31, 7.26±2.70, and 7.55±2.55, respectively, and the difference between groups was statistically significant (p<.05).

발화당 어절수를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 발화당 어절수는 정상 집단(p=0.043)에 비해 2.15(1.04) 높은 것으로 추정되었으나 svPPA 집단의 발화당 어절수는 정상 집단(p=0.600)에 비해 유의한 차이는 없는 것으로 추정되었다. 이외의 유의한 회귀 계수는 추정되지 않았는데 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다.The results of examining the generalized linear model with the number of words per utterance as the dependent variable are as follows. The number of words per utterance in the lvPPA group was estimated to be 2.15 (1.04) higher than that in the normal group (p=0.043), but the number of words per utterance in the svPPA group was estimated to be no significant difference compared to the normal group (p=0.600). . No other significant regression coefficients were estimated, meaning that the effects of age, gender, years of education, K-MMSE, and AQ were not significant.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화당 어절수 결과는 다음과 같다. 발화당 어절수 추정값의 경우 lvPPA 집단은 9.44±0.68, svPPA 집단은 8.17±1.28, 정상 집단은 7.29±0.66으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the number of words per utterance by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The estimated number of words per utterance was estimated at 9.44±0.68 for the lvPPA group, 8.17±1.28 for the svPPA group, and 7.29±0.66 for the normal group, with no significant difference between the three groups.

2. 쉼 빈도 비교2. Comparison of pause frequency

1) 전체 쉼 빈도 비교1) Comparison of overall pause frequency

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 전체 쉼 빈도를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 전체 쉼 빈도 평균은 22.29±10.71, 15.22±5.67, 16.07±7.09으로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with total pause frequency as the dependent variable. As a result, the average overall pause frequency of the lvPPA group, svPPA group, and normal group was 22.29±10.71, 15.22±5.67, and 16.07±7.09, and the difference between groups was statistically significant (p<.05).

전체 쉼 빈도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 전체 쉼 빈도는 정상 집단(p=0.016)에 비해 7.18(2.88) 높은 것으로 추정되었으나 svPPA 집단의 총 쉼 빈도는 정상 집단(p=0.346)에 비해 유의한 차이는 없는 것으로 추정되었다. 이외의 유의한 회귀 계수는 추정되지 않았는데 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다.The results of examining the generalized linear model with the overall rest frequency as the dependent variable are as follows. The total resting frequency of the lvPPA group was estimated to be 7.18 (2.88) higher than that of the normal group (p=0.016), but the total resting frequency of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.346). No other significant regression coefficients were estimated, meaning that the effects of age, gender, years of education, K-MMSE, and AQ were not significant.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 전체 쉼 빈도 결과는 다음과 같다. 전체 쉼 빈도 추정값의 경우 lvPPA 집단은 21.99±1.90, svPPA 집단은 19.19±3.57, 정상 집단은 14.81±1.83으로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(21.99±1.90)이 svPPA 집단(19.19±3.57)과 정상 집단(14.81±1.83)보다 유의하게 높았다(p<.05).The overall pause frequency results by PPA subtype, estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group, are as follows. The total rest frequency estimate was 21.99±1.90 for the lvPPA group, 19.19±3.57 for the svPPA group, and 14.81±1.83 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (21.99±1.90) was significantly higher than the svPPA group (19.19±3.57) and the normal group (14.81±1.83) (p<.05).

2) 발화 간 쉼 빈도 비교2) Comparison of pause frequency between utterances

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화 간 쉼 빈도를 종속 변수로 하는 일원 분산 분석(univariate analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화 간 쉼 빈도 평균은 각각 7.81±3.79, 5.56±1.94, 4.93±1.72로 집단 간 차이가 통계적으로 유의하였다(p<.001).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a univariate analysis of variance was conducted with the frequency of pauses between utterances as the dependent variable. As a result, the average pause frequency between utterances in the lvPPA group, svPPA group, and normal group was 7.81±3.79, 5.56±1.94, and 4.93±1.72, respectively, and the difference between groups was statistically significant (p<.001).

발화 간 쉼 빈도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 발화 간 쉼 빈도는 정상 집단(p<0.001)에 비해 3.49(0.91) 높은 것으로 추정되었으나 svPPA 집단의 발화 간 쉼 빈도는 정상 집단(p=0.091)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 연령(p<.05)과 K-MMSE(p<.01)는 총 발화 수에 영향을 주는 것으로 추정되었다.The results of examining a generalized linear model with the frequency of pauses between utterances as the dependent variable are as follows. The frequency of pauses between utterances in the lvPPA group was estimated to be 3.49 (0.91) higher than that of the normal group (p<0.001), but the frequency of pauses between utterances in the svPPA group was estimated to be no significant difference compared to the normal group (p=0.091). . Additionally, age (p<.05) and K-MMSE (p<.01) were estimated to affect the total number of utterances.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화 간 쉼 빈도 결과는 다음과 같다. 발화 간 쉼 빈도 추정값의 경우 lvPPA 집단은 7.90±0.60, svPPA 집단은 6.92±1.13, 정상 집단은 4.41±0.58로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(7.90±0.60)이 정상 집단(4.41±0.58)보다 유의하게 높았다(p<.001).The results of the pause frequency between utterances by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The estimated pause frequency between utterances was 7.90±0.60 for the lvPPA group, 6.92±1.13 for the svPPA group, and 4.41±0.58 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (7.90±0.60) was significantly higher than the normal group (4.41±0.58) (p<.001).

3) 발화 내 쉼 빈도(어절 간+어절 내) 비교3) Comparison of pause frequency within utterances (between words + within words)

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화 내 쉼 빈도를 종속 변수로 하는 일원 분산 분석(univariate analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화 내 쉼 빈도 평균은 각각 14.48±8.49, 9.67±4.87, 12.20±7.46으로 집단 간 차이는 유의하지 않았다.Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a univariate analysis of variance was conducted with the frequency of pauses in speech as the dependent variable. As a result, the average pause frequencies within speech for the lvPPA group, svPPA group, and normal group were 14.48±8.49, 9.67±4.87, and 12.20±7.46, respectively, and the differences between groups were not significant.

발화 내 쉼 빈도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. 그 결과, 유의한 회귀 계수가 추정되지 않았다. 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다. 또한, 정상 집단에 비해 lvPPA나 svPPA 집단에서 발화 내 쉼 빈도의 유의한 차이를 보이지 않았음을 의미한다.The results of examining a generalized linear model with pause frequency within utterance as the dependent variable are as follows. As a result, no significant regression coefficients were estimated. This means that the effects of age, gender, years of education, K-MMSE, and AQ are not significant. Additionally, this means that there was no significant difference in the frequency of pauses within speech in the lvPPA or svPPA groups compared to the normal group.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화 내 쉼 빈도 결과는 다음과 같다. 발화 내 쉼 빈도 추정값의 경우 lvPPA 집단은 14.13±1.73, svPPA 집단은 11.88±3.26, 정상 집단은 11.63±1.67로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the pause frequency in speech by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The estimated pause frequency within speech was estimated at 14.13±1.73 for the lvPPA group, 11.88±3.26 for the svPPA group, and 11.63±1.67 for the normal group, with no significant difference between the three groups.

4) 어절 간 쉼 빈도 비교4) Comparison of pause frequency between words

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 어절 간 쉼 빈도를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 어절 간 쉼 빈도 평균은 각각 13.90±8.48, 8.89±4.20, 8.87±6.31로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with interword pause frequency as the dependent variable. As a result, the average inter-word pause frequency of the lvPPA group, svPPA group, and normal group was 13.90±8.48, 8.89±4.20, and 8.87±6.31, respectively, and the difference between groups was statistically significant (p<.05).

어절 간 쉼 빈도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 어절 간 쉼 빈도는 정상 집단(p=0.039)에 비해 4.99(2.36) 높은 것으로 추정되었으나 svPPA 집단의 어절 간 쉼 빈도는 정상 집단(p=0.418)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 남성의 회귀 계수는 -3.93(1.78)로 유의하게 총 음절 수에 영향을 주는 것으로 추정되었다(p<.05).The results of examining a generalized linear model with inter-word pause frequency as the dependent variable are as follows. The inter-word pause frequency of the lvPPA group was estimated to be 4.99 (2.36) higher than that of the normal group (p=0.039), but the inter-word pause frequency of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.418). . Additionally, the regression coefficient for men was -3.93 (1.78), which was estimated to significantly affect the total number of syllables (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 어절 간 쉼 빈도 결과는 다음과 같다. 어절 간 쉼 빈도 추정값의 경우 lvPPA 집단은 13.29±1.55, svPPA 집단은 11.37±2.92, 정상 집단은 8.29±1.50으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the interword pause frequency by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. The estimated inter-word pause frequency was estimated at 13.29±1.55 for the lvPPA group, 11.37±2.92 for the svPPA group, and 8.29±1.50 for the normal group, with no significant difference between the three groups.

5) 어절 내 쉼 빈도 비교5) Comparison of pause frequency within words

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 어절 내 쉼 빈도를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 어절 내 쉼 빈도 평균은 각각 1.19±1.33, 0.78±1.64, 0.87±1.14로 집단 간 차이는 유의하지 않았다.Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with the frequency of pauses within words as the dependent variable. As a result, the average intra-word pause frequencies of the lvPPA group, svPPA group, and normal group were 1.19±1.33, 0.78±1.64, and 0.87±1.14, respectively, and the differences between groups were not significant.

어절 내 쉼 빈도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. 남성의 회귀계수는 -0.74±0.35로 추정되었으며(p=0.040), 이외의 유의한 회귀계수는 추정되지 않았다. 이는 연령, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미하며, 정상 집단에 비해 lvPPA나 svPPA 집단이 어절 내 쉼 빈도의 유의한 차이를 보이지 않았음을 의미한다.The results of examining a generalized linear model with the frequency of pauses within words as the dependent variable are as follows. The regression coefficient for men was estimated to be -0.74±0.35 (p=0.040), and no other significant regression coefficients were estimated. This means that the effects of age, years of education, K-MMSE, and AQ were not significant, and that there was no significant difference in the frequency of pauses within words in the lvPPA or svPPA groups compared to the normal group.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 어절 내 쉼 빈도 결과는 다음과 같다. 어절 내 쉼 빈도 추정값의 경우 lvPPA 집단은 1.08±0.31, svPPA 집단은 1.05±0.58, 정상 집단은 0.81±0.30으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of the intra-word pause frequency by PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. In terms of the estimated frequency of pauses within words, the lvPPA group was estimated to be 1.08±0.31, the svPPA group was estimated to be 1.05±0.58, and the normal group was estimated to be 0.81±0.30, with no significant differences between the three groups.

3. 쉼 시간 비교3. Rest time comparison

1) 전체 쉼 시간 비교1) Comparison of total rest time

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 전체 쉼 시간을 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 전체 쉼 시간 평균은 각각 35.20±21.70, 22.08±8.81, 14.77±8.31로 집단 간 차이가 통계적으로 유의하였다(p<.001).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with total rest time as the dependent variable. As a result, the average overall rest time of the lvPPA group, svPPA group, and normal group was 35.20±21.70, 22.08±8.81, and 14.77±8.31, respectively, and the difference between groups was statistically significant (p<.001).

전체 쉼 시간을 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 전체 쉼 시간은 정상 집단(p<0.001)에 비해 22.15(5.14) 높은 것으로 추정되었으나 svPPA 집단의 전체 쉼 시간은 정상 집단(p=0.147)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, K-MMSE의 회귀 계수는 2.10(0.85)로 유의하게 전체 쉼 시간에 영향을 주는 것으로 추정되었다(p<.05).The results of examining the generalized linear model with the total rest time as the dependent variable are as follows. The total rest time of the lvPPA group was estimated to be 22.15 (5.14) higher than that of the normal group (p<0.001), but the total rest time of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.147). In addition, the regression coefficient of K-MMSE was 2.10 (0.85), which was estimated to significantly affect the overall rest time (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 전체 쉼 시간 결과는 다음과 같다. 전체 쉼 시간 추정값의 경우 lvPPA 집단은 35.53±3.38, svPPA 집단은 25.45±6.37, 정상 집단은 13.38±3.26으로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(35.53±3.38)이 정상 집단(13.38±3.26)보다 유의하게 높았다(p<.001).The overall rest time results for each PPA subtype, estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group, are as follows. The overall resting time estimate was 35.53±3.38 for the lvPPA group, 25.45±6.37 for the svPPA group, and 13.38±3.26 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (35.53±3.38) was significantly higher than the normal group (13.38±3.26) (p<.001).

2) 발화 간 쉼 시간 비교2) Comparison of pause times between utterances

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화 간 쉼 시간을 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화 간 쉼 시간 평균은 각각 23.06±19.62, 14.56±9.12, 7.19±5.85로 집단 간 차이가 통계적으로 유의하였다(p<.001).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with pause time between utterances as the dependent variable. As a result, the average pause times between utterances for the lvPPA group, svPPA group, and normal group were 23.06±19.62, 14.56±9.12, and 7.19±5.85, respectively, and the difference between groups was statistically significant (p<.001).

발화 간 쉼 시간을 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 발화 간 쉼 시간은 정상 집단(p=0.001)에 비해 16.83(4.55) 높은 것으로 추정되었으나 svPPA 집단의 발화 간 쉼 시간은 정상 집단(p=0.192)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 교육년수와 K-MMSE는 발화 간 쉼 시간에 영향을 주는 것으로 추정되었다(p<.05).The results of examining a generalized linear model with pause time between utterances as the dependent variable are as follows. The pause time between utterances in the lvPPA group was estimated to be 16.83 (4.55) higher than that in the normal group (p=0.001), but the pause time between utterances in the svPPA group was estimated to be no significant difference compared to the normal group (p=0.192). . Additionally, years of education and K-MMSE were estimated to affect pause time between utterances (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화 간 쉼 시간 결과는 다음과 같다. 발화 간 쉼 시간 추정값의 경우 lvPPA 집단은 23.31±2.99, svPPA 집단은 16.07±5.63, 정상 집단은 6.48±2.89으로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(23.31±2.99)이 정상 집단(6.48±2.89)보다 유의하게 높았다(p<.01).The results of the pause time between utterances by PPA subtype, estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group, are as follows. The estimated pause time between utterances was 23.31±2.99 for the lvPPA group, 16.07±5.63 for the svPPA group, and 6.48±2.89 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (23.31±2.99) was significantly higher than the normal group (6.48±2.89) (p<.01).

3) 발과 내 쉼 시간(어절 간+어절 내) 비교3) Comparison of rest time between feet and within words (between words + within words)

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화 내 쉼 시간을 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화 내 쉼 시간 평균은 각각 12.14±7.65, 7.52±4.74, 7.58±5.25로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with pause time within speech as the dependent variable. As a result, the average pause times within speech for the lvPPA group, svPPA group, and normal group were 12.14±7.65, 7.52±4.74, and 7.58±5.25, respectively, and the difference between groups was statistically significant (p<.05).

발화 내 쉼 시간을 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 발화 내 쉼 시간은 정상 집단(p=0.020)에 비해 5.32(2.22)초 높은 것으로 추정되었으나 svPPA 집단의 발화 내 쉼 시간은 정상 집단(p=0.487)에 비해 유의한 차이는 없는 것으로 추정되었다. 이외의 유의한 회귀 계수는 추정되지 않았는데 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다.The results of examining the generalized linear model with pause time within utterance as the dependent variable are as follows. The pause time within utterance of the lvPPA group was estimated to be 5.32 (2.22) seconds higher than that of the normal group (p=0.020), but the pause time within utterance of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.487). It has been done. No other significant regression coefficients were estimated, meaning that the effects of age, gender, years of education, K-MMSE, and AQ were not significant.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화 내 쉼 시간 결과는 다음과 같다. 발화 내 쉼 시간 추정값의 경우 lvPPA 집단은 12.22±1.46, svPPA 집단은 9.38±2.75, 정상 집단은 6.90±1.41로 나타났다. 또한, 사후검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(12.22±1.46)이 svPPA 집단(9.38±2.75)과 정상 집단(6.90±1.41)보다 유의하게 높았다(p<.05).The results of pause times within speech for each PPA subtype estimated through a generalized linear model, controlling for each group's age, gender, years of education, K-MMSE, and AQ, are as follows. The estimated pause time within speech was 12.22±1.46 for the lvPPA group, 9.38±2.75 for the svPPA group, and 6.90±1.41 for the normal group. In addition, as a result of confirming the difference between groups through a post hoc test, the lvPPA group (12.22±1.46) was significantly higher than the svPPA group (9.38±2.75) and the normal group (6.90±1.41) (p<.05).

4) 어절 간 쉼 시간 비교4) Comparison of pause times between words

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 어절 간 쉼 시간을 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 어절 간 쉼 시간 평균은 각각 11.80±7.57, 7.31±4.82, 7.41±5.25로 집단 간 차이가 통계적으로 유의하였다(p<.05).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with pause time between words as the dependent variable. As a result, the average pause times between words for the lvPPA group, svPPA group, and normal group were 11.80±7.57, 7.31±4.82, and 7.41±5.25, respectively, and the difference between groups was statistically significant (p<.05).

어절 간 쉼 시간을 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 어절 간 쉼 시간은 정상 집단(p=0.021)에 비해 5.24(2.21)초 높은 것으로 추정되었으나 svPPA 집단의 어절 간 쉼 시간은 정상 집단(p=0.474)에 비해 유의한 차이는 없는 것으로 추정되었다. 이외의 유의한 회귀 계수는 추정되지 않았는데 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다.The results of examining the generalized linear model with pause time between words as the dependent variable are as follows. The inter-word pause time of the lvPPA group was estimated to be 5.24 (2.21) seconds higher than that of the normal group (p=0.021), but the inter-word pause time of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.474). It has been done. No other significant regression coefficients were estimated, meaning that the effects of age, gender, years of education, K-MMSE, and AQ were not significant.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 어절 간 쉼 시간 결과는 다음과 같다. 어절 간 쉼 시간 추정값의 경우 lvPPA 집단은 11.93±1.45, svPPA 집단은 9.24±2.74, 정상 집단은 6.69±1.40으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of inter-word pause times for each PPA subtype estimated through a generalized linear model, controlling for each group's age, gender, years of education, K-MMSE, and AQ, are as follows. The estimated pause time between words was estimated at 11.93±1.45 for the lvPPA group, 9.24±2.74 for the svPPA group, and 6.69±1.40 for the normal group, with no significant difference between the three groups.

5) 어절 내 쉼 시간 비교5) Comparison of rest time within phrases

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 어절 내 쉼 시간을 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 어절 내 쉼 시간 평균은 각각 0.34±0.79, 0.21±0.40, 0.17±0.22로 집단 간 차이는 유의하지 않았다.Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with pause time within words as the dependent variable. As a result, the average intraword pause times of the lvPPA group, svPPA group, and normal group were 0.34±0.79, 0.21±0.40, and 0.17±0.22, respectively, and the differences between groups were not significant.

어절 내 쉼 시간을 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. 그 결과, 유의한 회귀 계수가 추정되지 않았다. 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다. 또한, 정상 집단에 비해 lvPPA 나 svPPA집단에서 어절 내 쉼 시간의 유의한 차이를 보이지 않았음을 의미한다.The results of examining the generalized linear model with intra-word pause time as the dependent variable are as follows. As a result, no significant regression coefficients were estimated. This means that the effects of age, gender, years of education, K-MMSE, and AQ are not significant. Additionally, this means that there was no significant difference in intraword pause time in the lvPPA or svPPA group compared to the normal group.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 어절 내 쉼 시간 결과는 다음과 같다. 어절 내 쉼 시간 추정값의 경우 lvPPA 집단은 0.29±0.12, svPPA 집단은 0.14±0.23, 정상 집단은 0.21±0.12으로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of intra-word pause times for each PPA subtype, estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group, are as follows. The estimated intra-word pause time was estimated to be 0.29±0.12 for the lvPPA group, 0.14±0.23 for the svPPA group, and 0.21±0.12 for the normal group, with no significant difference between the three groups.

4. 말속도 비교4. Comparison of speaking speed

1) 발화 속도 비교1) Comparison of ignition speeds

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 발화속도를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 발화속도 평균은 각각 2.57±0.76, 3.09±1.46, 3.49±0.74로 집단 간 차이가 통계적으로 유의하였다(p<.01).Without controlling the influence of age, gender, years of education, K-MMSE, and AQ, a one-way analysis of variance was conducted with speech rate as the dependent variable. As a result, the average firing rates of the lvPPA group, svPPA group, and normal group were 2.57±0.76, 3.09±1.46, and 3.49±0.74, respectively, and the difference between groups was statistically significant (p<.01).

발화속도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. lvPPA 집단의 발화속도는 정상 집단(p=0.001)에 비해 1.13(0.31) 낮은 것으로 추정되었으나 svPPA 집단의 발화속도는 정상 집단(p=0.264)에 비해 유의한 차이는 없는 것으로 추정되었다. 또한, 교육년수의 회귀 계수는 0.07(0.03)로 유의하게 총 음절 수에 영향을 주는 것으로 추정되었다(p<.05).The results of examining the generalized linear model with speech rate as the dependent variable are as follows. The firing rate of the lvPPA group was estimated to be 1.13 (0.31) lower than that of the normal group (p=0.001), but the firing rate of the svPPA group was estimated to be no significant difference compared to the normal group (p=0.264). Additionally, the regression coefficient for years of education was 0.07 (0.03), which was estimated to significantly affect the total number of syllables (p<.05).

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 발화속도 결과는 다음과 같다. 발화속도 추정값의 경우 lvPPA 집단은 2.45±0.20, svPPA 집단은 3.03±0.38, 정상 집단은 3.58±0.20으로 나타났다. 사후 검정을 통해 집단 간 차이를 확인한 결과, lvPPA 집단(2.45±0.20)이 정상 집단(3.58±0.20)보다 유의하게 낮았다(p<.001).The firing rate results for each PPA subtype estimated through a generalized linear model by controlling the age, gender, years of education, K-MMSE, and AQ of each group are as follows. For the estimated firing rate, the lvPPA group was 2.45±0.20, the svPPA group was 3.03±0.38, and the normal group was 3.58±0.20. As a result of confirming the difference between groups through a post hoc test, the lvPPA group (2.45±0.20) was significantly lower than the normal group (3.58±0.20) (p<.001).

2) 조음속도 비교 2) Comparison of articulation speed

연령, 성별, 교육년수, K-MMSE, AQ의 영향력을 통제하지 않은 상태에서 조음속도를 종속 변수로 하는 일원 분산 분석(analysis of variance)을 실시하였다. 그 결과, lvPPA 집단, svPPA 집단, 정상 집단의 조음속도 평균은 각각 6.27±1.24, 6.73±0.93, 6.93±1.81로 집단 간 차이는 유의하지 않았다.One-way analysis of variance was conducted with articulation speed as the dependent variable without controlling for the influence of age, gender, years of education, K-MMSE, and AQ. As a result, the average articulation speed of the lvPPA group, svPPA group, and normal group was 6.27±1.24, 6.73±0.93, and 6.93±1.81, respectively, and the differences between groups were not significant.

조음속도를 종속 변수로 하는 일반화 선형 모형(generalized linear model)을 살펴본 결과는 다음과 같다. 그 결과, 유의한 회귀 계수가 추정되지 않았다. 이는 연령, 성별, 교육년수, K-MMSE, AQ의 영향이 유의하지 않음을 의미한다. 또한, 정상 집단에 비해 lvPPA나 svPPA 집단에서 조음속도의 유의한 차이를 보이지 않았음을 의미한다.The results of examining the generalized linear model with articulation speed as the dependent variable are as follows. As a result, no significant regression coefficients were estimated. This means that the effects of age, gender, years of education, K-MMSE, and AQ are not significant. Additionally, this means that there was no significant difference in articulation speed in the lvPPA or svPPA group compared to the normal group.

각 집단의 연령, 성별, 교육년수, K-MMSE, AQ를 통제하여 일반화 선형 모형(generalized linear model)을 통해 추정한 PPA 아형별 조음속도 결과는 다음과 같다. 조음속도 추정값의 경우 lvPPA 집단은 6.44±0.37, svPPA 집단은 6.48±0.69, 정상군 집단은 6.93±0.35로 추정되었으며, 세 집단 간 유의한 차이를 보이지 않았다.The results of articulation speed by PPA subtype estimated through a generalized linear model by controlling for each group's age, gender, years of education, K-MMSE, and AQ are as follows. The estimated articulation speed was estimated at 6.44±0.37 for the lvPPA group, 6.48±0.69 for the svPPA group, and 6.93±0.35 for the normal group, with no significant difference between the three groups.

본 실험 결과에서 가장 주목할 만한 두 가지 관찰점은 다음과 같다.The two most notable observations from the results of this experiment are as follows.

첫째, lvPPA 집단은 svPPA 집단과 정상 집단에 비해 전체 쉼 빈도가 높은 것으로 나타났다. First, the lvPPA group showed a higher overall pause frequency compared to the svPPA group and the normal group.

둘째, lvPPA 집단은 svPPA 집단에 비하여 발화 내 쉼 시간이 긴 것으로 나타났다. Second, the lvPPA group was found to have longer pauses within speech than the svPPA group.

상술한 바와 같이 본 개시에 따르면, 원발진행실어증(primary progressive aphasia, PPA)환자의 말속도(발화속도, 조음속도) 및 쉼(쉼 빈도, 쉼 비율)의 수행력 차이를 분석하여, 신경언어장애의 유형 및 중증도 분류할 수 있도록 한다.As described above, according to the present disclosure, differences in performance of speech rate (speech rate, articulation rate) and pauses (pause frequency, pause ratio) of patients with primary progressive aphasia (PPA) are analyzed to identify neurolinguistic disorders. Allows classification by type and severity.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be Read Only Memory (ROM), Random Access Memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which this disclosure pertains will understand that the present disclosure may be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

Claims (15)

과제 수행 결과 기반 원발진행실어증 유형 분류 장치에 있어서,
과제 관련 컨텐츠를 저장하도록 이루어지는 메모리;
사용자의 음성 정보를 수집하도록 이루어지는 마이크;
화면정보를 표시하도록 이루어지는 디스플레이부; 및
사용자의 발화를 유도하도록, 상기 과제 관련 컨텐츠를 상기 디스플레이부 상에 출력하고,
상기 마이크를 통해 수집된 상기 사용자의 발화 정보를 기반으로, 상기 사용자의 원발진행실어증 유형을 분류하는 프로세서를 포함하는 원발진행실어증 유형 분류 장치.
In the primary progressive aphasia type classification device based on task performance results,
a memory configured to store task-related content;
A microphone configured to collect voice information from the user;
A display unit configured to display screen information; and
Outputting the task-related content on the display unit to induce the user to speak,
A primary progressive aphasia type classification device comprising a processor that classifies the user's primary progressive aphasia type based on the user's speech information collected through the microphone.
제1항에 있어서,
상기 컨텐츠는 상기 사용자와 평가자 간의 대화를 유도하는 컨텐츠, 이미지, 문장 또는 문단으로 이루어지는 텍스트 중 적어도 하나를 포함하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to paragraph 1,
The content is a primary progressive aphasia type classification device, characterized in that it includes at least one of text consisting of content, images, sentences, or paragraphs that induce conversation between the user and the evaluator.
제2항에 있어서,
상기 프로세서는,
상기 문장으로 이루어지는 상기 대화를 유도하는 컨텐츠에 대응되는 과제 수행 결과, 상기 이미지에 대응되는 과제 수행 결과, 상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 상기 문장으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 순으로 높은 가중치를 부여하여 원발진행실어증의 유형 분류를 수행하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to paragraph 2,
The processor,
A task performance result corresponding to the content inducing the conversation consisting of the sentence, a task performance result corresponding to the image, a task performance result corresponding to the text consisting of the paragraph, a task performance result corresponding to the text consisting of the sentence, A primary progressive aphasia type classification device characterized in that it classifies the type of primary progressive aphasia by assigning higher weights in that order.
제3항에 있어서,
상기 프로세서는,
상기 발화 정보에서 추출된 총 발화 수, 총 음절 수, 발화당 음절수, 발화당 어절 수, 전체 쉼 빈도, 발화 간 쉼 빈도, 발화 내 쉼 빈도(어절 간+어절 내), 어절 간 쉼 빈도, 어절 내 쉼 빈도, 전체 쉼 기간, 발화 간 쉼 시간, 발화 내 쉼 시간(어절 간+어절 내), 어절 간 쉼 시간, 어절 내 쉼 시간, 발화속도 및 조음속도 중 적어도 하나를 기반으로 원발진행실어증의 유형 분류를 수행하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to paragraph 3,
The processor,
Total number of utterances extracted from the above utterance information, total number of syllables, number of syllables per utterance, number of words per utterance, total pause frequency, pause frequency between utterances, pause frequency within utterances (between words + within words), pause frequency between words, Primary progressive aphasia based on at least one of the following: intra-word pause frequency, overall pause duration, inter-utterance pause time, intra-utterance pause time (inter-word + intra-word pause), inter-word pause time, intra-word pause time, speech rate, and articulation rate. Primary progressive aphasia type classification device, characterized in that it performs type classification.
제4항에 있어서,
상기 프로세서는,
비유창형 PPA(nonfluent/agrammatic variant of PPA, nfvPPA), 의미형 PPA(semantic variant of PPA, svPPA), 발화부족형 PPA(logopenic variant of PPA, lvPPA) 및 정상 중 어느 하나로 상기 사용자의 원발진행실어증의 유형을 분류하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to paragraph 4,
The processor,
The user's primary progressive aphasia is one of nonfluent/agrammatic variant of PPA (nfvPPA), semantic variant of PPA (svPPA), logopenic variant of PPA (lvPPA), and normal PPA. Primary progressive aphasia type classification device characterized by classifying types.
제5항에 있어서,
상기 프로세서는,
상기 이미지에 대응되는 과제 수행 결과를 기반으로,
상기 사용자의 원발진행실어증 유형이 정상인지 여부를 판단하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to clause 5,
The processor,
Based on the results of the task corresponding to the image above,
A primary progressive aphasia type classification device, characterized in that it determines whether the user's primary progressive aphasia type is normal.
제6항에 있어서,
상기 프로세서는,
상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과를 기반으로,
상기 사용자의 원발진행실어증 유형이 nfvPPA인지 여부를 판단하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to clause 6,
The processor,
Based on the results of the task corresponding to the text consisting of the above paragraph,
A primary progressive aphasia type classification device, characterized in that it determines whether the user's primary progressive aphasia type is nfvPPA.
제7항에 있어서,
상기 프로세서는,
상기 발화 정보에서 발화 내, 그리고 발화간 100ms(0.1초) 이상의 무음 구간을 쉼으로 설정하고,
상기 발화 정보에서 추출된 전체 쉼 빈도 및 발화 내 쉼 시간 중 적어도 하나를기반으로, 상기 사용자의 원발진행실어증 유형을 svPPA 및 lvPPA 중 어느 하나로 분류하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
In clause 7,
The processor,
In the above speech information, silent sections of 100 ms (0.1 seconds) or more within and between speeches are set as pauses,
A primary progressive aphasia type classification device, characterized in that the user's primary progressive aphasia type is classified as one of svPPA and lvPPA based on at least one of the total pause frequency and pause time within the speech extracted from the speech information.
장치에 의해 수행되는 과제 수행 결과 기반 원발진행실어증 유형 분류 방법에 있어서,
사용자의 발화를 유도하도록, 과제 관련 컨텐츠를 디스플레이부 상에 출력하는 단계;
마이크를 통해 사용자의 발화 정보를 수집하는 단계; 및
상기 사용자의 발화 정보를 기반으로, 상기 사용자의 원발진행실어증 유형을 분류하는 단계를 포함하는 원발진행실어증 유형 분류 방법.
In the method of classifying primary progressive aphasia based on task performance results performed by the device,
Outputting task-related content on a display unit to induce the user to speak;
Collecting user speech information through a microphone; and
A primary progressive aphasia type classification method comprising classifying the user's primary progressive aphasia type based on the user's speech information.
제9항에 있어서,
상기 컨텐츠는 상기 사용자와 평가자 간의 대화를 유도하는 컨텐츠, 이미지, 문장 또는 문단으로 이루어지는 텍스트 중 적어도 하나를 포함하는 것을 특징으로 하는 원발진행실어증 유형 분류 방법.
According to clause 9,
The method for classifying primary progressive aphasia, characterized in that the content includes at least one of text consisting of content, images, sentences, or paragraphs that induce conversation between the user and the evaluator.
제10항에 있어서,
상기 유형을 분류하는 단계는,
상기 문장으로 이루어지는 상기 대화를 유도하는 컨텐츠에 대응되는 과제 수행 결과, 상기 이미지에 대응되는 과제 수행 결과, 상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 상기 문장으로 이루어지는 텍스트에 대응되는 과제 수행 결과, 순으로 높은 가중치를 부여하여 원발진행실어증의 유형 분류를 수행하는 것을 특징으로 하는 원발진행실어증 유형 분류 방법.
According to clause 10,
The step of classifying the above types is,
A task performance result corresponding to the content inducing the conversation consisting of the sentence, a task performance result corresponding to the image, a task performance result corresponding to the text consisting of the paragraph, a task performance result corresponding to the text consisting of the sentence, A primary progressive aphasia type classification method characterized by classifying the type of primary progressive aphasia by assigning higher weights in that order.
제11항에 있어서,
상기 유형을 분류하는 단계는,
상기 발화 정보에서 추출된 총 발화 수, 총 음절 수, 발화당 음절수, 발화당 어절 수, 전체 쉼 빈도, 발화 간 쉼 빈도, 발화 내 쉼 빈도(어절 간+어절 내), 어절 간 쉼 빈도, 어절 내 쉼 빈도, 전체 쉼 기간, 발화 간 쉼 시간, 발화 내 쉼 시간(어절 간+어절 내), 어절 간 쉼 시간, 어절 내 쉼 시간, 발화속도 및 조음속도 중 적어도 하나를 기반으로 원발진행실어증의 유형 분류를 수행하는 것을 특징으로 하는 원발진행실어증 유형 분류 방법.
According to clause 11,
The step of classifying the above types is,
Total number of utterances extracted from the above utterance information, total number of syllables, number of syllables per utterance, number of words per utterance, overall pause frequency, pause frequency between utterances, pause frequency within utterances (between words + within words), pause frequency between words, Primary progressive aphasia based on at least one of the following: intra-word pause frequency, overall pause duration, inter-utterance pause time, intra-utterance pause time (inter-word + intra-word pause), inter-word pause time, intra-word pause time, speech rate, and articulation rate. A primary progressive aphasia type classification method characterized by performing type classification.
제12항에 있어서,
상기 유형을 분류하는 단계는,
비유창형 PPA(nonfluent/agrammatic variant of PPA, nfvPPA), 의미형 PPA(semantic variant of PPA, svPPA), 발화부족형 PPA(logopenic variant of PPA, lvPPA) 및 정상 중 어느 하나로 상기 사용자의 원발진행실어증의 유형을 분류하는 것을 특징으로 하는 원발진행실어증 유형 분류 방법.
According to clause 12,
The step of classifying the above types is,
The user's primary progressive aphasia is one of nonfluent/agrammatic variant of PPA (nfvPPA), semantic variant of PPA (svPPA), logopenic variant of PPA (lvPPA), and normal PPA. Primary progressive aphasia type classification method characterized by classifying types.
제13항에 있어서,
상기 유형을 분류하는 단계는,
상기 이미지에 대응되는 과제 수행 결과를 기반으로,
상기 사용자의 원발진행실어증 유형이 정상인지 여부를 판단하는 것을 특징으로 하는 원발진행실어증 유형 분류 방법.
According to clause 13,
The step of classifying the above types is,
Based on the results of the task corresponding to the image above,
A primary progressive aphasia type classification method characterized by determining whether the user's primary progressive aphasia type is normal.
제14항에 있어서,
상기 유형을 분류하는 단계는,
상기 문단으로 이루어지는 텍스트에 대응되는 과제 수행 결과를 기반으로,
상기 사용자의 원발진행실어증 유형이 nfvPPA인지 여부를 판단하는 것을 특징으로 하는 원발진행실어증 유형 분류 장치.
According to clause 14,
The step of classifying the above types is,
Based on the results of the task corresponding to the text consisting of the above paragraph,
A primary progressive aphasia type classification device, characterized in that it determines whether the user's primary progressive aphasia type is nfvPPA.
KR1020230113960A 2022-08-31 2023-08-29 Apparatus and method for classificating types of primary progressive aphasia based on task performance results KR20240031137A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/012855 WO2024049186A1 (en) 2022-08-31 2023-08-30 Device and method for classifying type of primary progressive aphasia, on basis of task performance result

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220109810 2022-08-31
KR1020220109810 2022-08-31

Publications (1)

Publication Number Publication Date
KR20240031137A true KR20240031137A (en) 2024-03-07

Family

ID=90272376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230113960A KR20240031137A (en) 2022-08-31 2023-08-29 Apparatus and method for classificating types of primary progressive aphasia based on task performance results

Country Status (1)

Country Link
KR (1) KR20240031137A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102444012B1 (en) 2020-10-12 2022-09-16 연세대학교 산학협력단 Device, method and program for speech impairment evaluation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102444012B1 (en) 2020-10-12 2022-09-16 연세대학교 산학협력단 Device, method and program for speech impairment evaluation

Similar Documents

Publication Publication Date Title
US11527174B2 (en) System to evaluate dimensions of pronunciation quality
KR102360924B1 (en) speech classifier
Ernestus Acoustic reduction and the roles of abstractions and exemplars in speech processing
US20220180872A1 (en) Electronic apparatus and method for controlling thereof
KR102223736B1 (en) A speech processing method using an artificial intelligence device
Rohanian et al. Alzheimer's dementia recognition using acoustic, lexical, disfluency and speech pause features robust to noisy inputs
Feenaughty et al. Relationship between acoustic measures and judgments of intelligibility in Parkinson’s disease: A within-speaker approach
JP7268711B2 (en) SIGNAL PROCESSING SYSTEM, SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
Wassink et al. Uneven success: automatic speech recognition and ethnicity-related dialects
Fager et al. Evaluation of a speech recognition prototype for speakers with moderate and severe dysarthria: A preliminary report
US20210256965A1 (en) Electronic device and control method thereof
CN111192659A (en) Pre-training method for depression detection and depression detection method and device
Glasser Automatic speech recognition services: Deaf and hard-of-hearing usability
Zellou et al. Lexically conditioned phonetic variation in motherese: age-of-acquisition and other word-specific factors in infant-and adult-directed speech
EP2806415B1 (en) Voice processing device and voice processing method
Hay et al. Car-talk: Location-specific speech production and perception
Cave et al. The use of speech recognition technology by people living with amyotrophic lateral sclerosis: a scoping review
Bóna Characteristics of pausing in normal, fast and cluttered speech
Jaddoh et al. Interaction between people with dysarthria and speech recognition systems: A review
Barthel et al. Acoustic-phonetic properties of smiling revised: Measurements on a natural video corpus
Jefferson Usability of automatic speech recognition systems for individuals with speech disorders: Past, present, future, and a proposed model
Lubold et al. Do conversational partners entrain on articulatory precision?
KR20240031137A (en) Apparatus and method for classificating types of primary progressive aphasia based on task performance results
Frühholz et al. The effect of narrow-band transmission on recognition of paralinguistic information from human vocalizations
KR20200082232A (en) Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same