KR20220012470A - Method and system for providing talk service - Google Patents

Method and system for providing talk service Download PDF

Info

Publication number
KR20220012470A
KR20220012470A KR1020200091023A KR20200091023A KR20220012470A KR 20220012470 A KR20220012470 A KR 20220012470A KR 1020200091023 A KR1020200091023 A KR 1020200091023A KR 20200091023 A KR20200091023 A KR 20200091023A KR 20220012470 A KR20220012470 A KR 20220012470A
Authority
KR
South Korea
Prior art keywords
information
user
voice
terminal
server
Prior art date
Application number
KR1020200091023A
Other languages
Korean (ko)
Other versions
KR102412412B1 (en
Inventor
구승엽
황성택
박동원
김용웅
허준구
Original Assignee
주식회사 원더풀플랫폼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 원더풀플랫폼 filed Critical 주식회사 원더풀플랫폼
Priority to KR1020200091023A priority Critical patent/KR102412412B1/en
Publication of KR20220012470A publication Critical patent/KR20220012470A/en
Application granted granted Critical
Publication of KR102412412B1 publication Critical patent/KR102412412B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Abstract

The present invention relates to a method and system for providing a conversation service that can actively care for a user by deriving mental or physical disease information of a user through voice information of a user and providing the derived mental or physical disease information to an administrator. According to one embodiment of the present invention, when an abnormal symptom is detected from voice information of a user, a mental or physical disease of the user can be actively identified and dealt with through the conversation service by transmitting question information for deriving a disease of the user to a conversation terminal. The method comprises: a voice reception step; an information analysis step; an abnormal symptom detection step; and a question transmission step.

Description

대화 서비스 제공방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING TALK SERVICE}Method and system for providing dialogue service

본 발명은 사용자의 음성정보를 통해 사용자의 정신적 또는 신체적 질환정보를 도출하여 관리자에게 제공함으로써, 사용자를 능동적으로 케어할 수 있는 대화 서비스 제공방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing a conversation service that can actively take care of a user by deriving mental or physical disease information of a user through the user's voice information and providing it to an administrator.

최근 인공지능 비서 기기로 활용되는 스마트 스피커 또는 도우미 로봇의 보급이 증가함에 따라, 사용자들은 음성으로 뉴스나 날씨정보, 생활정보 등을 기기에 문의하거나 음악을 호출하여 듣고, 음성으로 온라인 쇼핑도 대신하며, 사물 인터넷으로 연결된 가전제품과 조명을 음성으로 원격제어하며 편리하게 사용하고있다.With the recent increase in the prevalence of smart speakers or helper robots used as artificial intelligence assistant devices, users can inquire about news, weather information, and daily life information with their voices, or listen to music by calling them, and also online shopping by voice. , it is convenient to use by remotely controlling home appliances and lighting connected to the Internet of Things with voice.

아울러, 최근에는 스마트폰, 스마트 스피커 또는 도우미 로봇 등에 다양한 조건을 입력하면, 다양한 조건에 부합되는 대화 상대를 자동으로 매칭하는 독거노인 또는 1인 가구를 위한 대화 매칭 서비스가 개발되고 있다.In addition, recently, when various conditions are input to a smart phone, a smart speaker, or a helper robot, a conversation matching service for the elderly living alone or single-person households that automatically matches a conversation partner meeting various conditions has been developed.

이와 같은 대화 매칭 서비스는, 사용자의 니즈에 맞는 대화 상대를 자동으로 매칭해줌으로써, 독거노인 또는 1인 가구가 쉽게 겪을 수 있는 우울증 등의 질환을 예방할 수 있다.Such a conversation matching service can prevent diseases such as depression that can easily be experienced by the elderly living alone or single-person households by automatically matching a conversation partner that meets the user's needs.

하지만, 근래 독거노인 등 혼자서 생활하는 사람들의 숫자가 급격히 증가고 있음에 따라 이미 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구가 증가하고 있으며, 종래의 대화 매칭 서비스의 경우, 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구를 효율적, 능동적으로 케어하기 어렵다는 문제점이 있다.However, as the number of people living alone, such as the elderly living alone, is rapidly increasing in recent years, the number of single-person households suffering from various mental or physical diseases is increasing. There is a problem in that it is difficult to efficiently and actively take care of single-person households that are suffering.

한국공개특허 제10-2020-0045821호(공개일 : 2020. 05. 06)Korean Patent Publication No. 10-2020-0045821 (published date: 2020. 05. 06)

이에 본 발명은 전술한 배경에서 안출된 것으로, 본 발명의 목적은, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 대화 서비스 제공방법 및 시스템을 제공하는데 있다.Accordingly, the present invention was devised in the background described above, and an object of the present invention is to transmit question information for deriving the user's disease to the talker terminal when an abnormal symptom is detected from the user's voice information, through a conversation service An object of the present invention is to provide a method and system for providing a conversation service that can actively identify and deal with a user's mental or physical illness.

본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited thereto, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공방법은, 사용자의 사용자단말기가 대화자단말기로 전송하기 위한 상기 사용자의 제1음성정보(i1)를 서버로 전송하며, 상기 사용자단말기와 대화 가능하게 연결된 대화자단말기가 상기 사용자단말기로 전송하기 위한 대화자의 제2음성정보(i2)를 상기 서버로 전송하는 음성수신단계; 상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계; 상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및 상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;를 포함한다.In order to solve this problem, the chat service providing method according to an embodiment of the present invention transmits the user's first voice information i1 to be transmitted to the chatter terminal by the user's user terminal to the server, and the user terminal and the a voice receiving step of transmitting, to the server, second voice information (i2) of the talker to be transmitted to the user terminal by the talker terminal communicatively connected; an information analysis step of extracting, by the server, analysis information (i3) for detecting an abnormal symptom of the user from the first voice information (i1) and the second voice information (i2); an abnormal symptom detection step in which the server analyzes the analysis information (i3) to detect abnormal symptoms caused by the user's mental or physical disease; and a question transmission step of transmitting, by the server, the question information (i4) for deriving the disease to the talker terminal after detecting the abnormal symptom.

또한, 이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공시스템은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기; 상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및 상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;를 포함한다.In addition, in order to solve this problem, the chat service providing system according to an embodiment of the present invention includes a user terminal for receiving the user's first voice information (i1); a chatter terminal communicatively connected to the user terminal and receiving second voice information (i2) of a chatter having a conversation with the user; and receiving the first voice information (i1) from the user terminal and receiving the second voice information (i2) from the talker terminal from the first voice information (i1) and the second voice information (i2) The analysis information (i3) for detecting an abnormal symptom of the user is extracted, but when the analysis information (i3) is analyzed to detect abnormal symptoms caused by the user's mental or physical disease, question information for deriving the disease ( and a server that transmits i4) to the talker terminal.

본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.According to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, by transmitting question information for deriving the user's disease to the talker terminal, the user's mental or physical disease can be actively treated through the conversation service. It is effective to understand and deal with.

또한, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보를 대화자단말기로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information related to a specific disease for each abnormal symptom to the talker terminal, it is possible to effectively identify the user's disease.

아울러, 본 발명의 일실시예에 의하면, 사용자의 음성정보를 기반으로 작성된 답변정보를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.In addition, according to an embodiment of the present invention, it is possible to more accurately derive the user's mental or physical illness through answer information written based on the user's voice information.

본 발명의 효과들은 이상에 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다.
도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.
1 is a flowchart of a method for providing a conversation service according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a chat service providing system according to an embodiment of the present invention.
3 is a diagram illustrating an example in which a user terminal and a talker terminal transmit voice information to a server according to an embodiment of the present invention.
4 is a view showing question information according to an embodiment of the present invention.
5 is a view showing answer information according to an embodiment of the present invention.

이하, 본 발명의 일부 실시에들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is formed between each component. It should be understood that elements may be "connected," "coupled," or "connected."

도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다. 도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다. 도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다. 도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다. 도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.1 is a flowchart of a method for providing a conversation service according to an embodiment of the present invention. 2 is a block diagram showing the configuration of a chat service providing system according to an embodiment of the present invention. 3 is a diagram illustrating an example in which a user terminal and a talker terminal transmit voice information to a server according to an embodiment of the present invention. 4 is a view showing question information according to an embodiment of the present invention. 5 is a view showing answer information according to an embodiment of the present invention.

이들 도면에 도시된 바와 같이, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하며, 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 음성수신단계(s10); 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계(s20); 서버(300)가, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계(s30); 및 서버(300)가, 이상징후 감지 후, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문전송단계(s40);를 포함한다.As shown in these figures, in the chat service providing method 10 according to an embodiment of the present invention, the user's first voice information i1 for the user's user terminal 100 to transmit to the chatter terminal 200 . ) to the server 300 , and the talker terminal 200 connected to the user terminal 100 communicatively transmits the second voice information i2 of the talker to the user terminal 100 to the server 300 . Transmitting voice receiving step (s10); an information analysis step (s20) in which the server 300 extracts, from the first voice information (i1) and the second voice information (i2), the analysis information (i3) for detecting an abnormal symptom of the user; An abnormal symptom detection step (s30) in which the server 300 analyzes the analysis information (i3) to detect abnormal symptoms caused by the user's mental or physical illness; and a question transmission step (s40) in which the server 300 transmits the question information i4 for deriving the disease to the talker terminal 200 after detecting the abnormal symptoms.

먼저, 음성수신단계(s10)는, 사용자의 사용자단말기(100)와 대화자의 대화자단말기(200)가 서버(300)와 연결되어, 사용자단말기(100) 및 대화자단말기(200)로 입력된 음성정보가 서버(300)로 전송되는 단계이다.First, in the voice receiving step (s10), the user's user terminal 100 and the talker's terminal 200 are connected to the server 300, and the voice information input to the user terminal 100 and the talker's terminal 200 is is transmitted to the server 300 .

이러한 음성수신단계(s10)를 좀더 구체적으로 설명하면, 사용자단말기(100)와 대화자단말기(200)가 대화 가능하도록 서버(300)와 연결되는 기기연결단계(s11); 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하는 제1음성정보 전송단계(s13); 및 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 제2음성정보 전송단계(s15);를 포함한다.When describing the voice receiving step (s10) in more detail, the device connection step (s11) in which the user terminal 100 and the talker terminal 200 are connected to the server 300 so that conversation is possible; a first voice information transmission step (s13) of the user's user terminal 100 transmitting the user's first voice information i1 for transmission to the talker terminal 200 to the server 300; and a second voice information transmitting step in which the talker terminal 200 connected to the user terminal 100 communicatively transmits the second voice information i2 of the talker for transmission to the user terminal 100 to the server 300 ( s15); includes.

먼저, 기기연결단계(s11)는 사용자의 사용자단말기(100)와, 사용자와 대화하는 대화자의 대화자단말기(200)가 서버(300)와 연결되는 단계이다.First, the device connection step (s11) is a step in which the user's user terminal 100 and the talker's terminal 200 of the conversational conversation with the user are connected to the server 300 .

즉, 기기연결단계(s11)에서 사용자단말기(100)와 대화자단말기(200)는 제1음성정보(i1)와 제2음성정보(i2)를 서로 주고받을 수 있도록 서버(300)를 통해 연결된다.That is, in the device connection step (s11), the user terminal 100 and the talker terminal 200 are connected through the server 300 so that the first voice information i1 and the second voice information i2 can be exchanged with each other. .

제1음성정보 전송단계(s13)는, 사용자단말기(100)로 입력된 사용자의 제1음성정보(i1)가 서버(300)로 전송되는 단계이다.The first voice information transmission step (s13) is a step in which the user's first voice information i1 input to the user terminal 100 is transmitted to the server 300 .

이때, 서버(300)로 전송된 사용자의 제1음성정보(i1)는 서버(300)에 의해 대화자단말기(200)로 전송된다.At this time, the user's first voice information i1 transmitted to the server 300 is transmitted to the talker terminal 200 by the server 300 .

그리고, 제2음성정보 전송단계(s15)는, 대화자단말기(200)로 입력된 대화자의 제2음성정보(i2)가 서버(300)로 전송되는 단계인데, 이때 제2음성정보(i2)는 서버(300)에 의해 사용자단말기(100)로 전송된다.And, the second voice information transmission step (s15) is a step in which the second voice information i2 of the talker input to the talker terminal 200 is transmitted to the server 300, wherein the second voice information i2 is It is transmitted to the user terminal 100 by the server 300 .

계속해서, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 단계이다.Subsequently, in the information analysis step (s20), the server 300 extracts the analysis information (i3) for detecting an abnormal symptom of the user from the first voice information (i1) and the second voice information (i2) to be.

이러한 정보분석단계(s20)를 좀더 구체적으로 설명하면, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계(s21); 및 서버(300)가, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계(s23);를 포함한다.If the information analysis step (s20) will be described in more detail, the information analysis step (s20) is the server 300, from the first voice information (i1) to the first language information corresponding to the natural language among the analysis information (i3) a first analysis step (s21) of extracting at least one of (i1a) and sound information (i1b) according to the user's emotional state; and a second analysis step (s23) in which the server 300 extracts the second language information i2a corresponding to the natural language among the analysis information i3 from the second voice information i2.

먼저, 제1분석단계(s21)는 서버(300)의 정보분석모듈(320)이 대화수신모듈(310)로부터 전송받은 제1음성정보(i1)로부터, 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 단계이다.First, in the first analysis step (s21), the information analysis module 320 of the server 300 receives the first voice information i1 transmitted from the conversation receiving module 310, the first language information i1a corresponding to the natural language ) and a step of extracting one or more of the sound information i1b according to the user's emotional state.

이러한 제1분석단계(s21)를 좀더 구체적으로 설명하면, 제1분석단계(s21)는 정보분석모듈(320)의 언어분석부(323)가 제1음성정보(i1)로부터 자연어에 해당하는 제1언어정보(i1a)를 추출하는 언어추출단계(s21a); 및 정보분석모듈(320)의 소리분석부(325)가 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하는 소리추출단계(s22b);를 포함한다.If the first analysis step (s21) will be described in more detail, the first analysis step (s21) is performed by the language analysis unit 323 of the information analysis module 320 from the first voice information i1 to the first corresponding natural language. a language extraction step (s21a) of extracting one language information (i1a); and a sound extraction step (s22b) in which the sound analysis unit 325 of the information analysis module 320 extracts the sound information i1b according to the user's emotional state from the first voice information i1.

여기서, 제1언어정보(i1a)는 의미와 전달력을 갖는 자연어로서, 음성변환부(321)에 의해 변환된 제1음성정보(i1)의 디지털정보로부터 추출될 수 있다.Here, the first language information i1a is a natural language having meaning and communicative power, and may be extracted from digital information of the first voice information i1 converted by the voice conversion unit 321 .

아울러, 소리정보(i1b)는 사용자의 감정상태를 도출하기 위한 것으로, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.In addition, the sound information i1b is for deriving the user's emotional state, and includes one or more of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.

여기서, 음성의 세기는 제1음성정보(i1)의 크기에 관한 것으로서, 제1음성정보(i1)의 음파의 진폭을 통해 도출될 수 있으며, 진폭이 클수록 클 수 있다.Here, the intensity of the voice relates to the size of the first voice information i1, and may be derived through the amplitude of the sound wave of the first voice information i1, and may be greater as the amplitude increases.

그리고, 음성의 높낮이는 제1음성정보(i1)의 높낮이에 관한 것으로서, 제1음성정보(i1)의 음파의 진동수를 통해 도출될 수 있으며, 진동수가 클수록 높을 수 있다.And, the pitch of the voice relates to the pitch of the first voice information i1, and may be derived through the frequency of the sound wave of the first voice information i1, and may be higher as the frequency increases.

이어서, 제2분석단계(s23)는, 서버(300)의 정보분석부(320)가 대화수신모듈(310)로부터 전송된 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 단계이다.Next, in the second analysis step (s23), the information analysis unit 320 of the server 300 corresponds to the natural language among the analysis information i3 from the second voice information i2 transmitted from the conversation receiving module 310 This is a step of extracting the second language information i2a.

한편, 정보분석단계(s20)는 제1분석단계(s21) 이전에, 서버(300)의 음성변환부(321)가 제1음성정보(i1)와 제2음성정보(i2)를 분석정보(i3)로 변환하기 위한 디지털정보로 변환하는 음성변환단계(s25);를 더 포함한다.On the other hand, in the information analysis step (s20), before the first analysis step (s21), the voice conversion unit 321 of the server 300 analyzes the first voice information (i1) and the second voice information (i2) into the analysis information ( It further includes; a voice conversion step (s25) of converting to digital information for conversion to i3).

즉, 정보분석단계(s20)에서 언어분석부(323)는, 음성변환부(321)에 의해 변환된 제1음성정보(i1)와 제2음성정보(i2)의 디지털정보로부터 제1언어정보(i1a) 및 제2언어정보(i2a)를 추출할 수 있다.That is, in the information analysis step (s20), the language analysis unit 323 performs the first language information from the digital information of the first voice information i1 and the second voice information i2 converted by the voice conversion unit 321 . (i1a) and the second language information (i2a) can be extracted.

계속해서, 이상징후 감지단계(s30)는 서버(300)의 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 분석정보(i3)를 분석하여, 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.Subsequently, in the abnormal symptom detection step (s30), the abnormal symptom determination module 330 of the server 300 analyzes the analysis information i3 received from the information analysis unit 320, and This is the stage of detecting anomalies.

즉, 이상징후 감지단계(s30)는, 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 제1언어정보(i1a)와, 제2언어정보(i2a) 및 소리정보(i1b)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.That is, the abnormal symptom detection step (s30) includes the first language information (i1a), the second language information (i2a), and the sound information (i1b) received by the abnormal symptom determination module 330 from the information analysis unit 320 . It is a step of detecting abnormal symptoms caused by the user's mental or physical disease by analyzing the

이러한 이상징후 감지단계(s30)를 좀더 구체적으로 설명하면, 이상징후 감지단계(s30)는, 서버(300)가, 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 언어매칭단계(s31); 서버(300)가, 소리정보(i1b)를 분석하는 소리감지단계(s33); 및 서버(300)가, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계(s35);를 포함한다.If the abnormal symptom detection step (s30) will be described in more detail, the abnormal symptom detection step (s30) is language matching in which the server 300 matches the first language information i1a and the second language information i2a. step (s31); The server 300, a sound detection step (s33) of analyzing the sound information (i1b); And the server 300, when the first language information (i1a) does not match the second language information (i2a) or when the sound information (i1b) is out of the normal range by detecting an abnormal symptom, the question information (i4) and a control signal output step (s35) of outputting a control signal (s1) to be transmitted to the talker terminal (200).

언어매칭단계(s31)는 서버(300)의 이상징후 단판모듈(330)이 정보분석모듈(320)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 전송받아 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 단계이다.In the language matching step (s31), the abnormal symptom veneer module 330 of the server 300 receives the first language information (i1a) and the second language information (i2a) from the information analysis module 320 to receive the first language information ( This is a step of matching i1a) with the second language information i2a.

즉, 언어매칭단계(s31)는 이상징후 판단모듈(330)이 사용자단말기(100)로부터 전송된 제1음성정보(i1)와, 대화자단말기(200)로부터 전송된 제2음성정보(i2)가 상호 연관성이 있는지를 판단하기 위해, 제1언어정보(i1a)와 제2언어정보(i1b)를 비교하여 분석하는 단계이다.That is, in the language matching step (s31), the first voice information (i1) transmitted from the abnormal symptom determination module 330 from the user terminal 100 and the second voice information (i2) transmitted from the talker terminal 200 are This is a step of comparing and analyzing the first language information i1a and the second language information i1b to determine whether there is a correlation.

여기서, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a)와, 어느 하나의 제1언어정보(i1a)의 전후에 입력된 제2언정정보(i2a)를 비교하여 이상징후를 감지할 수 있다.Here, the abnormal symptom determination module 330 compares any one of the first language information (i1a) with the second judgment information (i2a) input before and after any one of the first language information (i1a) to determine the abnormal symptom. can detect

예를 들어, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a-2)를 분석하는 경우, 어느 하나의 제1언어정보(i1-1)와, 어느 하나의 제1언어정보(i1a-1) 전후에 입력된 제2언어정보(i2a-1,i2a-2)를 비교하여 분석한다.For example, when the abnormal symptom determination module 330 analyzes any one of the first language information i1a-2, any one of the first language information i1-1 and any one of the first language information The second language information (i2a-1, i2a-2) input before and after (i1a-1) is compared and analyzed.

이어서, 소리감지단계(s33)는 서버(300)의 이상징후 판단모듈(330)이 정보분석모듈(320)로부터 소리정보(i1b)를 전송받아 분석하는 단계이다.Subsequently, the sound detection step (s33) is a step in which the abnormal symptom determination module 330 of the server 300 receives and analyzes the sound information i1b from the information analysis module 320 .

즉, 소리감지단계(s33)는 이상징후 판단모듈(330)이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 분석하는 단계이다.That is, the sound detection step (s33) is a step in which the abnormal symptom determination module 330 analyzes one or more of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.

즉, 소리감지단계(s33)는 제1음성정보(i1)의 음파의 진폭과, 진동수 등을 분석하여, 사용자의 감정상태를 통해 이상징후를 감지하는 단계이다.That is, the sound sensing step (s33) is a step of detecting an abnormal symptom through the user's emotional state by analyzing the amplitude and frequency of the sound wave of the first voice information i1.

이어서, 제어신호 출력단계(s35)는, 서버(300)의 이상징후 판단모듈(330)이 제1언어정보(i1a)와 제2언어정보(i2a) 및 소리정보(i1b)를 통해 사용자의 이상징후를 감지하는 단계이다.Next, in the control signal output step (s35), the abnormal symptom determination module 330 of the server 300 determines the user's abnormality through the first language information i1a, the second language information i2a, and the sound information i1b. This is the stage for detecting signs.

좀더 구체적으로, 제어신호 출력단계(s35)는 이상징후 판단모듈(330)이, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 사용자에게 이상징후가 있다고 판단하여 제어신호(s1)를 출력하는 단계이다.More specifically, in the control signal output step (s35), the abnormal symptom determination module 330 determines that the first language information i1a does not match the second language information i2a, or the sound information i1b sets the normal range. In the case of deviation, it is determined that there is an abnormal symptom in the user and outputting the control signal s1.

예를 들어, 대화자단말기(200)로부터 취미를 묻는 제2언어정보(i2a-3)가 전송된 후, 사용자단말기(100)로부터 제2언어정보(i2a-3)와 전혀 연관성이 없는 성함과 나이를 묻는 제1언어정보(i1a-4)가 전송되는 경우, 이상징후 판단모듈(330)은 기준DB(331)에 기저장된 데이터를 바탕으로 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.(도 3 참조)For example, after the second language information i2a-3 asking for hobbies is transmitted from the conversational terminal 200 , the name and age are not related at all to the second language information i2a-3 from the user terminal 100 . When the first language information i1a-4 asking for (See Fig. 3)

물론, 이상징후 판단모듈(330)은 사용자가 중복된 질문(i1a-4)을 반복적으로 하는 경우, 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.Of course, when the user repeatedly asks the duplicated question i1a-4, the abnormal symptom determination module 330 may detect the abnormal symptom and output the control signal s1.

한편, 제어신호 출력단계(s35)에서 이상징후 판단모듈(330)은, 소리정보(i1b)를 통해 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상이, 기준DB(331)에 저장된 데이터의 정상범위를 벗어나는 경우 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.On the other hand, in the control signal output step (s35), the abnormal symptom determination module 330, through the sound information (i1b), at least one of the intensity of the user's voice, the height of the user's voice, and the speed of the user's speech, the reference DB When the data stored in 331 is out of the normal range, an abnormal symptom may be detected and a control signal s1 may be output.

이때, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.In this case, the abnormal symptom determination module 330 may output a different control signal s1 for each abnormal symptom according to a specific disease.

예를 들어, 제어신호 출력단계(s31)에서 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 후술할 질문정보 제공모듈(340)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected in the control signal output step s31, the abnormal symptom determination module 330 outputs a first control signal s1a to the question information providing module 340 to be described later. can be transmitted

또한, 제어신호 출력단계(s31)에서 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.In addition, when an abnormal symptom related to depression is detected in the control signal output step s31 , the abnormal symptom determination module 330 may output a second control signal s1b.

계속해서, 질문전송단계(s40)는, 이상징후 감지단계(s30)에서 사용자의 이상징후가 감지되는 경우, 서버(300)의 질문정보 제공모듈(340)이 사용자의 정신적 또는 신체적 질환을 감지하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.Continuing, the question transmission step (s40), when an abnormal symptom of the user is detected in the abnormal symptom detection step (s30), the question information providing module 340 of the server 300 detects the user's mental or physical illness This is a step of transmitting the question information i4 for the conversational terminal 200 .

좀더 구체적으로 질문전송단계(s40)는, 질문정보 제공모듈(340)이 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.More specifically, in the question transmission step (s40), the question information providing module 340 transmits the question information i4 to the talker terminal 200 by the control signal s1 transmitted from the abnormal symptom determination module 330. is a step

여기서, 질문정보(i4)는 특정 질환을 도출하기 위해 복수개로 제공될 수 있는데, 특정 이상징후가 감지되는 경우 어느 하나가 선택되어 대화자단말기(200)로 전송될 수 있다.Here, a plurality of question information i4 may be provided to derive a specific disease, and when a specific abnormal symptom is detected, one may be selected and transmitted to the talker terminal 200 .

이러한 질문정보(i4)를 좀더 구체적으로 설명하면, 질문정보(i4)는 질환 항목(i4a)별로 적어도 하나 이상의 문항(i4b)을 포함하고, 문항(i4b)에 따른 복수의 선택지(i4c)를 포함할 수 있는데, 여기서 각각의 선택지(i4c)는 특정 질환을 도출하기 위한 가중치가 서로 다르게 설정될 수 있다.To explain this question information (i4) in more detail, the question information (i4) includes at least one question (i4b) for each disease item (i4a), and includes a plurality of options (i4c) according to the question (i4b). In this case, each option i4c may have different weights for deriving a specific disease.

한편, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후별로 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.Meanwhile, the question information providing module 340 may select specific question information i4 for each abnormal symptom from among the plurality of question information i4 and transmit it to the conversational terminal 200 .

예를 들어, 사용자에게 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected by the user and the first control signal s1a is transmitted from the abnormal symptom determination module 330, the question information providing module 340 is configured to select one of the plurality of question information i4. The question information i4-1 for deriving a dementia disease may be transmitted to the talker terminal 200 .

이와 달리, 사용자에게 우울증과 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제2제어신호(s1b)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 우울증을 도출하기 위한 질문정보(i4-2)를 대화자단말기(200)로 전송할 수 있다.Contrary to this, when an abnormal symptom related to depression is detected by the user and the second control signal s1b is transmitted from the abnormal symptom determination module 330, the question information providing module 340 is configured for depression among the plurality of question information i4. It is possible to transmit the question information i4-2 for deriving , to the talker terminal 200 .

이처럼, 본 발명의 일실시예에 의하면 사용자의 음성정보로부터 이상징후가 감지되는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.As such, according to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, the question information i4 for deriving the user's disease is transmitted to the talker terminal 200, so that the user's It has the effect of actively identifying and coping with mental or physical ailments.

아울러, 본 발명의 일실시예에 의하면 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information (i4-1, i4-2) related to a specific disease for each abnormal symptom to the talker terminal 200, there is an effect that the user's disease can be effectively identified. .

한편, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 대화자단말기(200)가, 질문정보(i4)에 따른 답변정보(i5)를 서버(300)로 전송하는 답변수신단계(s50); 및 서버(300)가, 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송하는 질환정보 전송단계(s60);를 더 포함한다.On the other hand, in the dialog service providing method 10 according to an embodiment of the present invention, the talker terminal 200 transmits the answer information i5 according to the question information i4 to the server 300, the answer receiving step ( s50); and a disease information transmission step in which the server 300 derives the user's disease through the answer information i5 and transmits the user's mental or physical disease information i6 to the administrator's terminal 400 for managing the user (s60); further includes.

먼저, 답변수신단계(s50)는 대화자단말기(200)가, 질문정보(i3)에 따른 답변정보(i5)를 서버(300)의 답변정보 분석모듈(350)로 전송하는 단계이다.First, the answer receiving step (s50) is a step in which the talker terminal 200 transmits answer information i5 according to the question information i3 to the answer information analysis module 350 of the server 300 .

여기서, 답변정보(i5)는 대화자가 사용자로부터 수신된 제1음성정보(i1)를 기반으로 입력할 수 있다.Here, the answer information i5 may be input by the talker based on the first voice information i1 received from the user.

또한, 답변정보(i5)는 질문정보(i4)에 대화자가 입력한 선택정보(i7)가 포함된 것으로, 선택정보(i7)는 질환 항목(i4a)별로 제시된 복수의 선택지(i4c) 중 특정 선택지(i4c1,i4c2,i4c3)일 수 있다.In addition, the answer information (i5) includes the selection information (i7) input by the dialoguer in the question information (i4), and the selection information (i7) is a specific option among a plurality of options (i4c) presented for each disease item (i4a) It can be (i4c1, i4c2, i4c3).

이어서, 질환정보 전송단계(s60)는, 서버(300)의 답변정보 분석모듈(350)이, 답변정보(i5)를 통해 사용자의 질환을 도출하는 단계이다.Next, the disease information transmission step (s60) is a step in which the answer information analysis module 350 of the server 300 derives the user's disease through the answer information i5.

이러한 질환정보 전송단계(s60)를 좀더 구체적으로 설명하면, 질환정보 전송단계(s60)는 서버(300)의 답변정보 분석모듈(350)이 답변정보(i5)를 통해 사용자의 질환을 도출하여 제어신호(s2)를 출력하는 답변정보 분석단계(s61); 및 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.If the disease information transmission step (s60) will be described in more detail, the disease information transmission step (s60) is controlled by the response information analysis module 350 of the server 300 deriving the user's disease through the response information i5. answer information analysis step (s61) of outputting a signal (s2); and an information transmission step (s63) in which the disease information transmission module 360 of the server 300 receives the control signal s2 and transmits the disease information i6 to the manager terminal 400 .

답변정보 분석단계(s61)는 답변정보 분석모듈(350)이 답변정보(i5)를 분석하여 제어신호(s2)를 출력하는 단계로, 답변정보(i5)를 분석한 뒤 사용자의 질환을 도출하여 특정 질환에 대한 질환정보(i6)가 출력되도록 제어신호(s2)를 출력하는 단계이다.The answer information analysis step (s61) is a step in which the answer information analysis module 350 analyzes the answer information (i5) and outputs a control signal (s2). After analyzing the answer information (i5), the user's disease is derived This is a step of outputting the control signal s2 so that the disease information i6 for a specific disease is output.

예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.For example, the answer information analysis module 350, when the specific options (i4c1, i4c2, i4c3) of the specific disease item (i4a) are input as more than a preset number of selection information (i7), the manager terminal 400 to output the control signal s2 to transmit disease information i6 for a specific disease.

이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 점수로 환산한다.Contrary to this, the answer information analysis module 350 converts the weights of the specific options i4c1, i4c2, and i4c3 input as the selection information i7 into scores.

그리고, 답변정보 분석모듈(305)은 가중치에 대한 점수가 기설정된 정상범위를 벗어나는 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.Then, the answer information analysis module 305 outputs a control signal s2 to transmit disease information i6 for a specific disease to the manager terminal 400 when the score for the weight is out of a preset normal range.

이어서, 정보전송단계(s63)는 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.Subsequently, in the information transmission step (s63), the disease information transmission module 360 of the server 300 receives the control signal s2 and transmits the disease information i6 for a specific disease to the manager terminal 400. step (s63);

여기서, 질환정보(i6)는 답변정보(i5)와, 답변정보(i5)에 의해 도출된 사용자의 정신적 또는 신체적 질환에 대한 정보가 포함될 수 있는데, 여기서 질환은 치매, 우울증, 조울증 등을 포함할 수 있다.Here, the disease information (i6) may include the answer information (i5) and information on the user's mental or physical disease derived by the answer information (i5), where the disease may include dementia, depression, bipolar disorder, etc. can

이처럼, 본 발명의 일실시예에 의하면, 대화자가 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 질환을 도출함으로써, 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.As such, according to an embodiment of the present invention, the user's mental or physical illness is more accurately derived by the conversationalist deriving the user's disease through the answer information (i5) written based on the user's first voice information (i1) can do.

한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기(100); 사용자단말기(100)와 대화 가능하게 연결되며, 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기(200); 및 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받아 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 질환을 도출하기 위한 질문정보(i4)를 대화자단말기로 전송하는 서버(300);를 포함한다.On the other hand, the chat service providing system 20 according to an embodiment of the present invention, the user terminal 100 for receiving the user's first voice information (i1); a chatter terminal 200 connected to the user terminal 100 so as to be able to talk, and receiving second voice information i2 of a chatter having a conversation with the user; and receiving the first voice information i1 from the user terminal 100 and the second voice information i2 from the talker terminal 200, and receiving the first voice information i1 and the second voice information i2 from the user Extracts analysis information (i3) to detect abnormal symptoms of It includes a; server 300 for transmitting to the terminal.

사용자단말기(100)는 사용자의 제1음성정보(i1)를 입력받아 서버(300) 및 대화자단말기(200)로 전송하고, 대화자단말기(200)는 대화자의 제2음성정보(i1)를 입력받아 서버(300) 및 사용자단말기(200)로 전송한다.The user terminal 100 receives the user's first voice information (i1) and transmits it to the server 300 and the talker terminal 200, and the talker terminal 200 receives the talker's second voice information (i1) It is transmitted to the server 300 and the user terminal 200 .

또한, 대화자단말기(200)는 서버(300)로부터 질문정보(i4)가 전송되며, 질문정보(i4)에 따른 답변정보(i5)를 입력받아 서버(300)로 전송한다.In addition, the conversational terminal 200 transmits the question information i4 from the server 300 , receives the answer information i5 according to the question information i4 , and transmits it to the server 300 .

여기서, 사용자단말기(100)와 대화자단말기(200)는 서버(300)를 통해 대화 가능하게 연결되는데, 이러한 사용자단말기(100)와 대화자단말기(200)는 일예로 스마트폰, 태블릿 PC, 도우미 로봇, 스마트 스피커 등으로 제공될 수 있다.Here, the user terminal 100 and the talker terminal 200 are communicatively connected through the server 300, and the user terminal 100 and the talker terminal 200 are, for example, a smartphone, a tablet PC, a helper robot, It may be provided as a smart speaker or the like.

계속해서, 서버(300)는 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출한다.Subsequently, the server 300 receives the first voice information (i1) and the second voice information (i2) from the user terminal 100 and the talker terminal 200, and analyzes information (i3) for detecting abnormal signs of the user ) is extracted.

그리고, 서버(300)는 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하여, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송한다.Then, the server 300 analyzes the analysis information i3 to detect abnormal symptoms caused by the user's mental or physical disease, and transmits the question information i4 for deriving the disease to the talker terminal 200 .

또한, 서버(300)는 대화자단말기(200)로부터 질문정보(i3)에 따른 답변정보(i5)를 전송받는다.Also, the server 300 receives answer information i5 according to the question information i3 from the talker terminal 200 .

그리고, 서버(300)는 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송한다.Then, the server 300 derives the user's disease through the answer information i5 and transmits the user's mental or physical disease information i6 to the administrator's terminal 400 for managing the user.

이러한 서버(300)의 구조를 좀더 구체적으로 설명하면, 서버(300)는, 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받는 대화수신모듈(310); 및 대화수신모듈(310)로부터 제1음성정보(i1) 및 제2음성정보(i2)를 전송받아, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈(320);을 포함한다.To describe the structure of the server 300 in more detail, the server 300 receives the first voice information i1 from the user terminal 100 and transmits the second voice information i2 from the talker terminal 200 . a conversation receiving module 310 for receiving; And receiving the first voice information (i1) and the second voice information (i2) from the conversation receiving module 310, the first language information corresponding to the natural language among the analysis information (i3) from the first voice information (i1) ( Information for extracting one or more of i1a) and sound information (i1b) according to the user's emotional state, and extracting second language information (i2a) corresponding to natural language among the analysis information (i3) from the second voice information (i2) analysis module 320; includes.

그리고, 본 발명의 일실시예에 의한 서버(300)는 정보분석모듈(320)로부터 분석정보(i3)를 전송받아 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 판단모듈(330) 및 이상징후 판단모듈(330)이 이상징후를 감지하는 경우 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문정보 제공모듈(340)을 더 포함한다.In addition, the server 300 according to an embodiment of the present invention receives the analysis information i3 from the information analysis module 320 and detects abnormal symptoms caused by the user's mental or physical disease. The abnormal symptom determination module 330 . and a question information providing module 340 for transmitting question information i4 for deriving a user's disease to the talker terminal 200 when the abnormal symptom determination module 330 detects an abnormal symptom.

대화수신모듈(310)은 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 정보분석모듈(320)로 전송한다.The conversation receiving module 310 receives the first voice information i1 and the second voice information i2 from the user terminal 100 and the talker terminal 200 and transmits them to the information analysis module 320 .

정보분석모듈(320)은 음성변환부(321), 언어분석부(323) 및 소리분석부(325)를 포함한다.The information analysis module 320 includes a voice conversion unit 321 , a language analysis unit 323 , and a sound analysis unit 325 .

음성변환부(321)는 대화수신모듈(310)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받으며, 제1음성정보(i1)와 제2음성정보(i2)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 추출할 수 있도록, 제1음성정보(i1)와 제2음성정보(i2)를 디지털정보로 변환한다.The voice conversion unit 321 receives the first voice information (i1) and the second voice information (i2) from the conversation receiving module 310, and receives the first voice information (i1) and the second voice information (i2) from the first voice information (i1) and the second voice information (i2). The first audio information (i1) and the second audio information (i2) are converted into digital information so that the first language information (i1a) and the second language information (i2a) can be extracted.

언어분석부(323)는 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)를 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하여, 제1언어정보(i1a)와 제2언어정보(i2a)를 이상징후 판단모듈(330)로 전송한다.The language analysis unit 323 extracts first language information i1a corresponding to a natural language among the analysis information i3 from the first voice information i1, and extracts the first language information i1a from the second voice information i2 from the analysis information i3 The second language information i2a corresponding to the natural language is extracted, and the first language information i1a and the second language information i2a are transmitted to the abnormal symptom determination module 330 .

소리분석부(325)는 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하여 이상징후 판단모듈(330)로 전송한다.The sound analysis unit 325 extracts the sound information i1b according to the user's emotional state from the first voice information i1 and transmits it to the abnormal symptom determination module 330 .

여기서, 소리정보(i1b)는 앞서 설명한 바와 같이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.Here, as described above, the sound information i1b includes one or more of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.

이어서, 이상징후 판단모듈(330)은 분석정보(i3)를 분석하여 사용자의 질환에 의한 이상징후를 감지한다.Next, the abnormal symptom determination module 330 analyzes the analysis information i3 to detect an abnormal symptom caused by the user's disease.

좀더 구체적으로, 이상징후 판단모듈(330)은 제1언어정보(i1a)와 제2언어정보(i2a)를 분석하여, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않는 경우 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.More specifically, the abnormal symptom determination module 330 analyzes the first language information i1a and the second language information i2a, so that the first language information i1a does not match the second language information i2a. In this case, a control signal s1 for transmitting the question information i4 to the talker terminal 200 is output.

그리고, 이상징후 판단모듈(330)은 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.Then, the abnormal symptom determination module 330 detects an abnormal symptom when the sound information i1b is out of the normal range, and outputs a control signal s1 for transmitting the question information i4 to the talker terminal 200 . .

여기서, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.Here, the abnormal symptom determination module 330 may output a different control signal s1 for each abnormal symptom according to a specific disease.

예를 들어, 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 질문정보 제공모듈(340)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected, the abnormal symptom determination module 330 may output a first control signal s1a and transmit it to the question information providing module 340 .

또한, 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.Also, when an abnormal symptom related to depression is detected, the abnormal symptom determination module 330 may output a second control signal s1b.

이어서, 질문정보 제공모듈(340)은 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송한다.Subsequently, the question information providing module 340 transmits the question information i4 to the talker terminal 200 by the control signal s1 transmitted from the abnormal symptom determination module 330 .

여기서, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후에 따라 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.Here, the question information providing module 340 may select specific question information i4 from among the plurality of question information i4 according to an abnormal symptom and transmit it to the conversational terminal 200 .

예를 들어, 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected and the first control signal s1a is transmitted from the abnormal symptom determination module 330, the question information providing module 340 is a dementia disease among the plurality of question information i4. It is possible to transmit the question information i4-1 for deriving , to the talker terminal 200 .

한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은 답변정보 분석모듈(350) 및 질환정보 전송모듈(360)을 더 포함한다.Meanwhile, the dialogue service providing system 20 according to an embodiment of the present invention further includes an answer information analysis module 350 and a disease information transmission module 360 .

답변정보 분석모듈(350)은 대화자단말기(200)로부터 답변정보(i5)를 전송받아 답변정보(i5)로부터 사용자의 질환을 도출한다.The answer information analysis module 350 receives the answer information i5 from the talker terminal 200 and derives the user's disease from the answer information i5 .

그리고, 답변정보 분석모듈(350)은 답변정보(i5)를 통해 사용자의 질환을 도출한 뒤, 사용자의 정신적 또는 신체적 질환정보(i6)가 관리자단말기(400)로 전송되도록 제어신호(s2)를 출력한다.Then, the answer information analysis module 350 derives the user's disease through the answer information i5, and then transmits the control signal s2 so that the user's mental or physical disease information i6 is transmitted to the manager terminal 400. print out

예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.For example, the answer information analysis module 350, when the specific options (i4c1, i4c2, i4c3) of the specific disease item (i4a) are input as more than a preset number of selection information (i7), a specific disease to the user It is determined that there is, and a control signal s2 is output.

이때, 질환정보 전송모듈(360)은 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송한다.In this case, the disease information transmission module 360 transmits disease information i6 for a specific disease to the manager terminal 400 .

이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 분석하여, 특정 선택지(i4c1,i4c2,i4c3)의 가중치가 기설정된 정상범위를 벗어나는 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.On the other hand, the answer information analysis module 350 analyzes the weights of the specific options (i4c1, i4c2, i4c3) input as the selection information i7, and the weights of the specific options (i4c1, i4c2, i4c3) are normal If it is out of the range, it is determined that the user has a specific disease and a control signal s2 is output.

이어서, 질환정보 전송모듈(360)은 답변정보 분석모듈(350)로부터 제어신호(s2)를 전송받아, 특정 질환에 따른 질환정보(i6)를 관리자의 관리자단말기(400)로 전송한다.Subsequently, the disease information transmission module 360 receives the control signal s2 from the answer information analysis module 350 and transmits the disease information i6 according to a specific disease to the manager's terminal 400 of the manager.

여기서, 관리자단말기(400)는 사용자에게 정신적 또는 신체적 질환이 감지되는 경우 사용자를 케어하기 위한, 관리자(ex: 의사, 지인 등등)의 단말기로, 스마트폰, 태블릿PC 등으로 제공될 수 있다.Here, the manager terminal 400 is a terminal of a manager (ex: a doctor, an acquaintance, etc.) for taking care of the user when a mental or physical illness is detected by the user, and may be provided as a smart phone, a tablet PC, or the like.

이상에서 설명한 바와 같이, 본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.As described above, according to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, the question information i4 for deriving the user's disease is transmitted to the talker terminal 200, It has the effect of actively identifying and responding to the user's mental or physical illness through the service.

아울러, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information (i4-1, i4-2) related to a specific disease for each abnormal symptom to the talker terminal 200, the effect of effectively identifying the user's disease is increased. have.

아울러, 본 발명의 일실시예에 의하면, 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.In addition, according to an embodiment of the present invention, the user's mental or physical illness can be more accurately derived through the answer information i5 created based on the user's first voice information i1.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "include", "comprise" or "have" described above mean that the corresponding component may be embedded unless otherwise stated, so excluding other components is not recommended. It should be construed as being able to further include other components. All terms including technical and scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms commonly used, such as those defined in the dictionary, should be interpreted as being consistent with the meaning of the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에 서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시에에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며 , 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these implementations. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10 : 대화 서비스 제공방법
20 : 대화 서비스 제공시스템
100 : 사용자단말기
200 : 대화자단말기
300 : 서버
310 : 대화수신모듈
320 : 정보분석모듈
321 : 음성변환부
323 : 언어분석부
325 : 소리분석부
330 : 이상징후 판단모듈
331 : 기준DB
340 : 질문정보 제공모듈
350 : 답변정보 분석모듈
360 : 질환정보 전송모듈
400 : 관리자단말기
10: How to provide conversation service
20: dialogue service providing system
100: user terminal
200: conversational terminal
300 : server
310: dialog receiving module
320: information analysis module
321: voice conversion unit
323: language analysis unit
325: sound analysis unit
330: abnormal symptom determination module
331: reference DB
340: question information providing module
350: answer information analysis module
360: disease information transmission module
400: manager terminal

Claims (6)

사용자의 사용자단말기가 대화자단말기로 전송하기 위한 상기 사용자의 제1음성정보(i1)를 서버로 전송하며, 상기 사용자단말기와 대화 가능하게 연결된 대화자단말기가 상기 사용자단말기로 전송하기 위한 대화자의 제2음성정보(i2)를 상기 서버로 전송하는 음성수신단계;
상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계;
상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및
상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
The user's user terminal transmits the user's first voice information i1 for transmission to the talker terminal to the server, and the talker's second voice is transmitted to the user terminal by the talker terminal communicatively connected to the user terminal a voice receiving step of transmitting information (i2) to the server;
an information analysis step of extracting, by the server, analysis information (i3) for detecting an abnormal symptom of the user from the first voice information (i1) and the second voice information (i2);
an abnormal symptom detection step in which the server analyzes the analysis information (i3) to detect abnormal symptoms caused by the user's mental or physical disease; and
a question transmission step in which the server transmits, by the server, the question information (i4) for deriving the disease to the talker terminal after detecting the abnormality;
Conversation service providing method comprising a.
제1항에 있어서,
상기 정보분석단계는,
상기 서버가, 상기 제1음성정보(i1)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계; 및
상기 서버가, 상기 제2음성정보(i2)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
According to claim 1,
The information analysis step is
The server extracts, from the first voice information (i1), at least one of the first language information (i1a) corresponding to a natural language among the analysis information (i3) and the sound information (i1b) according to the emotional state of the user first analysis step; and
a second analysis step of extracting, by the server, second language information (i2a) corresponding to a natural language among the analysis information (i3) from the second voice information (i2);
Conversation service providing method comprising a.
제2항에 있어서,
상기 이상징후 감지단계는,
상기 서버가, 상기 제1언어정보(i1a)와 상기 제2언어정보(i2a)를 매칭하는 언어매칭단계;
상기 서버가, 상기 소리정보(i1b)를 분석하는 소리감지단계; 및
상기 서버가, 상기 제1언어정보(i1a)가 상기 제2언어정보(i2a)에 매칭되지 않거나, 상기 소리정보(i1b)가 정상범위를 벗어나는 경우 상기 이상징후를 감지하여, 상기 질문정보(i4)를 상기 대화자단말기로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
3. The method of claim 2,
The abnormal symptom detection step is,
a language matching step in which the server matches the first language information (i1a) and the second language information (i2a);
a sound detection step in which the server analyzes the sound information (i1b); and
The server, when the first language information (i1a) does not match the second language information (i2a) or when the sound information (i1b) is out of a normal range, detects the abnormal sign, and the question information (i4) ) a control signal output step of outputting a control signal (s1) for transmitting to the talker terminal;
Conversation service providing method comprising a.
제2항에 있어서,
상기 소리정보(i1b)는 상기 사용자의 음성의 세기, 상기 사용자의 음성의 높낮이 및 상기 사용자의 말의 빠르기 중 하나 이상을 포함하는 것을 특징으로 하는 대화 서비스 제공 방법.
3. The method of claim 2,
The sound information (i1b) comprises at least one of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.
사용자의 제1음성정보(i1)를 입력받는 사용자단말기;
상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및
상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;
를 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.
a user terminal for receiving the user's first voice information (i1);
a chatter terminal communicatively connected to the user terminal and receiving second voice information (i2) of a chatter having a conversation with the user; and
The user receives the first voice information (i1) from the user terminal and the second voice information (i2) from the talker terminal, and receives the first voice information (i1) and the second voice information (i2) from the user The analysis information (i3) for detecting an abnormal symptom of ) a server for transmitting to the talker terminal;
Conversation service providing system comprising a.
제5항에 있어서,
상기 서버는,
상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받는 대화수신모듈; 및
상기 대화수신모듈로부터 상기 제1음성정보(i1) 및 상기 제2음성정보(i2)를 전송받아, 상기 제1음성정보(i1)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 상기 제2음성정보(i2)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈;
을 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.







6. The method of claim 5,
The server is
a conversation receiving module receiving the first voice information (i1) from the user terminal and receiving the second voice information (i2) from the talker terminal; and
Receives the first voice information (i1) and the second voice information (i2) from the conversation receiving module, and receives the first language information corresponding to a natural language among the analysis information (i3) from the first voice information (i1) At least one of (i1a) and sound information (i1b) according to the user's emotional state is extracted, and second language information (i2a) corresponding to a natural language among the analysis information (i3) from the second voice information (i2) information analysis module for extracting;
Conversation service providing system comprising a.







KR1020200091023A 2020-07-22 2020-07-22 Method and system for providing talk service KR102412412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200091023A KR102412412B1 (en) 2020-07-22 2020-07-22 Method and system for providing talk service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200091023A KR102412412B1 (en) 2020-07-22 2020-07-22 Method and system for providing talk service

Publications (2)

Publication Number Publication Date
KR20220012470A true KR20220012470A (en) 2022-02-04
KR102412412B1 KR102412412B1 (en) 2022-06-24

Family

ID=80268385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200091023A KR102412412B1 (en) 2020-07-22 2020-07-22 Method and system for providing talk service

Country Status (1)

Country Link
KR (1) KR102412412B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (en) * 2010-12-22 2012-07-02 한국전자통신연구원 Method and apparatus for diagnosis of alzheimer by using voice calls of phones
JP2018148987A (en) * 2017-03-10 2018-09-27 パイオニア株式会社 Determination device
KR20190033882A (en) * 2017-09-22 2019-04-01 주식회사 원더풀플랫폼 User care system using chatbot
KR102066225B1 (en) * 2019-03-12 2020-01-14 가천대학교 산학협력단 Smart health care apparatus, system and method using artificial intelligence
KR20200006738A (en) * 2018-07-11 2020-01-21 현대자동차주식회사 Dialogue system, and dialogue processing method
KR20200043800A (en) * 2018-10-18 2020-04-28 주식회사 셀바스에이아이 Method for predicting state of mental health and device for predicting state of mental health using the same
KR20200045821A (en) 2018-10-23 2020-05-06 삼성전자주식회사 Electronic device providing dialogue service based on electronic medical record and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (en) * 2010-12-22 2012-07-02 한국전자통신연구원 Method and apparatus for diagnosis of alzheimer by using voice calls of phones
JP2018148987A (en) * 2017-03-10 2018-09-27 パイオニア株式会社 Determination device
KR20190033882A (en) * 2017-09-22 2019-04-01 주식회사 원더풀플랫폼 User care system using chatbot
KR20200006738A (en) * 2018-07-11 2020-01-21 현대자동차주식회사 Dialogue system, and dialogue processing method
KR20200043800A (en) * 2018-10-18 2020-04-28 주식회사 셀바스에이아이 Method for predicting state of mental health and device for predicting state of mental health using the same
KR20200045821A (en) 2018-10-23 2020-05-06 삼성전자주식회사 Electronic device providing dialogue service based on electronic medical record and method thereof
KR102066225B1 (en) * 2019-03-12 2020-01-14 가천대학교 산학협력단 Smart health care apparatus, system and method using artificial intelligence

Also Published As

Publication number Publication date
KR102412412B1 (en) 2022-06-24

Similar Documents

Publication Publication Date Title
US10930277B2 (en) Configuration of voice controlled assistant
US11087769B1 (en) User authentication for voice-input devices
EP3050051B1 (en) In-call virtual assistants
US10708423B2 (en) Method and apparatus for processing voice information to determine emotion based on volume and pacing of the voice
US20060085183A1 (en) System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech
WO2016045479A1 (en) Customer service call processing method and apparatus
EP3711306A1 (en) Interactive system for hearing devices
US20180285068A1 (en) Processing method of audio control and electronic device thereof
US20210241768A1 (en) Portable audio device with voice capabilities
US20220246147A1 (en) Systems and methods for automating voice commands
US11862153B1 (en) System for recognizing and responding to environmental noises
US20160366528A1 (en) Communication system, audio server, and method for operating a communication system
JP6339892B2 (en) Remote monitoring system and remote monitoring method
JP2014232258A (en) Coordination business supporting device, method and program
KR102412412B1 (en) Method and system for providing talk service
KR20100081534A (en) Multilingual dialogue system and method thereof
US10862841B1 (en) Systems and methods for automating voice commands
WO2017171756A1 (en) Indicator to indicate a state of a personal assistant application
Lopez et al. An aging-focused heuristic evaluation of home automation controls
KR20220140304A (en) Video learning systems for recognize learners' voice commands
JP2021177598A (en) Speech processing system, speech processing method, and speech processing program
JP2019074865A (en) Conversation collection device, conversation collection system, and conversation collection method
US11445056B1 (en) Telephone system for the hearing impaired
JP7293863B2 (en) Speech processing device, speech processing method and program
JP2017123517A (en) Communication support device, communication support method and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant