KR20220012470A - Method and system for providing talk service - Google Patents
Method and system for providing talk service Download PDFInfo
- Publication number
- KR20220012470A KR20220012470A KR1020200091023A KR20200091023A KR20220012470A KR 20220012470 A KR20220012470 A KR 20220012470A KR 1020200091023 A KR1020200091023 A KR 1020200091023A KR 20200091023 A KR20200091023 A KR 20200091023A KR 20220012470 A KR20220012470 A KR 20220012470A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- voice
- terminal
- server
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Abstract
Description
본 발명은 사용자의 음성정보를 통해 사용자의 정신적 또는 신체적 질환정보를 도출하여 관리자에게 제공함으로써, 사용자를 능동적으로 케어할 수 있는 대화 서비스 제공방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing a conversation service that can actively take care of a user by deriving mental or physical disease information of a user through the user's voice information and providing it to an administrator.
최근 인공지능 비서 기기로 활용되는 스마트 스피커 또는 도우미 로봇의 보급이 증가함에 따라, 사용자들은 음성으로 뉴스나 날씨정보, 생활정보 등을 기기에 문의하거나 음악을 호출하여 듣고, 음성으로 온라인 쇼핑도 대신하며, 사물 인터넷으로 연결된 가전제품과 조명을 음성으로 원격제어하며 편리하게 사용하고있다.With the recent increase in the prevalence of smart speakers or helper robots used as artificial intelligence assistant devices, users can inquire about news, weather information, and daily life information with their voices, or listen to music by calling them, and also online shopping by voice. , it is convenient to use by remotely controlling home appliances and lighting connected to the Internet of Things with voice.
아울러, 최근에는 스마트폰, 스마트 스피커 또는 도우미 로봇 등에 다양한 조건을 입력하면, 다양한 조건에 부합되는 대화 상대를 자동으로 매칭하는 독거노인 또는 1인 가구를 위한 대화 매칭 서비스가 개발되고 있다.In addition, recently, when various conditions are input to a smart phone, a smart speaker, or a helper robot, a conversation matching service for the elderly living alone or single-person households that automatically matches a conversation partner meeting various conditions has been developed.
이와 같은 대화 매칭 서비스는, 사용자의 니즈에 맞는 대화 상대를 자동으로 매칭해줌으로써, 독거노인 또는 1인 가구가 쉽게 겪을 수 있는 우울증 등의 질환을 예방할 수 있다.Such a conversation matching service can prevent diseases such as depression that can easily be experienced by the elderly living alone or single-person households by automatically matching a conversation partner that meets the user's needs.
하지만, 근래 독거노인 등 혼자서 생활하는 사람들의 숫자가 급격히 증가고 있음에 따라 이미 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구가 증가하고 있으며, 종래의 대화 매칭 서비스의 경우, 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구를 효율적, 능동적으로 케어하기 어렵다는 문제점이 있다.However, as the number of people living alone, such as the elderly living alone, is rapidly increasing in recent years, the number of single-person households suffering from various mental or physical diseases is increasing. There is a problem in that it is difficult to efficiently and actively take care of single-person households that are suffering.
이에 본 발명은 전술한 배경에서 안출된 것으로, 본 발명의 목적은, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 대화 서비스 제공방법 및 시스템을 제공하는데 있다.Accordingly, the present invention was devised in the background described above, and an object of the present invention is to transmit question information for deriving the user's disease to the talker terminal when an abnormal symptom is detected from the user's voice information, through a conversation service An object of the present invention is to provide a method and system for providing a conversation service that can actively identify and deal with a user's mental or physical illness.
본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited thereto, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공방법은, 사용자의 사용자단말기가 대화자단말기로 전송하기 위한 상기 사용자의 제1음성정보(i1)를 서버로 전송하며, 상기 사용자단말기와 대화 가능하게 연결된 대화자단말기가 상기 사용자단말기로 전송하기 위한 대화자의 제2음성정보(i2)를 상기 서버로 전송하는 음성수신단계; 상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계; 상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및 상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;를 포함한다.In order to solve this problem, the chat service providing method according to an embodiment of the present invention transmits the user's first voice information i1 to be transmitted to the chatter terminal by the user's user terminal to the server, and the user terminal and the a voice receiving step of transmitting, to the server, second voice information (i2) of the talker to be transmitted to the user terminal by the talker terminal communicatively connected; an information analysis step of extracting, by the server, analysis information (i3) for detecting an abnormal symptom of the user from the first voice information (i1) and the second voice information (i2); an abnormal symptom detection step in which the server analyzes the analysis information (i3) to detect abnormal symptoms caused by the user's mental or physical disease; and a question transmission step of transmitting, by the server, the question information (i4) for deriving the disease to the talker terminal after detecting the abnormal symptom.
또한, 이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공시스템은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기; 상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및 상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;를 포함한다.In addition, in order to solve this problem, the chat service providing system according to an embodiment of the present invention includes a user terminal for receiving the user's first voice information (i1); a chatter terminal communicatively connected to the user terminal and receiving second voice information (i2) of a chatter having a conversation with the user; and receiving the first voice information (i1) from the user terminal and receiving the second voice information (i2) from the talker terminal from the first voice information (i1) and the second voice information (i2) The analysis information (i3) for detecting an abnormal symptom of the user is extracted, but when the analysis information (i3) is analyzed to detect abnormal symptoms caused by the user's mental or physical disease, question information for deriving the disease ( and a server that transmits i4) to the talker terminal.
본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.According to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, by transmitting question information for deriving the user's disease to the talker terminal, the user's mental or physical disease can be actively treated through the conversation service. It is effective to understand and deal with.
또한, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보를 대화자단말기로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information related to a specific disease for each abnormal symptom to the talker terminal, it is possible to effectively identify the user's disease.
아울러, 본 발명의 일실시예에 의하면, 사용자의 음성정보를 기반으로 작성된 답변정보를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.In addition, according to an embodiment of the present invention, it is possible to more accurately derive the user's mental or physical illness through answer information written based on the user's voice information.
본 발명의 효과들은 이상에 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다.
도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.1 is a flowchart of a method for providing a conversation service according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a chat service providing system according to an embodiment of the present invention.
3 is a diagram illustrating an example in which a user terminal and a talker terminal transmit voice information to a server according to an embodiment of the present invention.
4 is a view showing question information according to an embodiment of the present invention.
5 is a view showing answer information according to an embodiment of the present invention.
이하, 본 발명의 일부 실시에들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is formed between each component. It should be understood that elements may be "connected," "coupled," or "connected."
도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다. 도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다. 도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다. 도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다. 도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.1 is a flowchart of a method for providing a conversation service according to an embodiment of the present invention. 2 is a block diagram showing the configuration of a chat service providing system according to an embodiment of the present invention. 3 is a diagram illustrating an example in which a user terminal and a talker terminal transmit voice information to a server according to an embodiment of the present invention. 4 is a view showing question information according to an embodiment of the present invention. 5 is a view showing answer information according to an embodiment of the present invention.
이들 도면에 도시된 바와 같이, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하며, 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 음성수신단계(s10); 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계(s20); 서버(300)가, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계(s30); 및 서버(300)가, 이상징후 감지 후, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문전송단계(s40);를 포함한다.As shown in these figures, in the chat
먼저, 음성수신단계(s10)는, 사용자의 사용자단말기(100)와 대화자의 대화자단말기(200)가 서버(300)와 연결되어, 사용자단말기(100) 및 대화자단말기(200)로 입력된 음성정보가 서버(300)로 전송되는 단계이다.First, in the voice receiving step (s10), the user's
이러한 음성수신단계(s10)를 좀더 구체적으로 설명하면, 사용자단말기(100)와 대화자단말기(200)가 대화 가능하도록 서버(300)와 연결되는 기기연결단계(s11); 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하는 제1음성정보 전송단계(s13); 및 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 제2음성정보 전송단계(s15);를 포함한다.When describing the voice receiving step (s10) in more detail, the device connection step (s11) in which the
먼저, 기기연결단계(s11)는 사용자의 사용자단말기(100)와, 사용자와 대화하는 대화자의 대화자단말기(200)가 서버(300)와 연결되는 단계이다.First, the device connection step (s11) is a step in which the user's
즉, 기기연결단계(s11)에서 사용자단말기(100)와 대화자단말기(200)는 제1음성정보(i1)와 제2음성정보(i2)를 서로 주고받을 수 있도록 서버(300)를 통해 연결된다.That is, in the device connection step (s11), the
제1음성정보 전송단계(s13)는, 사용자단말기(100)로 입력된 사용자의 제1음성정보(i1)가 서버(300)로 전송되는 단계이다.The first voice information transmission step (s13) is a step in which the user's first voice information i1 input to the
이때, 서버(300)로 전송된 사용자의 제1음성정보(i1)는 서버(300)에 의해 대화자단말기(200)로 전송된다.At this time, the user's first voice information i1 transmitted to the
그리고, 제2음성정보 전송단계(s15)는, 대화자단말기(200)로 입력된 대화자의 제2음성정보(i2)가 서버(300)로 전송되는 단계인데, 이때 제2음성정보(i2)는 서버(300)에 의해 사용자단말기(100)로 전송된다.And, the second voice information transmission step (s15) is a step in which the second voice information i2 of the talker input to the
계속해서, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 단계이다.Subsequently, in the information analysis step (s20), the
이러한 정보분석단계(s20)를 좀더 구체적으로 설명하면, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계(s21); 및 서버(300)가, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계(s23);를 포함한다.If the information analysis step (s20) will be described in more detail, the information analysis step (s20) is the
먼저, 제1분석단계(s21)는 서버(300)의 정보분석모듈(320)이 대화수신모듈(310)로부터 전송받은 제1음성정보(i1)로부터, 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 단계이다.First, in the first analysis step (s21), the
이러한 제1분석단계(s21)를 좀더 구체적으로 설명하면, 제1분석단계(s21)는 정보분석모듈(320)의 언어분석부(323)가 제1음성정보(i1)로부터 자연어에 해당하는 제1언어정보(i1a)를 추출하는 언어추출단계(s21a); 및 정보분석모듈(320)의 소리분석부(325)가 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하는 소리추출단계(s22b);를 포함한다.If the first analysis step (s21) will be described in more detail, the first analysis step (s21) is performed by the
여기서, 제1언어정보(i1a)는 의미와 전달력을 갖는 자연어로서, 음성변환부(321)에 의해 변환된 제1음성정보(i1)의 디지털정보로부터 추출될 수 있다.Here, the first language information i1a is a natural language having meaning and communicative power, and may be extracted from digital information of the first voice information i1 converted by the
아울러, 소리정보(i1b)는 사용자의 감정상태를 도출하기 위한 것으로, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.In addition, the sound information i1b is for deriving the user's emotional state, and includes one or more of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.
여기서, 음성의 세기는 제1음성정보(i1)의 크기에 관한 것으로서, 제1음성정보(i1)의 음파의 진폭을 통해 도출될 수 있으며, 진폭이 클수록 클 수 있다.Here, the intensity of the voice relates to the size of the first voice information i1, and may be derived through the amplitude of the sound wave of the first voice information i1, and may be greater as the amplitude increases.
그리고, 음성의 높낮이는 제1음성정보(i1)의 높낮이에 관한 것으로서, 제1음성정보(i1)의 음파의 진동수를 통해 도출될 수 있으며, 진동수가 클수록 높을 수 있다.And, the pitch of the voice relates to the pitch of the first voice information i1, and may be derived through the frequency of the sound wave of the first voice information i1, and may be higher as the frequency increases.
이어서, 제2분석단계(s23)는, 서버(300)의 정보분석부(320)가 대화수신모듈(310)로부터 전송된 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 단계이다.Next, in the second analysis step (s23), the
한편, 정보분석단계(s20)는 제1분석단계(s21) 이전에, 서버(300)의 음성변환부(321)가 제1음성정보(i1)와 제2음성정보(i2)를 분석정보(i3)로 변환하기 위한 디지털정보로 변환하는 음성변환단계(s25);를 더 포함한다.On the other hand, in the information analysis step (s20), before the first analysis step (s21), the
즉, 정보분석단계(s20)에서 언어분석부(323)는, 음성변환부(321)에 의해 변환된 제1음성정보(i1)와 제2음성정보(i2)의 디지털정보로부터 제1언어정보(i1a) 및 제2언어정보(i2a)를 추출할 수 있다.That is, in the information analysis step (s20), the
계속해서, 이상징후 감지단계(s30)는 서버(300)의 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 분석정보(i3)를 분석하여, 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.Subsequently, in the abnormal symptom detection step (s30), the abnormal
즉, 이상징후 감지단계(s30)는, 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 제1언어정보(i1a)와, 제2언어정보(i2a) 및 소리정보(i1b)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.That is, the abnormal symptom detection step (s30) includes the first language information (i1a), the second language information (i2a), and the sound information (i1b) received by the abnormal
이러한 이상징후 감지단계(s30)를 좀더 구체적으로 설명하면, 이상징후 감지단계(s30)는, 서버(300)가, 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 언어매칭단계(s31); 서버(300)가, 소리정보(i1b)를 분석하는 소리감지단계(s33); 및 서버(300)가, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계(s35);를 포함한다.If the abnormal symptom detection step (s30) will be described in more detail, the abnormal symptom detection step (s30) is language matching in which the
언어매칭단계(s31)는 서버(300)의 이상징후 단판모듈(330)이 정보분석모듈(320)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 전송받아 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 단계이다.In the language matching step (s31), the abnormal
즉, 언어매칭단계(s31)는 이상징후 판단모듈(330)이 사용자단말기(100)로부터 전송된 제1음성정보(i1)와, 대화자단말기(200)로부터 전송된 제2음성정보(i2)가 상호 연관성이 있는지를 판단하기 위해, 제1언어정보(i1a)와 제2언어정보(i1b)를 비교하여 분석하는 단계이다.That is, in the language matching step (s31), the first voice information (i1) transmitted from the abnormal
여기서, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a)와, 어느 하나의 제1언어정보(i1a)의 전후에 입력된 제2언정정보(i2a)를 비교하여 이상징후를 감지할 수 있다.Here, the abnormal
예를 들어, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a-2)를 분석하는 경우, 어느 하나의 제1언어정보(i1-1)와, 어느 하나의 제1언어정보(i1a-1) 전후에 입력된 제2언어정보(i2a-1,i2a-2)를 비교하여 분석한다.For example, when the abnormal
이어서, 소리감지단계(s33)는 서버(300)의 이상징후 판단모듈(330)이 정보분석모듈(320)로부터 소리정보(i1b)를 전송받아 분석하는 단계이다.Subsequently, the sound detection step (s33) is a step in which the abnormal
즉, 소리감지단계(s33)는 이상징후 판단모듈(330)이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 분석하는 단계이다.That is, the sound detection step (s33) is a step in which the abnormal
즉, 소리감지단계(s33)는 제1음성정보(i1)의 음파의 진폭과, 진동수 등을 분석하여, 사용자의 감정상태를 통해 이상징후를 감지하는 단계이다.That is, the sound sensing step (s33) is a step of detecting an abnormal symptom through the user's emotional state by analyzing the amplitude and frequency of the sound wave of the first voice information i1.
이어서, 제어신호 출력단계(s35)는, 서버(300)의 이상징후 판단모듈(330)이 제1언어정보(i1a)와 제2언어정보(i2a) 및 소리정보(i1b)를 통해 사용자의 이상징후를 감지하는 단계이다.Next, in the control signal output step (s35), the abnormal
좀더 구체적으로, 제어신호 출력단계(s35)는 이상징후 판단모듈(330)이, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 사용자에게 이상징후가 있다고 판단하여 제어신호(s1)를 출력하는 단계이다.More specifically, in the control signal output step (s35), the abnormal
예를 들어, 대화자단말기(200)로부터 취미를 묻는 제2언어정보(i2a-3)가 전송된 후, 사용자단말기(100)로부터 제2언어정보(i2a-3)와 전혀 연관성이 없는 성함과 나이를 묻는 제1언어정보(i1a-4)가 전송되는 경우, 이상징후 판단모듈(330)은 기준DB(331)에 기저장된 데이터를 바탕으로 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.(도 3 참조)For example, after the second language information i2a-3 asking for hobbies is transmitted from the
물론, 이상징후 판단모듈(330)은 사용자가 중복된 질문(i1a-4)을 반복적으로 하는 경우, 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.Of course, when the user repeatedly asks the duplicated question i1a-4, the abnormal
한편, 제어신호 출력단계(s35)에서 이상징후 판단모듈(330)은, 소리정보(i1b)를 통해 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상이, 기준DB(331)에 저장된 데이터의 정상범위를 벗어나는 경우 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.On the other hand, in the control signal output step (s35), the abnormal
이때, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.In this case, the abnormal
예를 들어, 제어신호 출력단계(s31)에서 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 후술할 질문정보 제공모듈(340)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected in the control signal output step s31, the abnormal
또한, 제어신호 출력단계(s31)에서 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.In addition, when an abnormal symptom related to depression is detected in the control signal output step s31 , the abnormal
계속해서, 질문전송단계(s40)는, 이상징후 감지단계(s30)에서 사용자의 이상징후가 감지되는 경우, 서버(300)의 질문정보 제공모듈(340)이 사용자의 정신적 또는 신체적 질환을 감지하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.Continuing, the question transmission step (s40), when an abnormal symptom of the user is detected in the abnormal symptom detection step (s30), the question
좀더 구체적으로 질문전송단계(s40)는, 질문정보 제공모듈(340)이 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.More specifically, in the question transmission step (s40), the question
여기서, 질문정보(i4)는 특정 질환을 도출하기 위해 복수개로 제공될 수 있는데, 특정 이상징후가 감지되는 경우 어느 하나가 선택되어 대화자단말기(200)로 전송될 수 있다.Here, a plurality of question information i4 may be provided to derive a specific disease, and when a specific abnormal symptom is detected, one may be selected and transmitted to the
이러한 질문정보(i4)를 좀더 구체적으로 설명하면, 질문정보(i4)는 질환 항목(i4a)별로 적어도 하나 이상의 문항(i4b)을 포함하고, 문항(i4b)에 따른 복수의 선택지(i4c)를 포함할 수 있는데, 여기서 각각의 선택지(i4c)는 특정 질환을 도출하기 위한 가중치가 서로 다르게 설정될 수 있다.To explain this question information (i4) in more detail, the question information (i4) includes at least one question (i4b) for each disease item (i4a), and includes a plurality of options (i4c) according to the question (i4b). In this case, each option i4c may have different weights for deriving a specific disease.
한편, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후별로 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.Meanwhile, the question
예를 들어, 사용자에게 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected by the user and the first control signal s1a is transmitted from the abnormal
이와 달리, 사용자에게 우울증과 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제2제어신호(s1b)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 우울증을 도출하기 위한 질문정보(i4-2)를 대화자단말기(200)로 전송할 수 있다.Contrary to this, when an abnormal symptom related to depression is detected by the user and the second control signal s1b is transmitted from the abnormal
이처럼, 본 발명의 일실시예에 의하면 사용자의 음성정보로부터 이상징후가 감지되는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.As such, according to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, the question information i4 for deriving the user's disease is transmitted to the
아울러, 본 발명의 일실시예에 의하면 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information (i4-1, i4-2) related to a specific disease for each abnormal symptom to the
한편, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 대화자단말기(200)가, 질문정보(i4)에 따른 답변정보(i5)를 서버(300)로 전송하는 답변수신단계(s50); 및 서버(300)가, 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송하는 질환정보 전송단계(s60);를 더 포함한다.On the other hand, in the dialog
먼저, 답변수신단계(s50)는 대화자단말기(200)가, 질문정보(i3)에 따른 답변정보(i5)를 서버(300)의 답변정보 분석모듈(350)로 전송하는 단계이다.First, the answer receiving step (s50) is a step in which the
여기서, 답변정보(i5)는 대화자가 사용자로부터 수신된 제1음성정보(i1)를 기반으로 입력할 수 있다.Here, the answer information i5 may be input by the talker based on the first voice information i1 received from the user.
또한, 답변정보(i5)는 질문정보(i4)에 대화자가 입력한 선택정보(i7)가 포함된 것으로, 선택정보(i7)는 질환 항목(i4a)별로 제시된 복수의 선택지(i4c) 중 특정 선택지(i4c1,i4c2,i4c3)일 수 있다.In addition, the answer information (i5) includes the selection information (i7) input by the dialoguer in the question information (i4), and the selection information (i7) is a specific option among a plurality of options (i4c) presented for each disease item (i4a) It can be (i4c1, i4c2, i4c3).
이어서, 질환정보 전송단계(s60)는, 서버(300)의 답변정보 분석모듈(350)이, 답변정보(i5)를 통해 사용자의 질환을 도출하는 단계이다.Next, the disease information transmission step (s60) is a step in which the answer
이러한 질환정보 전송단계(s60)를 좀더 구체적으로 설명하면, 질환정보 전송단계(s60)는 서버(300)의 답변정보 분석모듈(350)이 답변정보(i5)를 통해 사용자의 질환을 도출하여 제어신호(s2)를 출력하는 답변정보 분석단계(s61); 및 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.If the disease information transmission step (s60) will be described in more detail, the disease information transmission step (s60) is controlled by the response
답변정보 분석단계(s61)는 답변정보 분석모듈(350)이 답변정보(i5)를 분석하여 제어신호(s2)를 출력하는 단계로, 답변정보(i5)를 분석한 뒤 사용자의 질환을 도출하여 특정 질환에 대한 질환정보(i6)가 출력되도록 제어신호(s2)를 출력하는 단계이다.The answer information analysis step (s61) is a step in which the answer
예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.For example, the answer
이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 점수로 환산한다.Contrary to this, the answer
그리고, 답변정보 분석모듈(305)은 가중치에 대한 점수가 기설정된 정상범위를 벗어나는 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.Then, the answer information analysis module 305 outputs a control signal s2 to transmit disease information i6 for a specific disease to the
이어서, 정보전송단계(s63)는 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.Subsequently, in the information transmission step (s63), the disease information transmission module 360 of the
여기서, 질환정보(i6)는 답변정보(i5)와, 답변정보(i5)에 의해 도출된 사용자의 정신적 또는 신체적 질환에 대한 정보가 포함될 수 있는데, 여기서 질환은 치매, 우울증, 조울증 등을 포함할 수 있다.Here, the disease information (i6) may include the answer information (i5) and information on the user's mental or physical disease derived by the answer information (i5), where the disease may include dementia, depression, bipolar disorder, etc. can
이처럼, 본 발명의 일실시예에 의하면, 대화자가 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 질환을 도출함으로써, 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.As such, according to an embodiment of the present invention, the user's mental or physical illness is more accurately derived by the conversationalist deriving the user's disease through the answer information (i5) written based on the user's first voice information (i1) can do.
한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기(100); 사용자단말기(100)와 대화 가능하게 연결되며, 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기(200); 및 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받아 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 질환을 도출하기 위한 질문정보(i4)를 대화자단말기로 전송하는 서버(300);를 포함한다.On the other hand, the chat
사용자단말기(100)는 사용자의 제1음성정보(i1)를 입력받아 서버(300) 및 대화자단말기(200)로 전송하고, 대화자단말기(200)는 대화자의 제2음성정보(i1)를 입력받아 서버(300) 및 사용자단말기(200)로 전송한다.The
또한, 대화자단말기(200)는 서버(300)로부터 질문정보(i4)가 전송되며, 질문정보(i4)에 따른 답변정보(i5)를 입력받아 서버(300)로 전송한다.In addition, the
여기서, 사용자단말기(100)와 대화자단말기(200)는 서버(300)를 통해 대화 가능하게 연결되는데, 이러한 사용자단말기(100)와 대화자단말기(200)는 일예로 스마트폰, 태블릿 PC, 도우미 로봇, 스마트 스피커 등으로 제공될 수 있다.Here, the
계속해서, 서버(300)는 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출한다.Subsequently, the
그리고, 서버(300)는 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하여, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송한다.Then, the
또한, 서버(300)는 대화자단말기(200)로부터 질문정보(i3)에 따른 답변정보(i5)를 전송받는다.Also, the
그리고, 서버(300)는 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송한다.Then, the
이러한 서버(300)의 구조를 좀더 구체적으로 설명하면, 서버(300)는, 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받는 대화수신모듈(310); 및 대화수신모듈(310)로부터 제1음성정보(i1) 및 제2음성정보(i2)를 전송받아, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈(320);을 포함한다.To describe the structure of the
그리고, 본 발명의 일실시예에 의한 서버(300)는 정보분석모듈(320)로부터 분석정보(i3)를 전송받아 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 판단모듈(330) 및 이상징후 판단모듈(330)이 이상징후를 감지하는 경우 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문정보 제공모듈(340)을 더 포함한다.In addition, the
대화수신모듈(310)은 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 정보분석모듈(320)로 전송한다.The
정보분석모듈(320)은 음성변환부(321), 언어분석부(323) 및 소리분석부(325)를 포함한다.The
음성변환부(321)는 대화수신모듈(310)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받으며, 제1음성정보(i1)와 제2음성정보(i2)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 추출할 수 있도록, 제1음성정보(i1)와 제2음성정보(i2)를 디지털정보로 변환한다.The
언어분석부(323)는 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)를 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하여, 제1언어정보(i1a)와 제2언어정보(i2a)를 이상징후 판단모듈(330)로 전송한다.The
소리분석부(325)는 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하여 이상징후 판단모듈(330)로 전송한다.The
여기서, 소리정보(i1b)는 앞서 설명한 바와 같이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.Here, as described above, the sound information i1b includes one or more of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.
이어서, 이상징후 판단모듈(330)은 분석정보(i3)를 분석하여 사용자의 질환에 의한 이상징후를 감지한다.Next, the abnormal
좀더 구체적으로, 이상징후 판단모듈(330)은 제1언어정보(i1a)와 제2언어정보(i2a)를 분석하여, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않는 경우 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.More specifically, the abnormal
그리고, 이상징후 판단모듈(330)은 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.Then, the abnormal
여기서, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.Here, the abnormal
예를 들어, 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 질문정보 제공모듈(340)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected, the abnormal
또한, 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.Also, when an abnormal symptom related to depression is detected, the abnormal
이어서, 질문정보 제공모듈(340)은 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송한다.Subsequently, the question
여기서, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후에 따라 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.Here, the question
예를 들어, 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.For example, when an abnormal symptom related to dementia is detected and the first control signal s1a is transmitted from the abnormal
한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은 답변정보 분석모듈(350) 및 질환정보 전송모듈(360)을 더 포함한다.Meanwhile, the dialogue
답변정보 분석모듈(350)은 대화자단말기(200)로부터 답변정보(i5)를 전송받아 답변정보(i5)로부터 사용자의 질환을 도출한다.The answer
그리고, 답변정보 분석모듈(350)은 답변정보(i5)를 통해 사용자의 질환을 도출한 뒤, 사용자의 정신적 또는 신체적 질환정보(i6)가 관리자단말기(400)로 전송되도록 제어신호(s2)를 출력한다.Then, the answer
예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.For example, the answer
이때, 질환정보 전송모듈(360)은 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송한다.In this case, the disease information transmission module 360 transmits disease information i6 for a specific disease to the
이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 분석하여, 특정 선택지(i4c1,i4c2,i4c3)의 가중치가 기설정된 정상범위를 벗어나는 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.On the other hand, the answer
이어서, 질환정보 전송모듈(360)은 답변정보 분석모듈(350)로부터 제어신호(s2)를 전송받아, 특정 질환에 따른 질환정보(i6)를 관리자의 관리자단말기(400)로 전송한다.Subsequently, the disease information transmission module 360 receives the control signal s2 from the answer
여기서, 관리자단말기(400)는 사용자에게 정신적 또는 신체적 질환이 감지되는 경우 사용자를 케어하기 위한, 관리자(ex: 의사, 지인 등등)의 단말기로, 스마트폰, 태블릿PC 등으로 제공될 수 있다.Here, the
이상에서 설명한 바와 같이, 본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.As described above, according to an embodiment of the present invention, when an abnormal symptom is detected from the user's voice information, the question information i4 for deriving the user's disease is transmitted to the
아울러, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by transmitting specific question information (i4-1, i4-2) related to a specific disease for each abnormal symptom to the
아울러, 본 발명의 일실시예에 의하면, 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.In addition, according to an embodiment of the present invention, the user's mental or physical illness can be more accurately derived through the answer information i5 created based on the user's first voice information i1.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "include", "comprise" or "have" described above mean that the corresponding component may be embedded unless otherwise stated, so excluding other components is not recommended. It should be construed as being able to further include other components. All terms including technical and scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms commonly used, such as those defined in the dictionary, should be interpreted as being consistent with the meaning of the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에 서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시에에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며 , 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these implementations. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
10 : 대화 서비스 제공방법
20 : 대화 서비스 제공시스템
100 : 사용자단말기
200 : 대화자단말기
300 : 서버
310 : 대화수신모듈
320 : 정보분석모듈
321 : 음성변환부
323 : 언어분석부
325 : 소리분석부
330 : 이상징후 판단모듈
331 : 기준DB
340 : 질문정보 제공모듈
350 : 답변정보 분석모듈
360 : 질환정보 전송모듈
400 : 관리자단말기10: How to provide conversation service
20: dialogue service providing system
100: user terminal
200: conversational terminal
300 : server
310: dialog receiving module
320: information analysis module
321: voice conversion unit
323: language analysis unit
325: sound analysis unit
330: abnormal symptom determination module
331: reference DB
340: question information providing module
350: answer information analysis module
360: disease information transmission module
400: manager terminal
Claims (6)
상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계;
상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및
상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
The user's user terminal transmits the user's first voice information i1 for transmission to the talker terminal to the server, and the talker's second voice is transmitted to the user terminal by the talker terminal communicatively connected to the user terminal a voice receiving step of transmitting information (i2) to the server;
an information analysis step of extracting, by the server, analysis information (i3) for detecting an abnormal symptom of the user from the first voice information (i1) and the second voice information (i2);
an abnormal symptom detection step in which the server analyzes the analysis information (i3) to detect abnormal symptoms caused by the user's mental or physical disease; and
a question transmission step in which the server transmits, by the server, the question information (i4) for deriving the disease to the talker terminal after detecting the abnormality;
Conversation service providing method comprising a.
상기 정보분석단계는,
상기 서버가, 상기 제1음성정보(i1)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계; 및
상기 서버가, 상기 제2음성정보(i2)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
According to claim 1,
The information analysis step is
The server extracts, from the first voice information (i1), at least one of the first language information (i1a) corresponding to a natural language among the analysis information (i3) and the sound information (i1b) according to the emotional state of the user first analysis step; and
a second analysis step of extracting, by the server, second language information (i2a) corresponding to a natural language among the analysis information (i3) from the second voice information (i2);
Conversation service providing method comprising a.
상기 이상징후 감지단계는,
상기 서버가, 상기 제1언어정보(i1a)와 상기 제2언어정보(i2a)를 매칭하는 언어매칭단계;
상기 서버가, 상기 소리정보(i1b)를 분석하는 소리감지단계; 및
상기 서버가, 상기 제1언어정보(i1a)가 상기 제2언어정보(i2a)에 매칭되지 않거나, 상기 소리정보(i1b)가 정상범위를 벗어나는 경우 상기 이상징후를 감지하여, 상기 질문정보(i4)를 상기 대화자단말기로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계;
를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
3. The method of claim 2,
The abnormal symptom detection step is,
a language matching step in which the server matches the first language information (i1a) and the second language information (i2a);
a sound detection step in which the server analyzes the sound information (i1b); and
The server, when the first language information (i1a) does not match the second language information (i2a) or when the sound information (i1b) is out of a normal range, detects the abnormal sign, and the question information (i4) ) a control signal output step of outputting a control signal (s1) for transmitting to the talker terminal;
Conversation service providing method comprising a.
상기 소리정보(i1b)는 상기 사용자의 음성의 세기, 상기 사용자의 음성의 높낮이 및 상기 사용자의 말의 빠르기 중 하나 이상을 포함하는 것을 특징으로 하는 대화 서비스 제공 방법.
3. The method of claim 2,
The sound information (i1b) comprises at least one of the intensity of the user's voice, the pitch of the user's voice, and the speed of the user's speech.
상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및
상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;
를 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.
a user terminal for receiving the user's first voice information (i1);
a chatter terminal communicatively connected to the user terminal and receiving second voice information (i2) of a chatter having a conversation with the user; and
The user receives the first voice information (i1) from the user terminal and the second voice information (i2) from the talker terminal, and receives the first voice information (i1) and the second voice information (i2) from the user The analysis information (i3) for detecting an abnormal symptom of ) a server for transmitting to the talker terminal;
Conversation service providing system comprising a.
상기 서버는,
상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받는 대화수신모듈; 및
상기 대화수신모듈로부터 상기 제1음성정보(i1) 및 상기 제2음성정보(i2)를 전송받아, 상기 제1음성정보(i1)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 상기 제2음성정보(i2)로부터 상기 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈;
을 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.
6. The method of claim 5,
The server is
a conversation receiving module receiving the first voice information (i1) from the user terminal and receiving the second voice information (i2) from the talker terminal; and
Receives the first voice information (i1) and the second voice information (i2) from the conversation receiving module, and receives the first language information corresponding to a natural language among the analysis information (i3) from the first voice information (i1) At least one of (i1a) and sound information (i1b) according to the user's emotional state is extracted, and second language information (i2a) corresponding to a natural language among the analysis information (i3) from the second voice information (i2) information analysis module for extracting;
Conversation service providing system comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091023A KR102412412B1 (en) | 2020-07-22 | 2020-07-22 | Method and system for providing talk service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091023A KR102412412B1 (en) | 2020-07-22 | 2020-07-22 | Method and system for providing talk service |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220012470A true KR20220012470A (en) | 2022-02-04 |
KR102412412B1 KR102412412B1 (en) | 2022-06-24 |
Family
ID=80268385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200091023A KR102412412B1 (en) | 2020-07-22 | 2020-07-22 | Method and system for providing talk service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102412412B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120070668A (en) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | Method and apparatus for diagnosis of alzheimer by using voice calls of phones |
JP2018148987A (en) * | 2017-03-10 | 2018-09-27 | パイオニア株式会社 | Determination device |
KR20190033882A (en) * | 2017-09-22 | 2019-04-01 | 주식회사 원더풀플랫폼 | User care system using chatbot |
KR102066225B1 (en) * | 2019-03-12 | 2020-01-14 | 가천대학교 산학협력단 | Smart health care apparatus, system and method using artificial intelligence |
KR20200006738A (en) * | 2018-07-11 | 2020-01-21 | 현대자동차주식회사 | Dialogue system, and dialogue processing method |
KR20200043800A (en) * | 2018-10-18 | 2020-04-28 | 주식회사 셀바스에이아이 | Method for predicting state of mental health and device for predicting state of mental health using the same |
KR20200045821A (en) | 2018-10-23 | 2020-05-06 | 삼성전자주식회사 | Electronic device providing dialogue service based on electronic medical record and method thereof |
-
2020
- 2020-07-22 KR KR1020200091023A patent/KR102412412B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120070668A (en) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | Method and apparatus for diagnosis of alzheimer by using voice calls of phones |
JP2018148987A (en) * | 2017-03-10 | 2018-09-27 | パイオニア株式会社 | Determination device |
KR20190033882A (en) * | 2017-09-22 | 2019-04-01 | 주식회사 원더풀플랫폼 | User care system using chatbot |
KR20200006738A (en) * | 2018-07-11 | 2020-01-21 | 현대자동차주식회사 | Dialogue system, and dialogue processing method |
KR20200043800A (en) * | 2018-10-18 | 2020-04-28 | 주식회사 셀바스에이아이 | Method for predicting state of mental health and device for predicting state of mental health using the same |
KR20200045821A (en) | 2018-10-23 | 2020-05-06 | 삼성전자주식회사 | Electronic device providing dialogue service based on electronic medical record and method thereof |
KR102066225B1 (en) * | 2019-03-12 | 2020-01-14 | 가천대학교 산학협력단 | Smart health care apparatus, system and method using artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
KR102412412B1 (en) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10930277B2 (en) | Configuration of voice controlled assistant | |
US11087769B1 (en) | User authentication for voice-input devices | |
EP3050051B1 (en) | In-call virtual assistants | |
US10708423B2 (en) | Method and apparatus for processing voice information to determine emotion based on volume and pacing of the voice | |
US20060085183A1 (en) | System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech | |
WO2016045479A1 (en) | Customer service call processing method and apparatus | |
EP3711306A1 (en) | Interactive system for hearing devices | |
US20180285068A1 (en) | Processing method of audio control and electronic device thereof | |
US20210241768A1 (en) | Portable audio device with voice capabilities | |
US20220246147A1 (en) | Systems and methods for automating voice commands | |
US11862153B1 (en) | System for recognizing and responding to environmental noises | |
US20160366528A1 (en) | Communication system, audio server, and method for operating a communication system | |
JP6339892B2 (en) | Remote monitoring system and remote monitoring method | |
JP2014232258A (en) | Coordination business supporting device, method and program | |
KR102412412B1 (en) | Method and system for providing talk service | |
KR20100081534A (en) | Multilingual dialogue system and method thereof | |
US10862841B1 (en) | Systems and methods for automating voice commands | |
WO2017171756A1 (en) | Indicator to indicate a state of a personal assistant application | |
Lopez et al. | An aging-focused heuristic evaluation of home automation controls | |
KR20220140304A (en) | Video learning systems for recognize learners' voice commands | |
JP2021177598A (en) | Speech processing system, speech processing method, and speech processing program | |
JP2019074865A (en) | Conversation collection device, conversation collection system, and conversation collection method | |
US11445056B1 (en) | Telephone system for the hearing impaired | |
JP7293863B2 (en) | Speech processing device, speech processing method and program | |
JP2017123517A (en) | Communication support device, communication support method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |