KR102412412B1 - 대화 서비스 제공방법 및 시스템 - Google Patents

대화 서비스 제공방법 및 시스템 Download PDF

Info

Publication number
KR102412412B1
KR102412412B1 KR1020200091023A KR20200091023A KR102412412B1 KR 102412412 B1 KR102412412 B1 KR 102412412B1 KR 1020200091023 A KR1020200091023 A KR 1020200091023A KR 20200091023 A KR20200091023 A KR 20200091023A KR 102412412 B1 KR102412412 B1 KR 102412412B1
Authority
KR
South Korea
Prior art keywords
information
user
voice
terminal
server
Prior art date
Application number
KR1020200091023A
Other languages
English (en)
Other versions
KR20220012470A (ko
Inventor
구승엽
황성택
박동원
김용웅
허준구
Original Assignee
주식회사 원더풀플랫폼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 원더풀플랫폼 filed Critical 주식회사 원더풀플랫폼
Priority to KR1020200091023A priority Critical patent/KR102412412B1/ko
Publication of KR20220012470A publication Critical patent/KR20220012470A/ko
Application granted granted Critical
Publication of KR102412412B1 publication Critical patent/KR102412412B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명은 사용자의 음성정보를 통해 사용자의 정신적 또는 신체적 질환정보를 도출하여 관리자에게 제공함으로써, 사용자를 능동적으로 케어할 수 있는 대화 서비스 제공방법 및 시스템에 관한 것이다.
본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.

Description

대화 서비스 제공방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING TALK SERVICE}
본 발명은 사용자의 음성정보를 통해 사용자의 정신적 또는 신체적 질환정보를 도출하여 관리자에게 제공함으로써, 사용자를 능동적으로 케어할 수 있는 대화 서비스 제공방법 및 시스템에 관한 것이다.
최근 인공지능 비서 기기로 활용되는 스마트 스피커 또는 도우미 로봇의 보급이 증가함에 따라, 사용자들은 음성으로 뉴스나 날씨정보, 생활정보 등을 기기에 문의하거나 음악을 호출하여 듣고, 음성으로 온라인 쇼핑도 대신하며, 사물 인터넷으로 연결된 가전제품과 조명을 음성으로 원격제어하며 편리하게 사용하고있다.
아울러, 최근에는 스마트폰, 스마트 스피커 또는 도우미 로봇 등에 다양한 조건을 입력하면, 다양한 조건에 부합되는 대화 상대를 자동으로 매칭하는 독거노인 또는 1인 가구를 위한 대화 매칭 서비스가 개발되고 있다.
이와 같은 대화 매칭 서비스는, 사용자의 니즈에 맞는 대화 상대를 자동으로 매칭해줌으로써, 독거노인 또는 1인 가구가 쉽게 겪을 수 있는 우울증 등의 질환을 예방할 수 있다.
하지만, 근래 독거노인 등 혼자서 생활하는 사람들의 숫자가 급격히 증가고 있음에 따라 이미 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구가 증가하고 있으며, 종래의 대화 매칭 서비스의 경우, 다양한 정신적 또는 신체적 질환을 겪고 있는 1인 가구를 효율적, 능동적으로 케어하기 어렵다는 문제점이 있다.
한국공개특허 제10-2020-0045821호(공개일 : 2020. 05. 06)
이에 본 발명은 전술한 배경에서 안출된 것으로, 본 발명의 목적은, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 대화 서비스 제공방법 및 시스템을 제공하는데 있다.
본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공방법은, 사용자의 사용자단말기가 대화자단말기로 전송하기 위한 상기 사용자의 제1음성정보(i1)를 서버로 전송하며, 상기 사용자단말기와 대화 가능하게 연결된 대화자단말기가 상기 사용자단말기로 전송하기 위한 대화자의 제2음성정보(i2)를 상기 서버로 전송하는 음성수신단계; 상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계; 상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및 상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;를 포함한다.
또한, 이러한 과제를 해결하기 위해 본 발명의 일실시예 의한 대화 서비스 제공시스템은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기; 상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및 상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;를 포함한다.
본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보를 대화자단말기로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.
또한, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보를 대화자단말기로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.
아울러, 본 발명의 일실시예에 의하면, 사용자의 음성정보를 기반으로 작성된 답변정보를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.
본 발명의 효과들은 이상에 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다.
도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.
이하, 본 발명의 일부 실시에들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도있다고 이해되어야 할 것이다.
도 1은 본 발명의 일실시예에 의한 대화 서비스 제공방법의 순서도이다. 도 2는 본 발명의 일실시예에 의한 대화 서비스 제공시스템의 구성을 나타낸 블록도이다. 도 3은 본 발명의 일실시예에 의한 사용자단말기와 대화자단말기가 음성정보를 서버로 전송하는 예를 나타낸 도면이다. 도 4는 본 발명의 일실시예에 의한 질문정보를 나타낸 도면이다. 도 5는 본 발명의 일실시예에 의한 답변정보를 나타낸 도면이다.
이들 도면에 도시된 바와 같이, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하며, 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 음성수신단계(s10); 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계(s20); 서버(300)가, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 감지단계(s30); 및 서버(300)가, 이상징후 감지 후, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문전송단계(s40);를 포함한다.
먼저, 음성수신단계(s10)는, 사용자의 사용자단말기(100)와 대화자의 대화자단말기(200)가 서버(300)와 연결되어, 사용자단말기(100) 및 대화자단말기(200)로 입력된 음성정보가 서버(300)로 전송되는 단계이다.
이러한 음성수신단계(s10)를 좀더 구체적으로 설명하면, 사용자단말기(100)와 대화자단말기(200)가 대화 가능하도록 서버(300)와 연결되는 기기연결단계(s11); 사용자의 사용자단말기(100)가 대화자단말기(200)로 전송하기 위한 사용자의 제1음성정보(i1)를 서버(300)로 전송하는 제1음성정보 전송단계(s13); 및 사용자단말기(100)와 대화 가능하게 연결된 대화자단말기(200)가 사용자단말기(100)로 전송하기 위한 대화자의 제2음성정보(i2)를 서버(300)로 전송하는 제2음성정보 전송단계(s15);를 포함한다.
먼저, 기기연결단계(s11)는 사용자의 사용자단말기(100)와, 사용자와 대화하는 대화자의 대화자단말기(200)가 서버(300)와 연결되는 단계이다.
즉, 기기연결단계(s11)에서 사용자단말기(100)와 대화자단말기(200)는 제1음성정보(i1)와 제2음성정보(i2)를 서로 주고받을 수 있도록 서버(300)를 통해 연결된다.
제1음성정보 전송단계(s13)는, 사용자단말기(100)로 입력된 사용자의 제1음성정보(i1)가 서버(300)로 전송되는 단계이다.
이때, 서버(300)로 전송된 사용자의 제1음성정보(i1)는 서버(300)에 의해 대화자단말기(200)로 전송된다.
그리고, 제2음성정보 전송단계(s15)는, 대화자단말기(200)로 입력된 대화자의 제2음성정보(i2)가 서버(300)로 전송되는 단계인데, 이때 제2음성정보(i2)는 서버(300)에 의해 사용자단말기(100)로 전송된다.
계속해서, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 단계이다.
이러한 정보분석단계(s20)를 좀더 구체적으로 설명하면, 정보분석단계(s20)는, 서버(300)가, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계(s21); 및 서버(300)가, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계(s23);를 포함한다.
먼저, 제1분석단계(s21)는 서버(300)의 정보분석모듈(320)이 대화수신모듈(310)로부터 전송받은 제1음성정보(i1)로부터, 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 단계이다.
이러한 제1분석단계(s21)를 좀더 구체적으로 설명하면, 제1분석단계(s21)는 정보분석모듈(320)의 언어분석부(323)가 제1음성정보(i1)로부터 자연어에 해당하는 제1언어정보(i1a)를 추출하는 언어추출단계(s21a); 및 정보분석모듈(320)의 소리분석부(325)가 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하는 소리추출단계(s22b);를 포함한다.
여기서, 제1언어정보(i1a)는 의미와 전달력을 갖는 자연어로서, 음성변환부(321)에 의해 변환된 제1음성정보(i1)의 디지털정보로부터 추출될 수 있다.
아울러, 소리정보(i1b)는 사용자의 감정상태를 도출하기 위한 것으로, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.
여기서, 음성의 세기는 제1음성정보(i1)의 크기에 관한 것으로서, 제1음성정보(i1)의 음파의 진폭을 통해 도출될 수 있으며, 진폭이 클수록 클 수 있다.
그리고, 음성의 높낮이는 제1음성정보(i1)의 높낮이에 관한 것으로서, 제1음성정보(i1)의 음파의 진동수를 통해 도출될 수 있으며, 진동수가 클수록 높을 수 있다.
이어서, 제2분석단계(s23)는, 서버(300)의 정보분석부(320)가 대화수신모듈(310)로부터 전송된 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 단계이다.
한편, 정보분석단계(s20)는 제1분석단계(s21) 이전에, 서버(300)의 음성변환부(321)가 제1음성정보(i1)와 제2음성정보(i2)를 분석정보(i3)로 변환하기 위한 디지털정보로 변환하는 음성변환단계(s25);를 더 포함한다.
즉, 정보분석단계(s20)에서 언어분석부(323)는, 음성변환부(321)에 의해 변환된 제1음성정보(i1)와 제2음성정보(i2)의 디지털정보로부터 제1언어정보(i1a) 및 제2언어정보(i2a)를 추출할 수 있다.
계속해서, 이상징후 감지단계(s30)는 서버(300)의 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 분석정보(i3)를 분석하여, 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.
즉, 이상징후 감지단계(s30)는, 이상징후 판단모듈(330)이 정보분석부(320)로부터 전송받은 제1언어정보(i1a)와, 제2언어정보(i2a) 및 소리정보(i1b)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 단계이다.
이러한 이상징후 감지단계(s30)를 좀더 구체적으로 설명하면, 이상징후 감지단계(s30)는, 서버(300)가, 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 언어매칭단계(s31); 서버(300)가, 소리정보(i1b)를 분석하는 소리감지단계(s33); 및 서버(300)가, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계(s35);를 포함한다.
언어매칭단계(s31)는 서버(300)의 이상징후 단판모듈(330)이 정보분석모듈(320)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 전송받아 제1언어정보(i1a)와 제2언어정보(i2a)를 매칭하는 단계이다.
즉, 언어매칭단계(s31)는 이상징후 판단모듈(330)이 사용자단말기(100)로부터 전송된 제1음성정보(i1)와, 대화자단말기(200)로부터 전송된 제2음성정보(i2)가 상호 연관성이 있는지를 판단하기 위해, 제1언어정보(i1a)와 제2언어정보(i1b)를 비교하여 분석하는 단계이다.
여기서, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a)와, 어느 하나의 제1언어정보(i1a)의 전후에 입력된 제2언정정보(i2a)를 비교하여 이상징후를 감지할 수 있다.
예를 들어, 이상징후 판단모듈(330)은 어느 하나의 제1언어정보(i1a-2)를 분석하는 경우, 어느 하나의 제1언어정보(i1-1)와, 어느 하나의 제1언어정보(i1a-1) 전후에 입력된 제2언어정보(i2a-1,i2a-2)를 비교하여 분석한다.
이어서, 소리감지단계(s33)는 서버(300)의 이상징후 판단모듈(330)이 정보분석모듈(320)로부터 소리정보(i1b)를 전송받아 분석하는 단계이다.
즉, 소리감지단계(s33)는 이상징후 판단모듈(330)이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 분석하는 단계이다.
즉, 소리감지단계(s33)는 제1음성정보(i1)의 음파의 진폭과, 진동수 등을 분석하여, 사용자의 감정상태를 통해 이상징후를 감지하는 단계이다.
이어서, 제어신호 출력단계(s35)는, 서버(300)의 이상징후 판단모듈(330)이 제1언어정보(i1a)와 제2언어정보(i2a) 및 소리정보(i1b)를 통해 사용자의 이상징후를 감지하는 단계이다.
좀더 구체적으로, 제어신호 출력단계(s35)는 이상징후 판단모듈(330)이, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않거나, 소리정보(i1b)가 정상범위를 벗어나는 경우 사용자에게 이상징후가 있다고 판단하여 제어신호(s1)를 출력하는 단계이다.
예를 들어, 대화자단말기(200)로부터 취미를 묻는 제2언어정보(i2a-3)가 전송된 후, 사용자단말기(100)로부터 제2언어정보(i2a-3)와 전혀 연관성이 없는 성함과 나이를 묻는 제1언어정보(i1a-4)가 전송되는 경우, 이상징후 판단모듈(330)은 기준DB(331)에 기저장된 데이터를 바탕으로 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.(도 3 참조)
물론, 이상징후 판단모듈(330)은 사용자가 중복된 질문(i1a-4)을 반복적으로 하는 경우, 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.
한편, 제어신호 출력단계(s35)에서 이상징후 판단모듈(330)은, 소리정보(i1b)를 통해 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상이, 기준DB(331)에 저장된 데이터의 정상범위를 벗어나는 경우 이상징후를 감지하여 제어신호(s1)를 출력할 수 있다.
이때, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.
예를 들어, 제어신호 출력단계(s31)에서 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 후술할 질문정보 제공모듈(340)로 전송할 수 있다.
또한, 제어신호 출력단계(s31)에서 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.
계속해서, 질문전송단계(s40)는, 이상징후 감지단계(s30)에서 사용자의 이상징후가 감지되는 경우, 서버(300)의 질문정보 제공모듈(340)이 사용자의 정신적 또는 신체적 질환을 감지하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.
좀더 구체적으로 질문전송단계(s40)는, 질문정보 제공모듈(340)이 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송하는 단계이다.
여기서, 질문정보(i4)는 특정 질환을 도출하기 위해 복수개로 제공될 수 있는데, 특정 이상징후가 감지되는 경우 어느 하나가 선택되어 대화자단말기(200)로 전송될 수 있다.
이러한 질문정보(i4)를 좀더 구체적으로 설명하면, 질문정보(i4)는 질환 항목(i4a)별로 적어도 하나 이상의 문항(i4b)을 포함하고, 문항(i4b)에 따른 복수의 선택지(i4c)를 포함할 수 있는데, 여기서 각각의 선택지(i4c)는 특정 질환을 도출하기 위한 가중치가 서로 다르게 설정될 수 있다.
한편, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후별로 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.
예를 들어, 사용자에게 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.
이와 달리, 사용자에게 우울증과 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제2제어신호(s1b)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 우울증을 도출하기 위한 질문정보(i4-2)를 대화자단말기(200)로 전송할 수 있다.
이처럼, 본 발명의 일실시예에 의하면 사용자의 음성정보로부터 이상징후가 감지되는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.
아울러, 본 발명의 일실시예에 의하면 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.
한편, 본 발명의 일실시예에 의한 대화 서비스 제공방법(10)은, 대화자단말기(200)가, 질문정보(i4)에 따른 답변정보(i5)를 서버(300)로 전송하는 답변수신단계(s50); 및 서버(300)가, 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송하는 질환정보 전송단계(s60);를 더 포함한다.
먼저, 답변수신단계(s50)는 대화자단말기(200)가, 질문정보(i3)에 따른 답변정보(i5)를 서버(300)의 답변정보 분석모듈(350)로 전송하는 단계이다.
여기서, 답변정보(i5)는 대화자가 사용자로부터 수신된 제1음성정보(i1)를 기반으로 입력할 수 있다.
또한, 답변정보(i5)는 질문정보(i4)에 대화자가 입력한 선택정보(i7)가 포함된 것으로, 선택정보(i7)는 질환 항목(i4a)별로 제시된 복수의 선택지(i4c) 중 특정 선택지(i4c1,i4c2,i4c3)일 수 있다.
이어서, 질환정보 전송단계(s60)는, 서버(300)의 답변정보 분석모듈(350)이, 답변정보(i5)를 통해 사용자의 질환을 도출하는 단계이다.
이러한 질환정보 전송단계(s60)를 좀더 구체적으로 설명하면, 질환정보 전송단계(s60)는 서버(300)의 답변정보 분석모듈(350)이 답변정보(i5)를 통해 사용자의 질환을 도출하여 제어신호(s2)를 출력하는 답변정보 분석단계(s61); 및 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.
답변정보 분석단계(s61)는 답변정보 분석모듈(350)이 답변정보(i5)를 분석하여 제어신호(s2)를 출력하는 단계로, 답변정보(i5)를 분석한 뒤 사용자의 질환을 도출하여 특정 질환에 대한 질환정보(i6)가 출력되도록 제어신호(s2)를 출력하는 단계이다.
예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.
이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 점수로 환산한다.
그리고, 답변정보 분석모듈(305)은 가중치에 대한 점수가 기설정된 정상범위를 벗어나는 경우, 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)가 전송되도록 제어신호(s2)를 출력한다.
이어서, 정보전송단계(s63)는 서버(300)의 질환정보 전송모듈(360)이 제어신호(s2)를 인가받아 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송하는 정보전송단계(s63);를 포함한다.
여기서, 질환정보(i6)는 답변정보(i5)와, 답변정보(i5)에 의해 도출된 사용자의 정신적 또는 신체적 질환에 대한 정보가 포함될 수 있는데, 여기서 질환은 치매, 우울증, 조울증 등을 포함할 수 있다.
이처럼, 본 발명의 일실시예에 의하면, 대화자가 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 질환을 도출함으로써, 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.
한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은, 사용자의 제1음성정보(i1)를 입력받는 사용자단말기(100); 사용자단말기(100)와 대화 가능하게 연결되며, 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기(200); 및 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받아 제1음성정보(i1)와 제2음성정보(i2)로부터 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 경우 질환을 도출하기 위한 질문정보(i4)를 대화자단말기로 전송하는 서버(300);를 포함한다.
사용자단말기(100)는 사용자의 제1음성정보(i1)를 입력받아 서버(300) 및 대화자단말기(200)로 전송하고, 대화자단말기(200)는 대화자의 제2음성정보(i1)를 입력받아 서버(300) 및 사용자단말기(200)로 전송한다.
또한, 대화자단말기(200)는 서버(300)로부터 질문정보(i4)가 전송되며, 질문정보(i4)에 따른 답변정보(i5)를 입력받아 서버(300)로 전송한다.
여기서, 사용자단말기(100)와 대화자단말기(200)는 서버(300)를 통해 대화 가능하게 연결되는데, 이러한 사용자단말기(100)와 대화자단말기(200)는 일예로 스마트폰, 태블릿 PC, 도우미 로봇, 스마트 스피커 등으로 제공될 수 있다.
계속해서, 서버(300)는 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출한다.
그리고, 서버(300)는 분석정보(i3)를 분석하여 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하여, 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송한다.
또한, 서버(300)는 대화자단말기(200)로부터 질문정보(i3)에 따른 답변정보(i5)를 전송받는다.
그리고, 서버(300)는 답변정보(i5)를 통해 사용자의 질환을 도출하여 사용자의 정신적 또는 신체적 질환정보(i6)를 사용자를 관리하기 위한 관리자의 관리자단말기(400)로 전송한다.
이러한 서버(300)의 구조를 좀더 구체적으로 설명하면, 서버(300)는, 사용자단말기(100)로부터 제1음성정보(i1)를 전송받고 대화자단말기(200)로부터 제2음성정보(i2)를 전송받는 대화수신모듈(310); 및 대화수신모듈(310)로부터 제1음성정보(i1) 및 제2음성정보(i2)를 전송받아, 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)와 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈(320);을 포함한다.
그리고, 본 발명의 일실시예에 의한 서버(300)는 정보분석모듈(320)로부터 분석정보(i3)를 전송받아 사용자의 정신적 또는 신체적 질환에 의한 이상징후를 감지하는 이상징후 판단모듈(330) 및 이상징후 판단모듈(330)이 이상징후를 감지하는 경우 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송하는 질문정보 제공모듈(340)을 더 포함한다.
대화수신모듈(310)은 사용자단말기(100)와 대화자단말기(200)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받아 정보분석모듈(320)로 전송한다.
정보분석모듈(320)은 음성변환부(321), 언어분석부(323) 및 소리분석부(325)를 포함한다.
음성변환부(321)는 대화수신모듈(310)로부터 제1음성정보(i1)와 제2음성정보(i2)를 전송받으며, 제1음성정보(i1)와 제2음성정보(i2)로부터 제1언어정보(i1a)와 제2언어정보(i2a)를 추출할 수 있도록, 제1음성정보(i1)와 제2음성정보(i2)를 디지털정보로 변환한다.
언어분석부(323)는 제1음성정보(i1)로부터 분석정보(i3) 중 자연어에 해당하는 제1언어정보(i1a)를 추출하고, 제2음성정보(i2)로부터 분석정보(i3) 중 자연어에 해당하는 제2언어정보(i2a)를 추출하여, 제1언어정보(i1a)와 제2언어정보(i2a)를 이상징후 판단모듈(330)로 전송한다.
소리분석부(325)는 제1음성정보(i1)로부터 사용자의 감정상태에 따른 소리정보(i1b)를 추출하여 이상징후 판단모듈(330)로 전송한다.
여기서, 소리정보(i1b)는 앞서 설명한 바와 같이, 사용자의 음성의 세기, 사용자의 음성의 높낮이 및 사용자의 말의 빠르기 중 하나 이상을 포함한다.
이어서, 이상징후 판단모듈(330)은 분석정보(i3)를 분석하여 사용자의 질환에 의한 이상징후를 감지한다.
좀더 구체적으로, 이상징후 판단모듈(330)은 제1언어정보(i1a)와 제2언어정보(i2a)를 분석하여, 제1언어정보(i1a)가 제2언어정보(i2a)에 매칭되지 않는 경우 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.
그리고, 이상징후 판단모듈(330)은 소리정보(i1b)가 정상범위를 벗어나는 경우 이상징후를 감지하여, 질문정보(i4)를 대화자단말기(200)로 전송하기 위한 제어신호(s1)를 출력한다.
여기서, 이상징후 판단모듈(330)은 특정 질환에 따른 이상징후별로 서로 다른 제어신호(s1)를 출력할 수 있다.
예를 들어, 치매와 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제1제어신호(s1a)를 출력하여 질문정보 제공모듈(340)로 전송할 수 있다.
또한, 우울증과 관련된 이상징후가 감지되는 경우, 이상징후 판단모듈(330)은 제2제어신호(s1b)를 출력할 수 있다.
이어서, 질문정보 제공모듈(340)은 이상징후 판단모듈(330)로부터 전송된 제어신호(s1)에 의해 질문정보(i4)를 대화자단말기(200)로 전송한다.
여기서, 질문정보 제공모듈(340)은 복수개의 질문정보(i4) 중 이상징후에 따라 특정 질문정보(i4)를 선택하여 대화자단말기(200)로 전송할 수 있다.
예를 들어, 치매와 관련된 이상징후가 감지되어 이상징후 판단모듈(330)로부터 제1제어신호(s1a)가 전송되는 경우, 질문정보 제공모듈(340)은 복수의 질문정보(i4) 중 치매질환을 도출하기 위한 질문정보(i4-1)를 대화자단말기(200)로 전송할 수 있다.
한편, 본 발명의 일실시예에 의한 대화 서비스 제공시스템(20)은 답변정보 분석모듈(350) 및 질환정보 전송모듈(360)을 더 포함한다.
답변정보 분석모듈(350)은 대화자단말기(200)로부터 답변정보(i5)를 전송받아 답변정보(i5)로부터 사용자의 질환을 도출한다.
그리고, 답변정보 분석모듈(350)은 답변정보(i5)를 통해 사용자의 질환을 도출한 뒤, 사용자의 정신적 또는 신체적 질환정보(i6)가 관리자단말기(400)로 전송되도록 제어신호(s2)를 출력한다.
예를 들어, 답변정보 분석모듈(350)은, 특정 질환 항목(i4a)의 특정 선택지(i4c1,i4c2,i4c3)가 기설정된 설정개수 이상 선택정보(i7)로 입력된 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.
이때, 질환정보 전송모듈(360)은 관리자단말기(400)로 특정 질환에 대한 질환정보(i6)를 전송한다.
이와 달리, 답변정보 분석모듈(350)은, 선택정보(i7)로 입력된 특정 선택지(i4c1,i4c2,i4c3)의 가중치를 분석하여, 특정 선택지(i4c1,i4c2,i4c3)의 가중치가 기설정된 정상범위를 벗어나는 경우, 사용자에게 특정 질환이 있다고 판단하여 제어신호(s2)를 출력한다.
이어서, 질환정보 전송모듈(360)은 답변정보 분석모듈(350)로부터 제어신호(s2)를 전송받아, 특정 질환에 따른 질환정보(i6)를 관리자의 관리자단말기(400)로 전송한다.
여기서, 관리자단말기(400)는 사용자에게 정신적 또는 신체적 질환이 감지되는 경우 사용자를 케어하기 위한, 관리자(ex: 의사, 지인 등등)의 단말기로, 스마트폰, 태블릿PC 등으로 제공될 수 있다.
이상에서 설명한 바와 같이, 본 발명의 일실시예에 의하면, 사용자의 음성정보로부터 이상징후를 감지하는 경우, 사용자의 질환을 도출하기 위한 질문정보(i4)를 대화자단말기(200)로 전송함으로써, 대화 서비스를 통해 사용자의 정신적 또는 신체적 질환을 능동적으로 파악하여 대처할 수 있는 효과가 있다.
아울러, 본 발명의 일실시예에 의하면, 이상징후별로 특정 질환과 관련된 특정 질문정보(i4-1,i4-2)를 대화자단말기(200)로 전송함으로써, 사용자의 질환을 효과적으로 파악할 수 있는 효과가 있다.
아울러, 본 발명의 일실시예에 의하면, 사용자의 제1음성정보(i1)를 기반으로 작성된 답변정보(i5)를 통해 사용자의 정신적 또는 신체적 질환을 보다 정확하게 도출할 수 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에 서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시에에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며 , 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10 : 대화 서비스 제공방법
20 : 대화 서비스 제공시스템
100 : 사용자단말기
200 : 대화자단말기
300 : 서버
310 : 대화수신모듈
320 : 정보분석모듈
321 : 음성변환부
323 : 언어분석부
325 : 소리분석부
330 : 이상징후 판단모듈
331 : 기준DB
340 : 질문정보 제공모듈
350 : 답변정보 분석모듈
360 : 질환정보 전송모듈
400 : 관리자단말기

Claims (6)

  1. 사용자의 사용자단말기가 대화자단말기로 전송하기 위한 상기 사용자의 제1음성정보(i1)를 서버로 전송하며, 상기 사용자단말기와 대화 가능하게 연결된 대화자단말기가 상기 사용자단말기로 전송하기 위한 대화자의 제2음성정보(i2)를 상기 서버로 전송하는 음성수신단계;
    상기 서버가, 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하는 정보분석단계;
    상기 서버가, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 질환에 의한 이상징후를 감지하는 이상징후 감지단계; 및
    상기 서버가, 상기 이상징후 감지 후, 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 질문전송단계;
    를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
  2. 제1항에 있어서,
    상기 정보분석단계는,
    상기 서버가, 상기 제1음성정보(i1)로부터 상기 분석정보(i3)에 해당하는, 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하는 제1분석단계; 및
    상기 서버가, 상기 제2음성정보(i2)로부터 상기 분석정보(i3)에 해당하는, 자연어에 해당하는 제2언어정보(i2a)를 추출하는 제2분석단계;
    를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
  3. 제2항에 있어서,
    상기 이상징후 감지단계는,
    상기 서버가, 상기 제1언어정보(i1a)와 상기 제2언어정보(i2a)를 매칭하는 언어매칭단계;
    상기 서버가, 상기 소리정보(i1b)를 분석하는 소리감지단계; 및
    상기 서버가, 상기 제1언어정보(i1a)가 상기 제2언어정보(i2a)에 매칭되지 않거나, 상기 소리정보(i1b)가 정상범위를 벗어나는 경우 상기 이상징후를 감지하여, 상기 질문정보(i4)를 상기 대화자단말기로 전송하기 위한 제어신호(s1)를 출력하는 제어신호 출력단계;
    를 포함하는 것을 특징으로 하는 대화 서비스 제공방법.
  4. 제2항에 있어서,
    상기 소리정보(i1b)는 상기 사용자의 음성의 세기, 상기 사용자의 음성의 높낮이 및 상기 사용자의 말의 빠르기 중 하나 이상을 포함하는 것을 특징으로 하는 대화 서비스 제공 방법.
  5. 사용자의 제1음성정보(i1)를 입력받는 사용자단말기;
    상기 사용자단말기와 대화 가능하게 연결되며, 상기 사용자와 대화하는 대화자의 제2음성정보(i2)를 입력받는 대화자단말기; 및
    상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받아 상기 제1음성정보(i1)와 상기 제2음성정보(i2)로부터 상기 사용자의 이상징후를 감지하기 위한 분석정보(i3)를 추출하되, 상기 분석정보(i3)를 분석하여 상기 사용자의 정신적 질환에 의한 이상징후를 감지하는 경우 상기 질환을 도출하기 위한 질문정보(i4)를 상기 대화자단말기로 전송하는 서버;
    를 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.
  6. 제5항에 있어서,
    상기 서버는,
    상기 사용자단말기로부터 상기 제1음성정보(i1)를 전송받고 상기 대화자단말기로부터 상기 제2음성정보(i2)를 전송받는 대화수신모듈; 및
    상기 대화수신모듈로부터 상기 제1음성정보(i1) 및 상기 제2음성정보(i2)를 전송받아, 상기 제1음성정보(i1)로부터 상기 분석정보(i3)에 해당하는, 자연어에 해당하는 제1언어정보(i1a)와 상기 사용자의 감정상태에 따른 소리정보(i1b) 중 하나 이상을 추출하고, 상기 제2음성정보(i2)로부터 상기 분석정보(i3)에 해당하는, 자연어에 해당하는 제2언어정보(i2a)를 추출하는 정보분석모듈;
    을 포함하는 것을 특징으로 하는 대화 서비스 제공시스템.
KR1020200091023A 2020-07-22 2020-07-22 대화 서비스 제공방법 및 시스템 KR102412412B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200091023A KR102412412B1 (ko) 2020-07-22 2020-07-22 대화 서비스 제공방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200091023A KR102412412B1 (ko) 2020-07-22 2020-07-22 대화 서비스 제공방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20220012470A KR20220012470A (ko) 2022-02-04
KR102412412B1 true KR102412412B1 (ko) 2022-06-24

Family

ID=80268385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200091023A KR102412412B1 (ko) 2020-07-22 2020-07-22 대화 서비스 제공방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102412412B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148987A (ja) 2017-03-10 2018-09-27 パイオニア株式会社 判定装置
KR102066225B1 (ko) 2019-03-12 2020-01-14 가천대학교 산학협력단 인공지능 기능의 스마트 진단 장치, 시스템 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 음성 통화 정보를 이용한 알츠하이머병 진단 장치 및 방법
KR101999657B1 (ko) * 2017-09-22 2019-07-16 주식회사 원더풀플랫폼 챗봇을 이용한 사용자 케어 시스템
KR20200006738A (ko) * 2018-07-11 2020-01-21 현대자동차주식회사 대화 시스템 및 대화 처리 방법
KR20200043800A (ko) * 2018-10-18 2020-04-28 주식회사 셀바스에이아이 정신 건강 상태 예측 방법 및 이를 이용한 디바이스
KR20200045821A (ko) 2018-10-23 2020-05-06 삼성전자주식회사 전자의무기록에 기반하여 대화서비스를 제공하는 전자 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148987A (ja) 2017-03-10 2018-09-27 パイオニア株式会社 判定装置
KR102066225B1 (ko) 2019-03-12 2020-01-14 가천대학교 산학협력단 인공지능 기능의 스마트 진단 장치, 시스템 및 방법

Also Published As

Publication number Publication date
KR20220012470A (ko) 2022-02-04

Similar Documents

Publication Publication Date Title
US12014742B1 (en) Voice controlled assistant with coaxial speaker and microphone arrangement
US10930277B2 (en) Configuration of voice controlled assistant
KR102293063B1 (ko) 사용자 정의 가능한 웨이크업 음성 명령
US11087769B1 (en) User authentication for voice-input devices
US10891952B2 (en) Speech recognition
EP3050051B1 (en) In-call virtual assistants
US10708423B2 (en) Method and apparatus for processing voice information to determine emotion based on volume and pacing of the voice
US20060085183A1 (en) System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech
WO2016045479A1 (zh) 客服电话处理方法及装置
US10192550B2 (en) Conversational software agent
US10140988B2 (en) Speech recognition
US20180285068A1 (en) Processing method of audio control and electronic device thereof
US9807243B2 (en) Method and system for voice transmission control
US20220246147A1 (en) Systems and methods for automating voice commands
US11862153B1 (en) System for recognizing and responding to environmental noises
JP2017003611A (ja) 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
JP6339892B2 (ja) 遠隔監視システム及び遠隔監視方法
KR102412412B1 (ko) 대화 서비스 제공방법 및 시스템
KR20100081534A (ko) 다중언어의 대화시스템 및 그 제어방법
WO2017171756A1 (en) Indicator to indicate a state of a personal assistant application
Lopez et al. An aging-focused heuristic evaluation of home automation controls
CN114822551A (zh) 一种基于智能耳机的交互方法
KR20220140304A (ko) 학습자의 음성 명령을 인식하는 화상 학습 시스템 및 그 방법
JP2021177598A (ja) 音声処理システム、音声処理方法、及び音声処理プログラム
JP2019074865A (ja) 会話収集装置、会話収集システム及び会話収集方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant