KR20220050302A - Server and method for generating artificial intelligence character using user data, and healthcare method using the same - Google Patents
Server and method for generating artificial intelligence character using user data, and healthcare method using the same Download PDFInfo
- Publication number
- KR20220050302A KR20220050302A KR1020200133757A KR20200133757A KR20220050302A KR 20220050302 A KR20220050302 A KR 20220050302A KR 1020200133757 A KR1020200133757 A KR 1020200133757A KR 20200133757 A KR20200133757 A KR 20200133757A KR 20220050302 A KR20220050302 A KR 20220050302A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- artificial intelligence
- data
- information
- intelligence character
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 179
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 206010012289 Dementia Diseases 0.000 claims description 30
- 230000036541 health Effects 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 21
- 230000006855 networking Effects 0.000 claims description 6
- 238000003745 diagnosis Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 206010037180 Psychiatric symptoms Diseases 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000002265 prevention Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 3
- 230000032683 aging Effects 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 229910052709 silver Inorganic materials 0.000 description 3
- 239000004332 silver Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 244000240602 cacao Species 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000003449 preventive effect Effects 0.000 description 2
- 230000002889 sympathetic effect Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 208000035976 Developmental Disabilities Diseases 0.000 description 1
- 241001112258 Moca Species 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Hospice & Palliative Care (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버 및 방법과 이를 이용한 헬스케어 방법에 관한 것이다.The present invention relates to an artificial intelligence character creation server and method using user data and a healthcare method using the same.
고령화 사회란, 총 인구 중에 65세 이상의 인구가 총 인구를 차지하는 비율이 7% 이상인 사회를 의미한다. 우리나라의 경우 2015년 기준 65세 이상 노인인구가 전체 인구의 13.1%에 이르며, 2026년에는 전체 인구의 40%에 이를 것으로 추정되고 있다.An aging society refers to a society in which the proportion of the population aged 65 and over among the total population is 7% or more. In Korea, as of 2015, the elderly population aged 65 and over accounted for 13.1% of the total population, and it is expected to reach 40% of the total population by 2026.
급속한 고령화의 속도에 따라 독거노인의 수도 급증하고 있으며, 독거노인의 경우 가족, 친구, 이웃 등의 사회적 관계망과의 교류가 단절되고 사회적 역할 상실에 따른 외로움과 고립감 등으로 사회 단절에 따른 문제와 심각성은 매우 높다.With the rapid aging of the population, the number of elderly living alone is also increasing rapidly. In the case of the elderly living alone, exchanges with social networks such as family, friends, and neighbors are cut off, and the problems and seriousness of social isolation due to loneliness and isolation due to loss of social roles. is very high
독거노인 뿐만 아니라, 최근 개인화가 더욱 가속화되면서 사람들 간의 교류의 기회가 점차 줄어들고 있고, 이러한 교류 역시 오프라인 상에서 이루어지는 것이 아닌 온라인 상에서 주로 이루어지고 있다.In addition to the elderly living alone, as personalization has accelerated in recent years, the opportunities for exchange between people are gradually decreasing, and these exchanges are mainly conducted online rather than offline.
최근 ICT 기술을 활용한 다양한 서비스가 제공되고 있으나, 대부분 온라인 상에서 사용자 간의 상호 교류를 위한 서비스에 국한되어 있을 뿐, 실제 오프라인에서 교류하는 것과 같은 서비스는 부재한 실정이다.Recently, various services using ICT technology have been provided, but most are limited to services for mutual exchange between users online, and there is no service such as actual offline exchange.
본 발명이 해결하고자 하는 과제는 사용자 데이터를 이용하여 사용자와 친근한 사람을 대상으로 하는 가상의 캐릭터를 생성하여 제공할 수 있는, 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버 및 방법과 이를 이용한 헬스케어 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an artificial intelligence character creation server and method using user data that can create and provide a virtual character for a user friendly to a user using user data and a healthcare method using the same will provide
다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.However, the problems to be solved by the present invention are not limited to the problems described above, and other problems may exist.
상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법은 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하는 단계; 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계; 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계; 상기 학습된 인공지능 알고리즘을 이용하여 상기 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 단계; 및 상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계를 포함한다. 이때, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습시키는 단계는, 상기 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 상기 인공지능 알고리즘을 학습한다.In an artificial intelligence character creation method using user data according to a first aspect of the present invention for solving the above-mentioned problems, artificial intelligence corresponding to a second user using a second user terminal from a first user using a first user terminal receiving an intelligent character creation request; collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively; learning an artificial intelligence algorithm based on the collected first and second user data; generating an artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm; and providing the generated artificial intelligence character to the first user terminal. In this case, the step of learning the artificial intelligence algorithm based on the collected first and second user data may include learning the artificial intelligence algorithm by further reflecting the first user data based on the similarity between the first and second user data. do.
본 발명의 일부 실시예에서, 상기 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터일 수 있다.In some embodiments of the present invention, the first and second user data may be data based on a social networking service.
본 발명의 일부 실시예에서, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계는, 상기 제1 및 제2 사용자에 상응하는 상기 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나의 제1 및 제2 사용자 데이터를 수집할 수 있다.In some embodiments of the present invention, the step of collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively, includes the steps corresponding to the first and second users. First and second user data of at least one of photo, video, text, map information, shared information, preference, individual input data, and voice data in the social networking service may be collected.
본 발명의 일부 실시예에서, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계는, 상기 제2 사용자 데이터로부터 상기 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보 및 영상 정보를 추출하는 단계; 및 상기 추출된 음원 정보 및 영상 정보를 미리 준비된 스크립트 정보에 부가하여 상기 인공지능 알고리즘을 학습하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of learning the artificial intelligence algorithm based on the collected first and second user data includes sound source information to be used for the artificial intelligence character corresponding to the second user from the second user data. and extracting image information; and learning the artificial intelligence algorithm by adding the extracted sound source information and image information to script information prepared in advance.
본 발명의 일부 실시예는, 상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계; 상기 대화 정보에 기초하여 상기 스크립트 정보를 업데이트하는 단계; 및 상기 업데이트된 스크립트 정보에 기초하여 상기 인공지능 알고리즘을 학습하는 단계를 더 포함할 수 있다.Some embodiments of the present invention, the steps of collecting conversation information between the artificial intelligence character and the first user provided through the first user terminal; updating the script information based on the conversation information; and learning the artificial intelligence algorithm based on the updated script information.
본 발명의 일부 실시예에서, 상기 제2 사용자 단말은 상기 제1 사용자 단말을 이용 중인 제1 사용자와 연결 관계를 갖는 적어도 하나의 제2 사용자가 이용 중인 제2 사용자 단말이고, 상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는, 상기 적어도 하나의 제2 사용자에 상응하는 인공지능 캐릭터를 생성할 수 있다.In some embodiments of the present invention, the second user terminal is a second user terminal used by at least one second user having a connection relationship with a first user using the first user terminal, and the collected second The generating of the artificial intelligence character based on user data corresponding to the user may include generating an artificial intelligence character corresponding to the at least one second user.
본 발명의 일부 실시예에서, 상기 제2 사용자 단말은 상기 제1 사용자와 연결 관계를 갖지 않되, 상기 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함할 수 있다.In some embodiments of the present invention, the second user terminal does not have a connection relationship with the first user, but includes a third user terminal that is being used by at least one third user having a connection relationship with the second user. can do.
본 발명의 일부 실시예에서, 상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는, 상기 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성하고, 상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계는, 상기 복수의 인공지능 캐릭터를 복수의 제1 사용자 단말마다 각각 제공하며, 상기 복수의 제1 사용자 단말은 상기 제1 사용자 단말과 페어링된 사용자 단말을 포함할 수 있다.In some embodiments of the present invention, the generating of the artificial intelligence character based on the collected user data corresponding to the second user includes generating an artificial intelligence character corresponding to the plurality of second users, respectively, and The step of providing the generated artificial intelligence character to the first user terminal may include providing the plurality of artificial intelligence characters for each of a plurality of first user terminals, respectively, and the plurality of first user terminals are paired with the first user terminal It may include a user terminal that has been
본 발명의 일부 실시예는, 상기 제1 사용자가 적어도 하나의 인공지능 캐릭터를 호출하는 단계; 복수의 제1 사용자 단말 중 상기 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말을 활성화시키는 단계를 더 포함할 수 있다.Some embodiments of the present invention, the first user calling at least one artificial intelligence character; The method may further include activating at least one first user terminal corresponding to the called artificial intelligence character among the plurality of first user terminals.
또한, 본 발명의 제2 측면에 따른 인공지능 캐릭터를 이용한 헬스 케어 방법은 상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계; 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계; 및 상기 헬스케어 정보를 상기 제1 사용자 단말로 제공하는 단계를 포함한다.In addition, a health care method using an artificial intelligence character according to a second aspect of the present invention comprises the steps of: collecting conversation information between an artificial intelligence character provided through the first user terminal and the first user; generating healthcare information by analyzing the collected conversation information; and providing the healthcare information to the first user terminal.
본 발명의 일부 실시예에서, 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는, 상기 인공지능 캐릭터에 의한 대화에 연속되는 상기 제1 사용자의 대화 간의 일치도를 분석하는 단계; 및 상기 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 상기 헬스케어 정보로 생성하는 단계를 포함할 수 있다.In some embodiments of the present invention, the generating of healthcare information by analyzing the collected conversation information may include: analyzing a degree of correspondence between the conversations of the first user that is continuous with the conversations by the artificial intelligence character; and generating, as the health care information, a dementia diagnosis result including dementia type, dementia stage, dementia progress, customized training information, and life guidance information by reflecting the analyzed matching degree.
본 발명의 일부 실시예에서, 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는, 건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 상기 헬스케어 정보를 생성할 수 있다.In some embodiments of the present invention, the generating of healthcare information by analyzing the collected conversation information may include generating the healthcare information by further collecting health-related data, safety-related data, indoor/outdoor environment and weather-related data. can
또한, 본 발명의 제3 측면에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버는 적어도 하나의 제1 및 제2 사용자 단말과 데이터를 송수신하는 통신모듈, 상기 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하면, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하고, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하여 상기 인공지능 캐릭터를 생성하고, 상기 생성된 인공지능 캐릭터를 상기 통신모듈을 통해 상기 제1 사용자 단말로 제공한다.In addition, the artificial intelligence character creation server using user data according to the third aspect of the present invention is a communication module for transmitting and receiving data with at least one first and second user terminals, data from the first and second user terminals A program for generating an artificial intelligence character based on a memory is stored therein, and a processor for executing the program stored in the memory. At this time, when the processor receives an AI character creation request corresponding to the second user who is using the second user terminal from the first user who is using the first user terminal through the communication module as the program is executed, , collects first and second user data corresponding to the first and second users from the first and second user terminals, respectively, and learns an artificial intelligence algorithm based on the collected first and second user data to generate the artificial intelligence character, and provide the created artificial intelligence character to the first user terminal through the communication module.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problems is combined with a computer, which is hardware, and executes an artificial intelligence character creation method using the user data, and is stored in a computer-readable recording medium.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
상술한 본 발명에 의하면, 사용자와 친근감이 형성된 실제 타 사용자의 데이터를 수집 및 이용하여 인공지능 캐릭터를 생성함으로써, 사용자에게 억지스럽지 않고 보다 친밀감을 느낄 수 있는 인공지능 캐릭터 제공이 가능하다는 장점이 있다. According to the present invention described above, it is possible to provide an artificial intelligence character that can feel more intimacy without being forced to the user by generating an artificial intelligence character by collecting and using the data of other users who have an affinity with the user. .
특히, 타 사용자의 데이터뿐만 아니라 사용자의 데이터를 함께 이용하여 학습을 수행함으로써, 사용자와 무관한 정보를 제공하는 것이 아닌 보다 사용자에게 적합한 대화를 유도할 수 있는 인공지능 캐릭터 생성 및 제공이 가능하다.In particular, by performing learning using not only data of other users but also data of users, it is possible to create and provide artificial intelligence characters that can induce conversations more suitable for users rather than providing information irrelevant to the user.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템을 설명하기 위한 도면이다.
도 2는 제1 및 제2 사용자의 연결 관계를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 캐릭터 생성 방법의 순서도이다.
도 5는 제1 및 제2 사용자 데이터를 이용하여 인공지능 캐릭터를 생성하는 과정을 보다 상세히 도시한 도면이다.
도 6은 복수의 제1 사용자 단말을 통해 인공지능 캐릭터를 제공하는 내용을 설명하기 위한 도면이다.
도 7은 인공지능 캐릭터를 이용한 헬스케어 방법을 설명하기 위한 도면이다.
도 8은 다양한 데이터를 수집하여 헬스케어 정보를 생성하는 일 예시를 도시한 도면이다.1 is a diagram for explaining an artificial intelligence character creation system using user data according to an embodiment of the present invention.
2 is a diagram for explaining a connection relationship between first and second users.
3 is a block diagram of an artificial intelligence character creation server using user data according to an embodiment of the present invention.
4 is a flowchart of an artificial intelligence character creation method according to an embodiment of the present invention.
5 is a diagram illustrating in more detail a process of generating an artificial intelligence character using first and second user data.
6 is a view for explaining the contents of providing an artificial intelligence character through a plurality of first user terminals.
7 is a diagram for explaining a healthcare method using an artificial intelligence character.
8 is a diagram illustrating an example of generating health care information by collecting various data.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
본 발명은 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100) 및 방법과 이를 이용한 헬스케어 방법에 관한 것이다.The present invention relates to an artificial intelligence
노령화 인구가 많아지고, 혼자 사는 독거노인의 비율이 증가함에 따라 최근 ICT 기술을 이용하여 다양한 독거노인을 위한 케어 서비스가 소개되고 있다. 이와 같은 서비스들은 대부분 서비스 제공 기관(회사)에서 기존에 일반인들을 위해 만들어진 인공지능 스피커 플랫폼을 이용해 서버에 프로그래밍된 내용을 중심으로 반응하며, 일반적인 내용의 전달에 국한되는 경우가 많았다.As the aging population increases and the proportion of the elderly living alone increases, recently, various care services for the elderly living alone using ICT technology are being introduced. Most of these services respond mainly to the contents programmed in the server using the artificial intelligence speaker platform previously created for the general public by service providers (company), and are often limited to the delivery of general contents.
이와 같이 ICT 및 인공지능 기술이 급속하게 발달함에 따라 실버케어 서비스도 다양하게 증가하고 있는 반면, 노인들의 가장 큰 애로사항 중 하나인 고독감과 외로움은 대화 상대가 없음에 기인하며, 이는 대화를 통해 정서적인 안정감을 느끼게 하고, 이를 통해 상호 교감함으로서 치유될 수 있다. 하지만, 이를 위한 실제 기존 서비스들이 제공하는 대화 서비스는 노인의 질문과 일상에 대한 모니터링을 통해 미리 서버에 프로그래밍된 지정된 답변을 친근감없이 기계적인 똑같은 목소리로 일방적으로 제공하고 있는 실정이다.As such, with the rapid development of ICT and artificial intelligence technology, various silver care services are also increasing, while loneliness and loneliness, one of the biggest difficulties of the elderly, is due to the absence of a conversation partner. It makes people feel a sense of security, and through this, they can be healed by communing with each other. However, the conversation service provided by the existing services for this purpose unilaterally provides the specified answers programmed in the server in advance through the monitoring of the elderly's questions and daily life with the same mechanical voice without familiarity.
일부 서비스 중에는 친근감을 높이고 노인의 관심 증가를 위해 디스플레이를 이용하여 특정 캐릭터 형상의 아바타를 통해 대화 서비스를 제공하기도 하나, 아바타의 이미지가 대부분 만화 또는 애니메이션 분위기로 노인들의 관심과 흥미를 끌지 못하고 있다. 최근 동물 형상의 인형을 통해 상호 교감을 높이고자 하는 서비스도 있으나, 동물 형상의 한계로 인해 감성적이고 친근감있는 대화 서비스는 제공하지 못하고 있다.Some services provide a conversation service through an avatar in a specific character shape using a display to increase friendliness and increase interest in the elderly. Recently, there are services that try to enhance mutual sympathy through animal-shaped dolls, but due to the limitations of animal-shaped dolls, emotional and friendly conversation services are not provided.
이러한 고독감과 외로움 이외에 노인 분들의 또 다른 걱정은 최근 치매 노인 인구의 증가에 있다. 일부 노인 돌봄 기능 서비스를 통해 치매 예방을 위한 프로그램을 제공하고 있으나, 대부분 인공지능 스피커를 통해 프로그래밍된 퀴즈를 풀거나 전래동화를 들려주고 이야기 속 내용을 묻는 정도에 지나지 않는다. 이는 유아 및 어린이용 프로그램의 콘텐츠와 운영방식이 대동소이 하여 일부 노인들에게는 내재적인 자존감을 떨어트리고 오히려 본인이 치매 증상이 있다는 것에 대한 상실감만 증가시켜 치매예방 프로그램의 이용을 꺼릴 수 있는 부정적인 요인으로 작용할 수 있다.In addition to the loneliness and loneliness, another concern of the elderly is the recent increase in the elderly population with dementia. Some elderly care services provide programs to prevent dementia, but most of them are nothing more than solving a programmed quiz or telling a fairy tale and asking about the content of a story through an artificial intelligence speaker. This is a negative factor that may be reluctant to use the dementia prevention program because the contents and operation method of the programs for infants and children are the same, which lowers the intrinsic self-esteem for some elderly people and increases the sense of loss that they have dementia symptoms. can work
요즘 노인들도 2G폰의 서비스 중지로 스마트폰을 사용하고 있는 비율이 높아 지고 있으나, 통화와 문자 서비스 사용이 대부분이며, 일부 카카오톡 및 사진 전송, 유튜브 영상 시청 등을 할 뿐 노인들이 이용할 만한 상호 교감형 스마트 기능 및 서비스는 실제 전무한 편이다. 따라서, 여가 시간 및 외로움을 줄이고 치매 예방을 위한 인지능력을 유지시켜 줄 수 있는 노인 친화적이고 ICT 기술을 이용한 실버 세대에 특화된 스마트 서비스가 절실히 요구되고 있다.Nowadays, the proportion of elderly people using smartphones is also increasing due to the suspension of 2G phone services, but most of them use phone calls and text services. Sympathetic smart functions and services are practically non-existent. Therefore, there is an urgent need for a smart service that is elderly-friendly and specialized for the silver generation using ICT technology, which can reduce leisure time and loneliness and maintain cognitive ability for dementia prevention.
또한, 노인은 생활 환경 변화에 취약하고, 면역력이 약해 날씨, 습도, 미세먼지, 곰팡이, 꽃가루, 강수, 세균, 바이러스 등 환경 변화에 민감하며, 급격한 변화에 노출될 경우 호흡기 질환 및 고혈압, 당뇨 등 기저 질환이 있을 경우 그 증상이 악화 되거나, 심할 경우 다른 합병증으로 발전하여 건강을 심하게 해칠 수 있는데, 개인적인 판단력과 주변 환경에 대한 이해 부족으로 대처능력이 떨어져 건강 관리에 취약 할 수 밖에 없는 실정이다. 이에 노인의 실내외 주변 환경을 인지하여 개인의 건강 상태에 맞는 대처 방법을 알려주고 ICT 센서 등을 활용한 자동 제어를 통해 주변 환경을 개인에게 맞는 환경으로 자동 컨트롤 해줄 수 있는 서비스 및 디바이스 등의 필요성이 높아 지고 있다.In addition, the elderly are vulnerable to changes in the living environment and have weak immunity and are sensitive to environmental changes such as weather, humidity, fine dust, mold, pollen, precipitation, bacteria, and viruses. If there is an underlying disease, the symptoms may worsen or, if severe, develop into other complications, which can seriously damage health. Accordingly, there is a high need for services and devices that can recognize the indoor and outdoor environment of the elderly, inform them of coping methods suitable for their health condition, and automatically control the surrounding environment to an environment suitable for the individual through automatic control using ICT sensors, etc. is losing
이와 같은 요구는 최근의 의료 서비스의 트렌드에서도 살펴볼 수 있는데, 무조건적으로 치료 중심의 의료 서비스를 제공하기 보다는 환자들의 참여(Participatory)로 개인 맞춤화(Personalized)되고 예측(Predictive)과 예방(Preventive)이 가능한 정밀 의료(Precision Medicine)를 추구하고 있으며, 헬스 케어 및 실버 케어의 패러다임도 ICT 기술을 중심으로 개인 의료 빅데이터를 연계한 예방 중심의 개인화 된 의료 서비스로 바뀌어 가고 있다. This demand can also be seen in the recent medical service trend. Rather than unconditionally providing treatment-oriented medical services, it is possible to personalize, predict, and prevent through patient participation (Participatory). Precision medicine is being pursued, and the paradigm of health care and silver care is also changing to a personalized medical service centered on prevention by linking personal medical big data with ICT technology.
스마트 폰의 보급 확대는 인간관계를 디지털로 전환하는 계기를 만들었고, 이에 맞춰 소셜 네트워크 및 소셜 미디어 서비스는 다양한 종류와 방식으로 개인을 인터넷 네트워크 상에서 표현할 수 있게 했으며, 개인간의 소통 방식 또한 소셜 네트워크와 소셜 미디어를 통한 상호 관계설정과 개인이 업로드 한 텍스트, 사진, 동영상, 링크, 지도, 선호도, 공유정보 등을 통해 본인의 관심사와 일상을 보여주며, 이를 통해 상대에 대한 이해와 공감대를 갖게 되는 방식으로 디지털 라이프 스타일이 변해 가고 있다.The expansion of smartphone penetration has created an opportunity to transform human relationships digitally, and social networks and social media services have made it possible to express individuals in various types and ways on the Internet network. Establishing mutual relationships through media and uploading texts, photos, videos, links, maps, preferences, shared information, etc., show your interests and daily life, and through this, you can understand and empathize with the other person. The digital lifestyle is changing.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100) 및 방법과 이를 이용한 헬스케어 방법을 설명한다.Hereinafter, an artificial intelligence
도 1은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)을 설명하기 위한 도면이다. 도 2는 제1 및 제2 사용자의 연결 관계를 설명하기 위한 도면이다. 도 3은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100)의 블록도이다.1 is a diagram for explaining an artificial intelligence
도 1에 도시한 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)을 구성하는 각 구성요소들은 네트워크(network)를 통해 연결될 수 있다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크, WiFi 등이 포함되나 이에 한정되지는 않는다.Each component constituting the artificial intelligence
도 1을 참조하면, 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)은 제1 및 제2 사용자 단말(200, 300)과 인공지능 캐릭터 생성 서버(100)를 포함한다.Referring to FIG. 1 , an artificial intelligence
한편, 인공지능 캐릭터 생성 서버(100, 이하 서버)가 도시된 도 1에서는 하나의 서버인 것으로 도시하였으나, 반드시 이에 한정되지 않는다. 즉, 인공지능 캐릭터 생성 서버(100)는 제1 및 제2 사용자에 대응하는 제1 및 제2 사용자 데이터를 관리하는 각각의 빅데이터 서버와 인공지능 알고리즘을 학습 및 관리하기 위한 서버로 구성되어 각각 상호 운영되는 형태로 실시될 수 있음은 물론이다.On the other hand, although the artificial intelligence character creation server 100 (hereinafter referred to as the server) is illustrated as one server in FIG. 1, it is not necessarily limited thereto. That is, the artificial intelligence
제1 사용자 단말(200)은 제1 사용자가 이용 중인 사용자 단말로, 인공지능 캐릭터 생생 서버(100)로 인공지능 캐릭터 생성을 요청하며, 이에 대응하여 생성된 인공지능 캐릭터를 제공받는 사용자 단말이다. The
제2 사용자 단말(300)은 제1 사용자 단말(200)의 요청에 따라 생성되는 인공지능 캐릭터의 대상이 되는 제2 사용자가 이용 중인 사용자 단말이다. The
도 2를 참조하면 일 실시예로, 제1 사용자 단말(200)과 제2 사용자 단말(300)은 소정의 연결 관계를 갖는 제1 및 제2 사용자가 이용 중인 단말일 수 있다. 이때, 소정의 연결 관계는 페이스북, 인스타그램, 카카오톡, 카카오스토리, 네이버 밴드, 유튜브 등 다양한 SNS에서의 팔로우, 팔로워, 친구 관계 등일 수 있다. 즉, 제1 사용자가 팔로우한 사용자는 제2 사용자가 될 수 있고, 제1 사용자의 팔로워인 사용자 역시 제2 사용자 단말(300)이 될 수 있으며, 제1 및 제2 사용자가 직접 친구 관계로 설정된 경우도 이에 해당할 수 있다.Referring to FIG. 2 , according to an embodiment, the
본 발명의 설명에서 제1 사용자 단말(200)을 이용 중인 제1 사용자는 노인이고, 제2 사용자는 노인과 실제 친근자 관계에 있는 자식, 손자, 친구 등인 것으로 설명하도록 하나 반드시 이에 한정되는 것은 아니며, 유명인, 반려동물 등들 그 대상으로 할 수도 있다. In the description of the present invention, the first user using the
또한, 제1 사용자 단말(200)과 제2 사용자 단말(300)은 그 기능에 따라 구분한 것에 불과하다. 따라서, 제1 사용자 단말(200)은 제2 사용자 단말(300)이 될 수도 있다. 이는 제2 사용자 단말(300) 역시 제1 사용자 단말(200)을 이용 중인 제1 사용자에 상응하도록 생성된 인공지능 캐릭터를 제공받을 수 있음을 의미한다. 도 2에서는 이를 이용자와 친근자의 용어를 들어 설명하였다. 즉, 이용자는 또 다른 이용자의 친근자일 수 있으며, 친근자는 또한 스스로 이용자이기도 하다.Also, the
이 경우, 본 발명의 일 실시예는 제1 사용자 단말(200)의 제1 사용자는 제2 사용자에 상응하는 인공지능 캐릭터와 대화할 수 있고, 제2 사용자 단말(300)의 제2 사용자는 제1 사용자에 상응하는 인공지능 캐릭터와 대화할 수 있고, 제1 및 제2 사용자의 개입 없이 가상의 공간 상에서 각 사용자에 상응하도록 생성된 인공지능 캐릭터 간 대화도 가능하다. 하지만, 본 발명의 설명에서는 편의상 그 기능을 구분하여 설명하도록 한다.In this case, according to an embodiment of the present invention, the first user of the
또한, 본 발명의 일 실시예는 제1 사용자와 직접적인 연결 관계가 아닌 간접적인 연결 관계를 갖는 사용자를 대상으로 인공지능 캐릭터를 생성할 수도 있다. 이는, 제2 사용자 단말(300)은 제1 사용자와 연결 관계를 갖지 않되, 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함함을 의미한다.In addition, an embodiment of the present invention may generate an artificial intelligence character for a user having an indirect connection relationship with the first user rather than a direct connection relationship. This means that the
일 예로, 도 2를 참조하면, 제1 사용자(친근자 A)는 친근자 E와는 직접적인 연결 관계를 가지나, 친근자 B와는 직접적인 연결 관계를 갖지 않는다. 다만, 친근자 B는 친근자 E와는 직접적인 연결 관계를 가지며, 제1 사용자는 친근자 B와 친근자 E를 통해 간접적인 연결 관계를 갖는 것으로 볼 수 있다. 이 경우 본 발명의 일 실시예는 친근자 B에 상응하는 인공지능 캐릭터를 생성하여 제1 사용자 단말(200)로 제공할 수도 있다. As an example, referring to FIG. 2 , the first user (closer A) has a direct connection relationship with friend E, but does not have a direct connection relationship with friend B. However, it can be seen that the friendly person B has a direct connection relationship with the friendly person E, and the first user has an indirect connection relationship between the friendly person B and the friendly person E. In this case, an embodiment of the present invention may generate an artificial intelligence character corresponding to friend B and provide it to the
이와 같이, 본 발명의 일 실시예는 서버(100)에서 운영 중인 플랫폼에 등록된 다수의 이용자의 정보를 통해 인공지능 캐릭터를 생성할 수 있다. 또한, 기존의 SNS 친구 요청과 같은 기능을 통해 다수의 이용자에 상응하는 인공지능 캐릭터를 통한 새로운 폭넓은 SNS 네트워크 형성이 가능하다.As such, an embodiment of the present invention may generate an artificial intelligence character through information of a plurality of users registered in the platform operating in the
일 실시예로, 제1 및 제2 사용자 단말(200, 300)은 스마트폰, 태블릿, PDA, 랩톱, 데스크톱, 서버 등과 같은 컴퓨터 장치 또는 전기 통신 장치를 의미한다. In an embodiment, the first and
도 3을 참조하면, 인공지능 캐릭터 생성 서버(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.Referring to FIG. 3 , the artificial intelligence
통신모듈(110)은 제1 및 제2 사용자 단말(200, 300)과 데이터를 송수신한다. 이와 같은 통신 모듈(110)은 유선 통신 모듈 및 무선 통신 모듈을 모두 포함할 수 있다. 유선 통신 모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신 모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.The
메모리(120)에는 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장되며, 프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. A program for generating an artificial intelligence character based on data from the first and second user terminals is stored in the
예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the
또한, 메모리(120)에 저장된 프로그램은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다. In addition, the program stored in the
이하, 도 4 내지 도 8을 참조하여 서버(100)에 의해 수행되는 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법을 보다 상세히 설명하도록 한다.Hereinafter, an artificial intelligence character creation method using user data performed by the
도 4는 본 발명의 일 실시예에 따른 인공지능 캐릭터 생성 방법의 순서도이다.4 is a flowchart of an artificial intelligence character creation method according to an embodiment of the present invention.
먼저, 서버(100)는 제1 사용자 단말(200)을 이용 중인 제1 사용자로부터 제2 사용자 단말(300)을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신한다(S110).First, the
이에 따라, 서버(100)는 제1 및 제2 사용자 단말(200, 300)로부터 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집한다(S120). Accordingly, the
이때, 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터일 수 있다. 또는, 각 사용자들이 직접 입력한 데이터일 수도 있다. In this case, the first and second user data may be data based on a social networking service. Alternatively, it may be data directly input by each user.
일 실시예로, 제1 및 제2 사용자 데이터는 제1 및 제2 사용자에 상응하는 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나일 수 있다.In one embodiment, the first and second user data includes at least one of photos, videos, texts, map information, shared information, preferences, individual input data, and voice data in a social networking service corresponding to the first and second users. can be
예를 들어, 제1 사용자가 페이스북이나 인스타그램에 업로드한 어느 게시물에 포함된 사진이나 동영상을 제1 사용자 데이터로 수집하고, 해당 게시물에 텍스트가 있는 경우 이를 함께 수집할 수 있다. 또한, 게시물에 포함된 지도 정보나 타 게시물을 공유한 이력 정보, 타 게시물에 대하여 좋아요, 싫어요 등과 같은 선호도 정보를 제1 사용자 데이터로 수집할 수 있다. For example, a photo or video included in a post uploaded by the first user to Facebook or Instagram may be collected as the first user data, and if there is text in the post, it may be collected together. In addition, map information included in a post, history information of sharing other posts, and preference information such as likes and dislikes for other posts may be collected as the first user data.
또 다른 예로, 제1 및 제2 사용자 데이터는 제1 및 제2 사용자 간의 영상 통화나 음성 통화와 같은 통화 데이터를 포함할 수도 있다.As another example, the first and second user data may include call data such as a video call or a voice call between the first and second users.
만약, 제1 사용자 또는 제2 사용자에 상응하는 음성이나 영상, 이미지가 없는 경우, 서버(100)는 각 사용자 단말(200, 300)로 학습에 필요한 데이터를 요청할 수 있으며, 각 사용자는 자신의 음성을 입력하거나 사진을 찍거나, 텍스트를 직접 입력하여 서버(100)로 전달할 수 있다.If there is no voice, video, or image corresponding to the first user or the second user, the
다음으로, 서버(100)는 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습한다(S130). Next, the
일 실시예로, 서버(100)는 제2 사용자 데이터로부터 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보와 영상 정보를 추출하고, 추출된 음원 정보와 영상 정보를 미리 준비된 스크립트 정보에 부가하여 인공지능 알고리즘을 학습한다.In one embodiment, the
예를 들어, 제2 사용자의 인스타그램의 게시물을 통해 음원 정보와 영상 정보를 추출하여 제2 사용자의 얼굴과 표정 정보, 그리고 목소리 정보를 획득한다. 서버(100)는 이를 미리 준비된 최초 스크립트 정보에 부가하여 인공지능 알고리즘을 학습시킨다. For example, the second user's face and expression information, and voice information are obtained by extracting sound source information and image information through a post on Instagram of the second user. The
이때, 서버(100)는 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 인공지능 알고리즘을 학습할 수 있다. 즉, 본 발명의 일 실시예는 제2 사용자에 상응하는 인공지능 캐릭터를 생성함에 있어 단순히 제2 사용자 데이터만을 이용하는 것이 아니라, 인공지능 캐릭터 생성을 요청한 제1 사용자에 대한 제1 사용자 데이터를 더 반영하여 생성하는 것을 특징으로 한다. 이 경우, 제1 사용자에게 보다 친숙한 목소리, 얼굴, 표정 등을 지닌 인공지능 캐릭터 생성이 가능하다는 장점이 있다.In this case, the
여기에서, 제1 및 제2 사용자 데이터 간의 유사도라 함은 제1 및 제2 사용자 데이터가 공통적으로 포함하고 있는 데이터를 의미한다. 이는 단순히 텍스트, 영상, 이미지 등의 동일성만을 의미하는 것이 아니며, 이미지, 텍스트, 영상으로부터 도출되는 제1 및 제2 사용자 간의 연관성을 포함한다. 일 예로, 제1 사용자 데이터에는 없으나 제2 사용자 데이터로부터 수집된 사진에 제1 및 제2 사용자가 동시에 포함된 경우 연관성이 있는 것으로, 서버(100)는 이 경우 소정의 등급의 유사도를 갖는 것으로 판단할 수 있다. 이때, 서버(100)는 사진에 제1 및 제2 사용자만이 있는 경우 가장 높은 유사도를 부여하고, 다른 사람들과 함께 있는 경우 그 수에 따라 등급별 유사도를 부여할 수 있다. 이러한 연관성과 관련하여, 서버(100)는 친구, 부모, 자식, 손자 등과 같은 사회적 관계 설정 데이터를 더 반영하여 인공지능 알고리즘을 학습할 수도 있다.Here, the similarity between the first and second user data means data commonly included in the first and second user data. This does not simply mean the sameness of text, image, image, etc., but also includes association between the first and second users derived from the image, text, and image. For example, if the first and second users are included at the same time in the photo that is not in the first user data but collected from the second user data, there is a correlation, and the
본 발명의 일 실시예에서의 인공지능 알고리즘은 딥러닝, 신경망, 기계학습 등 어느 하나의 특정한 것으로 한정되는 것이 아니며, 필요에 따라 다양한 알고리즘이 적용될 수 있다.The artificial intelligence algorithm in an embodiment of the present invention is not limited to any one specific one, such as deep learning, neural network, machine learning, and various algorithms may be applied as needed.
다음으로, 서버(100)는 학습된 인공지능 알고리즘에 기초하여 제2 사용자에 상응하는 인공지능 캐릭터를 생성하고(S140), 생성된 인공지능 캐릭터를 제1 사용자 단말(200)로 제공한다(S150).Next, the
이때, 서버(100)는 제1 사용자 단말(200)로 인공지능 캐릭터를 제공한 이후, 제1 사용자 단말(200)을 통해 제공된 인공지능 캐릭터와 제1 사용자 간의 대화 정보를 수집하고, 수집된 대화 정보에 기초하여 스크립트 정보를 업데이트할 수 있다. 그리고 서버(100)는 업데이트된 스크립트 정보에 기초하여 인공지능 알고리즘을 학습할 수 있다.At this time, after the
도 5는 제1 및 제2 사용자 데이터를 이용하여 인공지능 캐릭터를 생성하는 과정을 보다 상세히 도시한 도면이다.5 is a diagram illustrating in more detail a process of generating an artificial intelligence character using first and second user data.
먼저, 서버(100)는 제1 및 제2 사용자 단말(200, 300)을 대상으로 회원 가입 요청에 대응하여 본인 인증 확인 절차를 거쳐 회원 가입을 승인한다(S210). 이때, 서버(100)는 제1 및 제2 사용자로부터 인공지능 캐릭터 생성시 사용될 사용자 데이터의 대상 범위에 대한 선택 입력을 수신할 수 있다. 즉, 페이스북만을 대상으로 사용자 데이터를 수집할 것인지, 페이스북과 인스타그램을 모두 대상으로 하여 사용자 데이터를 수집할 것인지 그 범위에 대한 선택 입력을 수신할 수 있다. 이는 사용자의 개인 정보를 수집하는 것이므로 사용자들의 개인 정보 활용 동의를 함께 받을 수 있다.First, the
이후, 제1 사용자는 전화번호나, SNS 계정, 이메일 등을 통해 인공지능 캐릭터로 생성할 제2 사용자를 선택한다(S220). 그 다음, 서버(100)는 제1 사용자 단말(200)과 제2 사용자 단말(300)로 제1 및 제2 사용자 데이터 제공을 요청하여(S230), 제1 및 제2 사용자 데이터를 수집한다(S240).Thereafter, the first user selects a second user to be created as an artificial intelligence character through a phone number, SNS account, e-mail, or the like (S220). Then, the
서버(100)는 각 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습한다(S250). 이때, 제1 및 제2 사용자 데이터를 통해 학습되는 내용으로는 제1 및 제2 사용자 간의 관심분야, 선호도, 유사성, 상호 관계, 지리적 특성, 상호 호감도, 제1 및 제2 사용자 각각의 얼굴, 표정, 목소리 등일 수 있다. 이를 통해, 제1 사용자에게 보다 감성적인고 친근감이 드는 인공지능 캐릭터를 제공할 수 있으며, 보다 일상적이고 공감이 가능한 내용을 중심으로 제1 사용자의 현재 상황을 인지하고 보다 친밀하고 익숙한 대화를 할 수 있도록 한다. The
이후, 서버(100)는 학습된 인공지능 알고리즘을 이용하여 제2 사용자에 상응하는 인공지능 캐릭터를 생성하고(S260), 이를 제1 사용자 단말(200)로 제공한다(S270).Thereafter, the
이렇게 생성된 인공지능 캐릭터는 제1 사용자의 호출에 따라 구동되어, 제1 사용자에게 정서적으로 안정되고 호감있는 친근자의 얼굴과 목소리로 제공되며, 상호 대화를 통해 제1 사용자로 하여금 교감과 심리적 안정을 유지할 수 있도록 할 수 있다.The artificial intelligence character created in this way is driven according to the call of the first user, and is provided to the first user with the face and voice of a friendly person who is emotionally stable and likable, and enables the first user to achieve sympathy and psychological stability through mutual conversation. be able to keep it
서버(100)는 제1 사용자 단말(200)로 인공지능 캐릭터가 제공된 이후에도, 대화 정보를 제1 사용자 단말(200)로부터 지속적으로 수집하고, 이를 기반으로 인공지능 알고리즘을 업데이트하여 제1 사용자에게 더욱 부합되는 인공지능 캐릭터가 생성될 수 있도록 한다(S280).The
서버(100)는 이러한 대화 과정에서 새롭게 축적된 데이터들을 이용하여 지속적인 학습을 수행하며, 이를 통해 보다 더 많은 이해를 바탕으로 제1 사용자와 인공지능 캐릭터 간의 교감과 추억, 기억 등의 이벤트를 만들어나갈 수 있다.The
도 6은 복수의 제1 사용자 단말(200)을 통해 인공지능 캐릭터를 제공하는 내용을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the contents of providing an artificial intelligence character through a plurality of
본 발명의 일 실시예에서 서버(100)는 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성할 수 있다(S310). 즉, 서버(100)는 제1 사용자가 복수의 제2 사용자를 선택한 경우, 복수의 제2 사용자에 각각 상응하는 개수의 인공지능 캐릭터를 생성할 수 있다.In an embodiment of the present invention, the
이와 같이 생성된 복수의 인공지능 캐릭터는 복수의 제1 사용자 단말(200)마다 각각 제공될 수 있다. 이때, 복수의 제1 사용자 단말(200)은 제1 사용자 단말과 페어링되거나 인터넷을 통해 연결된 사용자 단말을 포함할 수 있다.The plurality of artificial intelligence characters generated in this way may be provided for each of the plurality of
서버(100)는 복수의 제1 사용자 단말(200) 중 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말(200)을 활성화시켜 제1 사용자에게 인공지능 캐릭터와의 대화가 가능하게 할 수 있다.The
일 실시예로, 서버(100)는 복수의 제1 사용자 단말(200) 각각에 직접 인공지능 캐릭터를 제공할 수 있다. 이에 따라, 제1 사용자는 안방에 배치된 AI 스피커를 통해서는 친근자 A의 인공지능 캐릭터와 대화하고, 거실에 배치된 TV를 통해서는 친근자 B의 인공지능 캐릭터와 대화할 수 있다.In an embodiment, the
이와 달리, 서버(100)는 제1 사용자의 스마트 단말에 생성된 복수의 인공지능 캐릭터를 모두 제공하고, 스마트 단말은 TV, AI 스피커, 챗봇, 홈로봇, 인형 등 제1 사용자 단말(200)과 연결된 각 사용자 단말로 인공지능 캐릭터를 제공할 수 있다. 이 경우, 제1 사용자는 장소 및 특정 사용자 단말에 구애받지 않고 인공지능 캐릭터의 호출이 가능하다. 예를 들어, 안방에 배치된 AI 스피커를 통해 친근자 A의 인공지능 캐릭터를 호출할 수 있고, 거실에 배치된 TV를 통해서도 친근자 A의 인공지능 캐릭터를 호출할 수 있다. In contrast, the
이때, 복수의 제1 사용자 단말(200)을 이용함으로써, 제1 사용자의 인공지능 캐릭터의 호출은 동일 시점에 반드시 하나의 인공지능 캐릭터만을 호출하는 것이 아닌 동시에 복수 개를 호출하여 집단적인 대화를 통해 가족적인 느낌의 대화를 재연할 수도 있다.At this time, by using the plurality of
도 7은 인공지능 캐릭터를 이용한 헬스케어 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a healthcare method using an artificial intelligence character.
본 발명의 일 실시예는 제1 사용자 단말(200)로 제공된 인공지능 캐릭터를 이용하여 제1 사용자에게 헬스케어 서비스를 제공할 수 있다. 이때, 제공되는 헬스케어 서비스는 치매 진단 및 예방 서비스일 수 있으나, 반드시 이에 한정되는 것은 아니다.An embodiment of the present invention may provide a health care service to the first user using the artificial intelligence character provided to the
구체적으로, 서버(100)는 제1 사용자 단말(200)을 통해 제공된 인공지능 캐릭터와 제1 사용자 간의 대화 정보를 수집한다(S410). 이때, 서버(100)는 제1 사용자와의 대화 단절을 방지하기 위하여, 소정의 기간 동안 대화가 없을 경우 먼저 인공지능 캐릭터가 제1 사용자에게 대화를 하게끔 할 수 있다.Specifically, the
이와 같은 본 발명의 일 실시예는 자연스러운 대화의 과정에서 함께 공감대를 가질 수 있는 사건과 장면 등의 기억을 통해 인지적 판단 능력 등을 검증하게 하여 치매의 정보를 판단할 수 있다.Such an embodiment of the present invention can determine information on dementia by verifying cognitive judgment ability, etc. through the memory of events and scenes that can have a consensus together in the course of a natural conversation.
다음으로, 서버(100)는 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하고(S420), 헬스케어 정보를 제1 사용자 단말로 제공한다(S430).Next, the
본 발명의 일 실시예에서의 대화 정보는 단순히 음성 간의 대화가 아니라 제1 사용자 단말을 통해 입력된 텍스트, 영상, 사진, 음성, 특정 문제에 대한 선택 입력을 모두 포함하는 개념이다.Conversation information in an embodiment of the present invention is not a simple conversation between voices, but a concept including text, video, photo, voice, and selection input for a specific problem input through the first user terminal.
일 실시예로, 서버(100)는 인공지능 캐릭터에 의한 대화에 연속되는 제1 사용자의 대화 간의 일치도를 분석하고, 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 헬스케어 정보로 생성할 수 있다.In one embodiment, the
여기에서, 일치도는 인공지능 캐릭터에 의한 대화에 연속되는 제1 사용자의 대화 간의 주제, 문맥, 단어에 대한 각 일치도 중 적어도 하나를 포함하는 개념이다. 예를 들어, 인공지능 캐릭터가 "오늘 무엇을 드셨나요?"라는 대화를 했을 경우, 제1 사용자가 이와 무관한 주제인 "어제 날씨가 안좋았어"라는 연속되는 대화를 한 경우, 각 대화간의 일치도는 0인 것으로 판단할 수 있다. 이러한 일치도는 수치화되어 제공되거나, 등급별로 구분되어 제공되는 등 실시 형태에 따라 다양하게 제공될 수 있다.Here, the degree of agreement is a concept including at least one of each degree of agreement with respect to a topic, a context, and a word between conversations of the first user consecutive to the conversation by the artificial intelligence character. For example, if the AI character has a conversation with "What did you eat today?", if the first user has a series of conversations with an unrelated topic "The weather was bad yesterday", the degree of correspondence between the conversations can be determined to be 0. This degree of agreement may be provided in various ways depending on the embodiment, such as being provided numerically or provided separately by grade.
일 예로, 서버(100)는 인공지능 캐릭터를 통해 치매 진단 프로그램을 제공할 수 있으며, 치매 진단 프로그램을 통해 문제 타입으로 대화를 유도하여 제1 사용자의 수리력, 기억력, 지남력, 어휘력, 주의 집중력을 분석할 수 있다.As an example, the
일 실시예로, 이러한 문제 타입으로 제공시, 서버(100)는 제1 사용자 단말(200)의 카메라를 통해, 제1 사용자 단말(200)의 화면 상에 인공지능 캐릭터를 통한 문제가 출력된 시각 이후부터 제1 사용자에 의해 정답을 위한 정보가 입력되는 시각까지의 시간 동안 사용자의 안구인식 데이터를 더 획득할 수도 있다. 이와 같은 안구인식 데이터를 활용하면 손상된 인지력을 정밀 측정할 수 있다는 장점이 있다.In one embodiment, when providing this type of problem, the
예를 들어, 서버(100)는 각 문제가 출력되어 제1 사용자 단말(200)을 통한 정답을 위한 정보가 입력되기까지의 평균 문제 제공 시간을 산출하고, 안구인식 데이터에 기초하여 각 문제가 출력되어 정답을 위한 정보가 입력되기까지 제1 사용자가 화면을 주시한 평균 화면 주시 시간을 산출한다.For example, the
이후, 서버(100)는 평균 문제 제공 시간 대비 평균 화면 주시 시간이 소정의 최소 주시 시간에 따른 비율 이상을 만족하는지 여부에 기초하여 치매 진단 결과를 생성한다. 이때, 최소 주시 시간은 정답을 맞춘 것으로 확인된 다수의 사용자의 평균 화면 주시 시간으로부터 결정될 수 있으며, 최소 주시 시간은 치매 진단 프로그램을 이용하는 사용자의 수가 증가할 수록 갱신될 수 있다. 또한, 최소 주시 시간은 사용자의 연령, 학력, 성별, 치매 정도 등에 따라 사용자별로 구분되어 설정될 수도 있다.Thereafter, the
또한, 서버(100)는 평균 화면 주시 시간과 최소 주시 시간을 제1 사용자 단말(200)의 각 영역별로 구분하여 산출할 수 있다. 일 예로, 정답에 해당하는 영역이나 문제에 해당하는 영역에 상응하는 각 주시 시간의 가중치를 더 높게 부여하여, 치매 정도를 더욱 정밀하게 진단할 수 있도록 한다.In addition, the
이러한 인공지능 캐릭터를 이용하여 치매와 같은 헬스케어 서비스에 이용할 경우, 기존의 서비스 방식들보다 거부감이 적고 자존감과 친밀감을 바탕으로 일상의 대화 내용과 추억을 기반으로 하는 적극적인 참여를 유도할 수 있다. 이를 통해 매일 일상의 대화 속에서 치매 예방적 의료 서비스를 제공함으로서 자연스럽게 정신적, 신체적 건강을 유지할 수 있는 헬스케어 서비스 제공이 가능하다는 장점이 있다. 이러한 인공지능 캐릭터를 이용한 헬스케어 서비스는 향후 노인뿐만 아니라, 발달 장애아, 자폐아, 우울증 환자, 젊은 1인 세대 등에게도 심리적 안정감을 줄 수 있으며, 그들이 필요로 하는 심리적 치료 방향을 친근자들의 얼굴과 목소리로 상담하고 대응하는 서비스로 확대 발전될 수 있다.When using such an artificial intelligence character for health care services such as dementia, it has less resistance than existing service methods and can induce active participation based on daily conversations and memories based on self-esteem and intimacy. Through this, it is possible to provide health care services that can naturally maintain mental and physical health by providing dementia preventive medical services in daily conversations. Healthcare services using these artificial intelligence characters can provide psychological stability to not only the elderly, but also children with developmental disabilities, autism, depressed patients, and young single generations, and provide the psychological treatment direction they need with the faces and voices of familiar people. It can be expanded and developed into a service that provides consultation and response.
도 8은 다양한 데이터를 수집하여 헬스케어 정보를 생성하는 일 예시를 도시한 도면이다.8 is a diagram illustrating an example of generating health care information by collecting various data.
그밖에, 서버(100)는 건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 헬스케어 정보를 생성할 수 있다.In addition, the
즉, 실내외 설치된 센서와 제1 사용자의 바이오 센서를 통해 수집된 데이터를 사전 입력된 제1 사용자의 바이오 정보 등과 함께 빅데이터로 누적되도록 하여, 제1 사용자에게 보다 적합한 환경을 실시간 비교 분석하고, 이를 기반으로 환경 변화에 대한 올바른 대응방법을 제시하여, 제1 사용자에게 안정적인 헬스케어와 사전 예방 의료 서비스가 제공되게끔 할 수 있다.That is, data collected through indoor and outdoor installed sensors and the biosensor of the first user is accumulated as big data together with the bioinformation of the first user input in advance, so that an environment more suitable for the first user is compared and analyzed in real time, and this Based on this, it is possible to present a correct response method to environmental changes so that stable health care and preventive medical services can be provided to the first user.
예를 들어, 실외에 별도의 미세먼지 센서 기능을 갖춘 IoT 환경 측정기를 설치하고, 측정기에서 발생한 측정 데이터(PM1.0, PM2.5, PM10, 온도, 습도, 강수량, 냄새, 꽃가루,곰팡이 등)는 일정 시간에 통신 수단을 통해 서버(100)로 전달된다. For example, install an IoT environment meter with a separate fine dust sensor function outdoors, and the measurement data generated by the meter (PM1.0, PM2.5, PM10, temperature, humidity, precipitation, odor, pollen, mold, etc.) is transmitted to the
또한, 사용자의 위치를 기반으로 정부에서 발표하는 기상청의 공공 환경 데이터를 추가하여, 서버(100)는 제1 사용자가 위치한 현재의 환경 상황을 분석하고 이에 대한 대응 방안 또는 추천 상황을 정리하여 제1 사용자에게 적절한 운동과 환기 요구 등 건강과 환경 개선을 유도할 수 있도록 인공지능 캐릭터와의 대화를 통해 전달할 수 있다.In addition, by adding the public environment data of the Korea Meteorological Administration announced by the government based on the user's location, the
또한, 서버(100)는 제1 사용자의 바이오 데이터를 분석한 결과가 미리 설정된 기준치 이상의 응급 상황으로 판단될 경우 본인 및 등록된 제1 사용자의 친근자, 가족, 보호자, 119 등에 문자, 전화 등으로 긴급 상황을 알리는 기능을 제공할 수 있다.In addition, when it is determined that the result of analyzing the bio data of the first user is an emergency situation greater than or equal to a preset standard value, the
이와 함께 향후, 본 발명에 따른 헬스케어 서비스는 IoT 기반의 센서들과 연동하여, 실내 공기가 오염될 경우 자동으로 환기 시스템을 작동시키거나, 창문을 열어 환기하는 모드로 작동하게 하며, 외부 공기가 오염되었을 경우 열린 창문을 닫고 외부 유입 공기를 공기청정기 및 정화 필터를 통해 유입되도록 제어할 수 있다.In the future, the healthcare service according to the present invention will link with IoT-based sensors to automatically operate the ventilation system when indoor air is polluted, or to operate in a ventilation mode by opening a window, and If it is polluted, the open window can be closed and the outside air can be controlled to flow through the air purifier and purification filter.
한편, 도 8에서는 환경 데이터 서버, 인공지능 서버, 헬스케어 서버, 캐릭터 서버 등 다양한 서버를 통해 구성되어 각 기능이 동작하는 것으로 설명하였으나 반드시 이에 한정되는 것은 아니다. 이는 설명의 편의상 구분한 것으로서, 실시예에 따라 하나의 서버인 인공지능 캐릭터 서버(100)에 의해 구현될 수 있음은 물론, 둘 이상의 서버가 서로 조합되어 구현될 수 있음은 물론이다.On the other hand, although it has been described that each function is configured through various servers such as an environmental data server, an artificial intelligence server, a health care server, and a character server in FIG. 8 , it is not necessarily limited thereto. This is divided for convenience of description, and may be implemented by one server, the artificial
한편, 상술한 설명에서, 단계 S110 내지 S430은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 3의 내용은 도 4 내지 도 8의 내용에도 적용될 수 있다.Meanwhile, in the above description, steps S110 to S430 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed. In addition, the contents of FIGS. 1 to 3 may also be applied to the contents of FIGS. 4 to 8 even if other contents are omitted.
전술한 본 발명의 일 실시예에 따르면 다음과 같은 효과를 기대할 수 있다.According to an embodiment of the present invention described above, the following effects can be expected.
먼저, 본 발명의 일 실시예는 제1 사용자, 특히 노인의 고독감을 해소할 수 있다는 장점이 있다. 혼자 계시는 노인들에게 가장 필요한 것은 대화이며, 특히 가족, 자식, 친근자와의 대화일 것이다. 또한, 노년기 건강을 위해서는 반드시 대화가 필요한데, 서울아산병원의 조사에 의하며 대화가 단절된 채 홀로 사는 노인의 우울감은 정상 노인에 비해 4배 가량 높으며, 신체 장애의 발생률도 2.5배 높아 건강을 헤칠 수 있다는 연구 결과가 있듯이, 신체적으로는 노쇠하지 않더라도 자주 소통하고 대화하지 않으면, 정신과 신체의 건강을 모두 해칠 수 있다는 문제가 있다. 본 발명의 일 실시예에 따르면, 특히 심리적 안정감을 주는 노인의 친근자들을 중심으로 인공지능을 통한 상호간의 친밀도와 내용을 분석하여 친근자의 얼굴 표정과 목소리로 가공된 인공지능 캐릭터를 제공하여, 대화의 집중도와 관심도를 높일 수 있으며, 이로 인한 노인의 고독감을 해소하여 심리적, 신체적 안정감을 높일 수 있다.First, an embodiment of the present invention has an advantage in that the first user, particularly the elderly, can relieve the feeling of loneliness. The most important thing for the elderly living alone is conversation, especially with family, children, and close friends. In addition, conversation is essential for health in old age. According to a survey by Asan Medical Center in Seoul, the feeling of depression of the elderly living alone with communication cut off is 4 times higher than that of the normal elderly, and the incidence of physical disabilities is 2.5 times higher, which can harm health. As research has shown, there is a problem that even if you are not physically old, if you do not communicate and communicate frequently, you can harm both your mental and physical health. According to an embodiment of the present invention, in particular, by analyzing mutual intimacy and content through artificial intelligence, focusing on close friends of the elderly who give psychological stability, artificial intelligence characters processed with the facial expressions and voices of the friendly people are provided, It is possible to increase the concentration and interest of the elderly, thereby relieving the feeling of loneliness in the elderly and increasing psychological and physical stability.
또한, 노인과 친근자 간의 대화 내용도 사전 인공지능 학습을 통해 본인의 이야기와 친근자의 내용을 중심으로 풀어나가도록 하며, 지속적인 대화를 통한 업데이트가 가능하도록 하여, 인공지능 캐릭터와 대화하더라도 이질감이 느껴지지 않는, 맞춤형 대화를 통해 마치 가족과 함께 이야기 하는 정서적인 분위기를 느낄 수 있다.In addition, the conversation between the elderly and the friendly person is also solved focusing on their own story and the friendly person's contents through prior AI learning, and it is possible to update through continuous conversation, so that even if you talk with an AI character, you do not feel a sense of alienation. You can feel the emotional atmosphere as if you were talking with your family through a personalized conversation.
이러한 가족같은 분위기를 통해 과거의 기억과 추억의 사진 등을 친근자와 함께 자연스럽게 이야기 나누는 과정에서 인지적인 학습과 치매 예방을 위한 프로그램 참여도를 높일 수 있다. 특히, 거부감이 있거나 자존감을 떨어트릴 수 있는 유아적 치매 관리 프로그램보다 더욱 높은 집중도를 유도할 수 있으며, 본인의 특성에 맞는 지속 가능하고 정확성 있는 맞춤형 치매 예방 관리가 가능할 수 있다.Through such a family-like atmosphere, it is possible to increase the participation in cognitive learning and dementia prevention programs in the process of naturally sharing past memories and photos of memories with close friends. In particular, it can induce a higher level of concentration than the dementia management program for infants that may have a sense of rejection or lower self-esteem, and it may be possible to provide sustainable and accurate customized dementia prevention management according to the person's characteristics.
또한, 친근자의 SNS로부터 실시간 업데이트되는 데이터들은 노인들에게 친근자의 근황을 알려주고, 필요시 바로 연락하기와 같은 기능을 통하여 친근자와 실제 통화도 가능하게 할 수 있다.In addition, real-time updated data from the friendly person's SNS can inform the elderly of the friendly person's current status, and, if necessary, make an actual call with the friendly person through a function such as direct contact.
또한, 이동이 자유롭지 못하거나, 왕래가 많지 않은 노인들은 대부분 혼자 집안에서 머물며, 활동을 극히 제한 하고 있는 경우가 많다. 이를 위해, 본 발명의 일 실시예는 집안 밖에 부착된 센서를 통해 집안 밖의 미세먼지를 비롯한 대기 환경에 대한 정보를 수집하고 이를 노인에게 제공하여 환기를 하거나 창문을 닫게 할 수 있다. 또한, 본인의 건강 정보와 연동하여 어떻게 대처할 것인지 안내하게 할 수 있고, 응급 상황에 따라서는 등록된 친근자나 보호자 및 사회복지사, 119 등에 긴급 호출을 통해 응급 상황을 알릴 수도 있다. In addition, the elderly who are not able to move freely or do not travel much stay at home alone and have very limited activities in many cases. To this end, an embodiment of the present invention may collect information on the atmospheric environment including fine dust outside the house through a sensor attached outside the house and provide it to the elderly to ventilate or close the window. In addition, it can be linked to the person's health information to guide them on how to respond, and depending on the emergency situation, the emergency situation can be notified through an emergency call to a registered close friend, guardian, social worker, or 911.
이와 더불어, 본 발명의 일 실시예는 복수의 인공지능 캐릭터와의 대화를 통해 사회성과 가족적인 분위기를 느낄 수 있으며, 절대적 고독감이 많은 노인에게는 충분한 심리적 보상과 안정감을 느낄수 있게 할 수 있다. 또한, 친근자를 등록하지 못하는 경우 본인의 개인적인 정보를 바탕으로 대화를 통해 별도의 가상의 친근자를 생성할 수 있게 하여 외로움과 심리적 안정감을 줄 수 있도록 할 수 있다.In addition, an embodiment of the present invention can feel social and family atmosphere through conversation with a plurality of artificial intelligence characters, and can make it possible to feel sufficient psychological compensation and stability for the elderly who have a lot of absolute loneliness. In addition, when it is not possible to register a friend, it is possible to create a separate virtual friend through conversation based on personal information, thereby providing loneliness and psychological stability.
이상에서 전술한 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The artificial intelligence character creation method using user data according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. there is. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
1: 인공지능 캐릭터 생성 시스템
100: 인공지능 캐릭터 생성 서버
110: 통신모듈
120: 메모리
130: 프로세서
200: 제1 사용자 단말
300: 제2 사용자 단말1: Artificial intelligence character creation system
100: artificial intelligence character creation server
110: communication module
120: memory
130: processor
200: first user terminal
300: second user terminal
Claims (13)
제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하는 단계;
상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계;
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계;
상기 학습된 인공지능 알고리즘을 이용하여 상기 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 단계; 및
상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계를 포함하되,
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습시키는 단계는,
상기 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 상기 인공지능 알고리즘을 학습하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
A method performed by a computer comprising:
Receiving an artificial intelligence character creation request corresponding to the second user using the second user terminal from the first user using the first user terminal;
collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively;
learning an artificial intelligence algorithm based on the collected first and second user data;
generating an artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm; and
Comprising the step of providing the generated artificial intelligence character to the first user terminal,
The step of learning an artificial intelligence algorithm based on the collected first and second user data includes:
Learning the artificial intelligence algorithm by further reflecting the first user data based on the similarity between the first and second user data,
An artificial intelligence character creation method using user data.
상기 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터인 것을 특징으로 하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
According to claim 1,
The first and second user data is characterized in that the data based on a social networking service,
An artificial intelligence character creation method using user data.
상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계는,
상기 제1 및 제2 사용자에 상응하는 상기 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나의 제1 및 제2 사용자 데이터를 수집하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
3. The method of claim 2,
Collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively,
Collecting first and second user data of at least one of photos, videos, texts, map information, sharing information, preferences, individual input data, and voice data in the social networking service corresponding to the first and second users; that is,
An artificial intelligence character creation method using user data.
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계는,
상기 제2 사용자 데이터로부터 상기 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보 및 영상 정보를 추출하는 단계; 및
상기 추출된 음원 정보 및 영상 정보를 미리 준비된 스크립트 정보에 부가하여 상기 인공지능 알고리즘을 학습하는 단계를 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
4. The method of claim 3,
Learning an artificial intelligence algorithm based on the collected first and second user data comprises:
extracting sound source information and image information to be used for an artificial intelligence character corresponding to the second user from the second user data; and
Including the step of learning the artificial intelligence algorithm by adding the extracted sound source information and image information to script information prepared in advance,
An artificial intelligence character creation method using user data.
상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계;
상기 대화 정보에 기초하여 상기 스크립트 정보를 업데이트하는 단계; 및
상기 업데이트된 스크립트 정보에 기초하여 상기 인공지능 알고리즘을 학습하는 단계를 더 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
5. The method of claim 4,
collecting conversation information between the artificial intelligence character provided through the first user terminal and the first user;
updating the script information based on the conversation information; and
Further comprising the step of learning the artificial intelligence algorithm based on the updated script information,
An artificial intelligence character creation method using user data.
상기 제2 사용자 단말은 상기 제1 사용자 단말을 이용 중인 제1 사용자와 연결 관계를 갖는 적어도 하나의 제2 사용자가 이용 중인 제2 사용자 단말이고,
상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는,
상기 적어도 하나의 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
According to claim 1,
The second user terminal is a second user terminal being used by at least one second user having a connection relationship with the first user using the first user terminal,
The step of generating the artificial intelligence character based on the collected user data corresponding to the second user comprises:
generating an artificial intelligence character corresponding to the at least one second user,
An artificial intelligence character creation method using user data.
상기 제2 사용자 단말은 상기 제1 사용자와 연결 관계를 갖지 않되, 상기 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
7. The method of claim 6,
The second user terminal does not have a connection relationship with the first user, but includes a third user terminal that is used by at least one third user having a connection relationship with the second user,
An artificial intelligence character creation method using user data.
상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는,
상기 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성하고,
상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계는,
상기 복수의 인공지능 캐릭터를 복수의 제1 사용자 단말마다 각각 제공하며,
상기 복수의 제1 사용자 단말은 상기 제1 사용자 단말과 페어링된 사용자 단말을 포함하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
7. The method of claim 6,
The step of generating the artificial intelligence character based on the collected user data corresponding to the second user comprises:
generating artificial intelligence characters corresponding to the plurality of second users, respectively;
The step of providing the generated artificial intelligence character to the first user terminal comprises:
Each of the plurality of artificial intelligence characters is provided for each of the plurality of first user terminals,
The plurality of first user terminals will include a user terminal paired with the first user terminal,
An artificial intelligence character creation method using user data.
상기 제1 사용자가 적어도 하나의 인공지능 캐릭터를 호출하는 단계;
복수의 제1 사용자 단말 중 상기 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말을 활성화시키는 단계를 더 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
9. The method of claim 8,
calling at least one artificial intelligence character by the first user;
Further comprising the step of activating at least one first user terminal corresponding to the called artificial intelligence character among a plurality of first user terminals,
An artificial intelligence character creation method using user data.
상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계;
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계; 및
상기 헬스케어 정보를 상기 제1 사용자 단말로 제공하는 단계를 포함하는,
인공지능 캐릭터를 이용한 헬스케어 방법.
In the health care method based on the artificial intelligence character creation method using user data according to any one of claims 1 to 9,
collecting conversation information between the artificial intelligence character provided through the first user terminal and the first user;
generating healthcare information by analyzing the collected conversation information; and
Comprising the step of providing the health care information to the first user terminal,
A healthcare method using artificial intelligence characters.
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는,
상기 인공지능 캐릭터에 의한 대화에 연속되는 상기 제1 사용자의 대화 간의 일치도를 분석하는 단계; 및
상기 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 상기 헬스케어 정보로 생성하는 단계를 포함하는,
인공지능 캐릭터를 이용한 헬스케어 방법.
10. The method of claim 9,
The step of generating health care information by analyzing the collected conversation information,
analyzing the degree of correspondence between the conversations of the first user that is continuous with the conversations by the artificial intelligence character; and
Including the step of generating a dementia diagnosis result including dementia type, dementia stage, dementia progress, customized training information and life guidance information as the health care information by reflecting the analyzed matching degree,
A healthcare method using artificial intelligence characters.
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는,
건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 상기 헬스케어 정보를 생성하는 것인,
인공지능 캐릭터를 이용한 헬스케어 방법.
10. The method of claim 9,
The step of generating health care information by analyzing the collected conversation information,
To generate the health care information by further collecting health-related data, safety-related data, indoor and outdoor environment and weather-related data,
A healthcare method using artificial intelligence characters.
적어도 하나의 제1 및 제2 사용자 단말과 데이터를 송수신하는 통신모듈,
상기 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하면, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하고,
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하여 상기 인공지능 캐릭터를 생성하고, 상기 생성된 인공지능 캐릭터를 상기 통신모듈을 통해 상기 제1 사용자 단말로 제공하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 서버.In the artificial intelligence character creation server using user data,
a communication module for transmitting and receiving data to and from at least one first and second user terminals;
a memory in which a program for generating an artificial intelligence character based on data from the first and second user terminals is stored; and
Including a processor for executing the program stored in the memory,
When the processor receives an artificial intelligence character creation request corresponding to the second user using the second user terminal from the first user using the first user terminal through the communication module as the program is executed, the Collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively;
Learning an artificial intelligence algorithm based on the collected first and second user data to generate the artificial intelligence character, and to provide the created artificial intelligence character to the first user terminal through the communication module,
Artificial intelligence character creation server using user data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200133757A KR102493280B1 (en) | 2020-10-15 | 2020-10-15 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200133757A KR102493280B1 (en) | 2020-10-15 | 2020-10-15 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220050302A true KR20220050302A (en) | 2022-04-25 |
KR102493280B1 KR102493280B1 (en) | 2023-02-01 |
Family
ID=81451937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200133757A KR102493280B1 (en) | 2020-10-15 | 2020-10-15 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102493280B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102555967B1 (en) * | 2022-05-25 | 2023-07-18 | 주식회사 투바앤 | Method for recommending a user character according to the other user's propensity based on artificial intelligence and a digital content providing server including the same |
KR102602426B1 (en) * | 2022-11-09 | 2023-11-17 | 주식회사 에스비솔루션 | Method and system for providing health assistant information in conversational format in conjunction with wearable sensor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017224190A (en) * | 2016-06-16 | 2017-12-21 | 株式会社オルツ | Artificial intelligence system for supporting communication |
KR102118585B1 (en) * | 2019-12-13 | 2020-06-03 | 가천대학교 산학협력단 | Smart Mirror Chatbot System and Method for Senior Care |
KR20200110498A (en) | 2019-03-13 | 2020-09-24 | (주)아이티엔제이 | Smart Monitoring System for elderly people living alone |
-
2020
- 2020-10-15 KR KR1020200133757A patent/KR102493280B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017224190A (en) * | 2016-06-16 | 2017-12-21 | 株式会社オルツ | Artificial intelligence system for supporting communication |
KR20200110498A (en) | 2019-03-13 | 2020-09-24 | (주)아이티엔제이 | Smart Monitoring System for elderly people living alone |
KR102118585B1 (en) * | 2019-12-13 | 2020-06-03 | 가천대학교 산학협력단 | Smart Mirror Chatbot System and Method for Senior Care |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102555967B1 (en) * | 2022-05-25 | 2023-07-18 | 주식회사 투바앤 | Method for recommending a user character according to the other user's propensity based on artificial intelligence and a digital content providing server including the same |
KR102602426B1 (en) * | 2022-11-09 | 2023-11-17 | 주식회사 에스비솔루션 | Method and system for providing health assistant information in conversational format in conjunction with wearable sensor |
Also Published As
Publication number | Publication date |
---|---|
KR102493280B1 (en) | 2023-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240054117A1 (en) | Artificial intelligence platform with improved conversational ability and personality development | |
US11367435B2 (en) | Electronic personal interactive device | |
US20190122093A1 (en) | Artificial intelligence system for supporting communication | |
US20160379107A1 (en) | Human-computer interactive method based on artificial intelligence and terminal device | |
Donaghue | Sex outside the lines: Authentic sexuality in a sexually dysfunctional culture | |
KR102009844B1 (en) | Facial expression recognition device and management service server for dementia patient using the same | |
Smock Jordan et al. | Utilizing solution-focused brief therapy with families living with autism spectrum disorder | |
KR102493280B1 (en) | Server and method for generating artificial intelligence character using user data, and healthcare method using the same | |
Stone et al. | From the individual to the collective: The emergence of a psychological approach to collective memory | |
KR20190034035A (en) | Method for providing vicarious experience service using virtual reality based on role-playing and bigdata | |
CN111448533A (en) | Communication model for cognitive system | |
da Rosa Tavares et al. | Apollo SignSound: an intelligent system applied to ubiquitous healthcare of deaf people | |
US11657729B2 (en) | Childhood development system | |
Currin et al. | Taking the red pill: Using The Matrix to explore transgender identity development | |
Davis et al. | Context-aware communication for severely disabled users | |
US20180293281A1 (en) | Method and system for facilitating context based information | |
KR102151505B1 (en) | Social mashup logic implementation system and method for improving sns dysfunction based on deep learning | |
Young et al. | Roadblocks and resistance: Digital mediation as a process of calibration among US parents of adolescents | |
Kozuh | The deaf and hard of hearing on social networking sites: Identity, community building and connections between communities | |
Wren | Researching the moral dimension of first-person narratives | |
Dabbous et al. | Meta-Digital-Communication | |
Willett | ‘In our family, we don’t watch those things’: parents’ discursive constructions of decision-making connected with family media practices | |
KR102599369B1 (en) | CUSTOMIZED CONTENT PROVIDING SYSTEM ANS METHOD FOR PROVIDING WebRTC-BASED REAL-TIME CHAT SERVICE | |
Hansaram | Exploring Middle-Class Malaysian Parents' Perceptions and Concerns About Children's Internet Usage | |
KR102488550B1 (en) | System for Caring Self Mind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |