KR20220050302A - Server and method for generating artificial intelligence character using user data, and healthcare method using the same - Google Patents

Server and method for generating artificial intelligence character using user data, and healthcare method using the same Download PDF

Info

Publication number
KR20220050302A
KR20220050302A KR1020200133757A KR20200133757A KR20220050302A KR 20220050302 A KR20220050302 A KR 20220050302A KR 1020200133757 A KR1020200133757 A KR 1020200133757A KR 20200133757 A KR20200133757 A KR 20200133757A KR 20220050302 A KR20220050302 A KR 20220050302A
Authority
KR
South Korea
Prior art keywords
user
artificial intelligence
data
information
intelligence character
Prior art date
Application number
KR1020200133757A
Other languages
Korean (ko)
Other versions
KR102493280B1 (en
Inventor
성선종
임완수
Original Assignee
(주)에픽랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에픽랩 filed Critical (주)에픽랩
Priority to KR1020200133757A priority Critical patent/KR102493280B1/en
Publication of KR20220050302A publication Critical patent/KR20220050302A/en
Application granted granted Critical
Publication of KR102493280B1 publication Critical patent/KR102493280B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Hospice & Palliative Care (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a method for generating an artificial intelligence character using user data. The method includes: receiving a request for creation of an artificial intelligence character, which corresponds to a second user who is using a second terminal, from a first user who is using a first user terminal; collecting first and second data corresponding to the first and second user, respectively, from the first and second user terminals; learning an artificial intelligence algorithm based on the collected first and second user data; creating the artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm; and providing the first user terminal with the created artificial intelligence character. According to the present invention, it is possible to provide an artificial intelligence character that can fill more intimacy to the user without being forced.

Description

사용자 데이터를 이용한 인공지능 캐릭터 생성 서버 및 방법과 이를 이용한 헬스케어 방법{SERVER AND METHOD FOR GENERATING ARTIFICIAL INTELLIGENCE CHARACTER USING USER DATA, AND HEALTHCARE METHOD USING THE SAME}AI character creation server and method using user data, and healthcare method using the same

본 발명은 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버 및 방법과 이를 이용한 헬스케어 방법에 관한 것이다.The present invention relates to an artificial intelligence character creation server and method using user data and a healthcare method using the same.

고령화 사회란, 총 인구 중에 65세 이상의 인구가 총 인구를 차지하는 비율이 7% 이상인 사회를 의미한다. 우리나라의 경우 2015년 기준 65세 이상 노인인구가 전체 인구의 13.1%에 이르며, 2026년에는 전체 인구의 40%에 이를 것으로 추정되고 있다.An aging society refers to a society in which the proportion of the population aged 65 and over among the total population is 7% or more. In Korea, as of 2015, the elderly population aged 65 and over accounted for 13.1% of the total population, and it is expected to reach 40% of the total population by 2026.

급속한 고령화의 속도에 따라 독거노인의 수도 급증하고 있으며, 독거노인의 경우 가족, 친구, 이웃 등의 사회적 관계망과의 교류가 단절되고 사회적 역할 상실에 따른 외로움과 고립감 등으로 사회 단절에 따른 문제와 심각성은 매우 높다.With the rapid aging of the population, the number of elderly living alone is also increasing rapidly. In the case of the elderly living alone, exchanges with social networks such as family, friends, and neighbors are cut off, and the problems and seriousness of social isolation due to loneliness and isolation due to loss of social roles. is very high

독거노인 뿐만 아니라, 최근 개인화가 더욱 가속화되면서 사람들 간의 교류의 기회가 점차 줄어들고 있고, 이러한 교류 역시 오프라인 상에서 이루어지는 것이 아닌 온라인 상에서 주로 이루어지고 있다.In addition to the elderly living alone, as personalization has accelerated in recent years, the opportunities for exchange between people are gradually decreasing, and these exchanges are mainly conducted online rather than offline.

최근 ICT 기술을 활용한 다양한 서비스가 제공되고 있으나, 대부분 온라인 상에서 사용자 간의 상호 교류를 위한 서비스에 국한되어 있을 뿐, 실제 오프라인에서 교류하는 것과 같은 서비스는 부재한 실정이다.Recently, various services using ICT technology have been provided, but most are limited to services for mutual exchange between users online, and there is no service such as actual offline exchange.

공개특허공보 제10-2020-0110498호(2020.9.24)Unexamined Patent Publication No. 10-2020-0110498 (2020.9.24)

본 발명이 해결하고자 하는 과제는 사용자 데이터를 이용하여 사용자와 친근한 사람을 대상으로 하는 가상의 캐릭터를 생성하여 제공할 수 있는, 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버 및 방법과 이를 이용한 헬스케어 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an artificial intelligence character creation server and method using user data that can create and provide a virtual character for a user friendly to a user using user data and a healthcare method using the same will provide

다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.However, the problems to be solved by the present invention are not limited to the problems described above, and other problems may exist.

상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법은 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하는 단계; 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계; 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계; 상기 학습된 인공지능 알고리즘을 이용하여 상기 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 단계; 및 상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계를 포함한다. 이때, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습시키는 단계는, 상기 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 상기 인공지능 알고리즘을 학습한다.In an artificial intelligence character creation method using user data according to a first aspect of the present invention for solving the above-mentioned problems, artificial intelligence corresponding to a second user using a second user terminal from a first user using a first user terminal receiving an intelligent character creation request; collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively; learning an artificial intelligence algorithm based on the collected first and second user data; generating an artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm; and providing the generated artificial intelligence character to the first user terminal. In this case, the step of learning the artificial intelligence algorithm based on the collected first and second user data may include learning the artificial intelligence algorithm by further reflecting the first user data based on the similarity between the first and second user data. do.

본 발명의 일부 실시예에서, 상기 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터일 수 있다.In some embodiments of the present invention, the first and second user data may be data based on a social networking service.

본 발명의 일부 실시예에서, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계는, 상기 제1 및 제2 사용자에 상응하는 상기 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나의 제1 및 제2 사용자 데이터를 수집할 수 있다.In some embodiments of the present invention, the step of collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively, includes the steps corresponding to the first and second users. First and second user data of at least one of photo, video, text, map information, shared information, preference, individual input data, and voice data in the social networking service may be collected.

본 발명의 일부 실시예에서, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계는, 상기 제2 사용자 데이터로부터 상기 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보 및 영상 정보를 추출하는 단계; 및 상기 추출된 음원 정보 및 영상 정보를 미리 준비된 스크립트 정보에 부가하여 상기 인공지능 알고리즘을 학습하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of learning the artificial intelligence algorithm based on the collected first and second user data includes sound source information to be used for the artificial intelligence character corresponding to the second user from the second user data. and extracting image information; and learning the artificial intelligence algorithm by adding the extracted sound source information and image information to script information prepared in advance.

본 발명의 일부 실시예는, 상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계; 상기 대화 정보에 기초하여 상기 스크립트 정보를 업데이트하는 단계; 및 상기 업데이트된 스크립트 정보에 기초하여 상기 인공지능 알고리즘을 학습하는 단계를 더 포함할 수 있다.Some embodiments of the present invention, the steps of collecting conversation information between the artificial intelligence character and the first user provided through the first user terminal; updating the script information based on the conversation information; and learning the artificial intelligence algorithm based on the updated script information.

본 발명의 일부 실시예에서, 상기 제2 사용자 단말은 상기 제1 사용자 단말을 이용 중인 제1 사용자와 연결 관계를 갖는 적어도 하나의 제2 사용자가 이용 중인 제2 사용자 단말이고, 상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는, 상기 적어도 하나의 제2 사용자에 상응하는 인공지능 캐릭터를 생성할 수 있다.In some embodiments of the present invention, the second user terminal is a second user terminal used by at least one second user having a connection relationship with a first user using the first user terminal, and the collected second The generating of the artificial intelligence character based on user data corresponding to the user may include generating an artificial intelligence character corresponding to the at least one second user.

본 발명의 일부 실시예에서, 상기 제2 사용자 단말은 상기 제1 사용자와 연결 관계를 갖지 않되, 상기 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함할 수 있다.In some embodiments of the present invention, the second user terminal does not have a connection relationship with the first user, but includes a third user terminal that is being used by at least one third user having a connection relationship with the second user. can do.

본 발명의 일부 실시예에서, 상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는, 상기 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성하고, 상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계는, 상기 복수의 인공지능 캐릭터를 복수의 제1 사용자 단말마다 각각 제공하며, 상기 복수의 제1 사용자 단말은 상기 제1 사용자 단말과 페어링된 사용자 단말을 포함할 수 있다.In some embodiments of the present invention, the generating of the artificial intelligence character based on the collected user data corresponding to the second user includes generating an artificial intelligence character corresponding to the plurality of second users, respectively, and The step of providing the generated artificial intelligence character to the first user terminal may include providing the plurality of artificial intelligence characters for each of a plurality of first user terminals, respectively, and the plurality of first user terminals are paired with the first user terminal It may include a user terminal that has been

본 발명의 일부 실시예는, 상기 제1 사용자가 적어도 하나의 인공지능 캐릭터를 호출하는 단계; 복수의 제1 사용자 단말 중 상기 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말을 활성화시키는 단계를 더 포함할 수 있다.Some embodiments of the present invention, the first user calling at least one artificial intelligence character; The method may further include activating at least one first user terminal corresponding to the called artificial intelligence character among the plurality of first user terminals.

또한, 본 발명의 제2 측면에 따른 인공지능 캐릭터를 이용한 헬스 케어 방법은 상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계; 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계; 및 상기 헬스케어 정보를 상기 제1 사용자 단말로 제공하는 단계를 포함한다.In addition, a health care method using an artificial intelligence character according to a second aspect of the present invention comprises the steps of: collecting conversation information between an artificial intelligence character provided through the first user terminal and the first user; generating healthcare information by analyzing the collected conversation information; and providing the healthcare information to the first user terminal.

본 발명의 일부 실시예에서, 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는, 상기 인공지능 캐릭터에 의한 대화에 연속되는 상기 제1 사용자의 대화 간의 일치도를 분석하는 단계; 및 상기 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 상기 헬스케어 정보로 생성하는 단계를 포함할 수 있다.In some embodiments of the present invention, the generating of healthcare information by analyzing the collected conversation information may include: analyzing a degree of correspondence between the conversations of the first user that is continuous with the conversations by the artificial intelligence character; and generating, as the health care information, a dementia diagnosis result including dementia type, dementia stage, dementia progress, customized training information, and life guidance information by reflecting the analyzed matching degree.

본 발명의 일부 실시예에서, 상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는, 건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 상기 헬스케어 정보를 생성할 수 있다.In some embodiments of the present invention, the generating of healthcare information by analyzing the collected conversation information may include generating the healthcare information by further collecting health-related data, safety-related data, indoor/outdoor environment and weather-related data. can

또한, 본 발명의 제3 측면에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버는 적어도 하나의 제1 및 제2 사용자 단말과 데이터를 송수신하는 통신모듈, 상기 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하면, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하고, 상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하여 상기 인공지능 캐릭터를 생성하고, 상기 생성된 인공지능 캐릭터를 상기 통신모듈을 통해 상기 제1 사용자 단말로 제공한다.In addition, the artificial intelligence character creation server using user data according to the third aspect of the present invention is a communication module for transmitting and receiving data with at least one first and second user terminals, data from the first and second user terminals A program for generating an artificial intelligence character based on a memory is stored therein, and a processor for executing the program stored in the memory. At this time, when the processor receives an AI character creation request corresponding to the second user who is using the second user terminal from the first user who is using the first user terminal through the communication module as the program is executed, , collects first and second user data corresponding to the first and second users from the first and second user terminals, respectively, and learns an artificial intelligence algorithm based on the collected first and second user data to generate the artificial intelligence character, and provide the created artificial intelligence character to the first user terminal through the communication module.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problems is combined with a computer, which is hardware, and executes an artificial intelligence character creation method using the user data, and is stored in a computer-readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상술한 본 발명에 의하면, 사용자와 친근감이 형성된 실제 타 사용자의 데이터를 수집 및 이용하여 인공지능 캐릭터를 생성함으로써, 사용자에게 억지스럽지 않고 보다 친밀감을 느낄 수 있는 인공지능 캐릭터 제공이 가능하다는 장점이 있다. According to the present invention described above, it is possible to provide an artificial intelligence character that can feel more intimacy without being forced to the user by generating an artificial intelligence character by collecting and using the data of other users who have an affinity with the user. .

특히, 타 사용자의 데이터뿐만 아니라 사용자의 데이터를 함께 이용하여 학습을 수행함으로써, 사용자와 무관한 정보를 제공하는 것이 아닌 보다 사용자에게 적합한 대화를 유도할 수 있는 인공지능 캐릭터 생성 및 제공이 가능하다.In particular, by performing learning using not only data of other users but also data of users, it is possible to create and provide artificial intelligence characters that can induce conversations more suitable for users rather than providing information irrelevant to the user.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템을 설명하기 위한 도면이다.
도 2는 제1 및 제2 사용자의 연결 관계를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 캐릭터 생성 방법의 순서도이다.
도 5는 제1 및 제2 사용자 데이터를 이용하여 인공지능 캐릭터를 생성하는 과정을 보다 상세히 도시한 도면이다.
도 6은 복수의 제1 사용자 단말을 통해 인공지능 캐릭터를 제공하는 내용을 설명하기 위한 도면이다.
도 7은 인공지능 캐릭터를 이용한 헬스케어 방법을 설명하기 위한 도면이다.
도 8은 다양한 데이터를 수집하여 헬스케어 정보를 생성하는 일 예시를 도시한 도면이다.
1 is a diagram for explaining an artificial intelligence character creation system using user data according to an embodiment of the present invention.
2 is a diagram for explaining a connection relationship between first and second users.
3 is a block diagram of an artificial intelligence character creation server using user data according to an embodiment of the present invention.
4 is a flowchart of an artificial intelligence character creation method according to an embodiment of the present invention.
5 is a diagram illustrating in more detail a process of generating an artificial intelligence character using first and second user data.
6 is a view for explaining the contents of providing an artificial intelligence character through a plurality of first user terminals.
7 is a diagram for explaining a healthcare method using an artificial intelligence character.
8 is a diagram illustrating an example of generating health care information by collecting various data.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

본 발명은 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100) 및 방법과 이를 이용한 헬스케어 방법에 관한 것이다.The present invention relates to an artificial intelligence character creation server 100 and method using user data, and a healthcare method using the same.

노령화 인구가 많아지고, 혼자 사는 독거노인의 비율이 증가함에 따라 최근 ICT 기술을 이용하여 다양한 독거노인을 위한 케어 서비스가 소개되고 있다. 이와 같은 서비스들은 대부분 서비스 제공 기관(회사)에서 기존에 일반인들을 위해 만들어진 인공지능 스피커 플랫폼을 이용해 서버에 프로그래밍된 내용을 중심으로 반응하며, 일반적인 내용의 전달에 국한되는 경우가 많았다.As the aging population increases and the proportion of the elderly living alone increases, recently, various care services for the elderly living alone using ICT technology are being introduced. Most of these services respond mainly to the contents programmed in the server using the artificial intelligence speaker platform previously created for the general public by service providers (company), and are often limited to the delivery of general contents.

이와 같이 ICT 및 인공지능 기술이 급속하게 발달함에 따라 실버케어 서비스도 다양하게 증가하고 있는 반면, 노인들의 가장 큰 애로사항 중 하나인 고독감과 외로움은 대화 상대가 없음에 기인하며, 이는 대화를 통해 정서적인 안정감을 느끼게 하고, 이를 통해 상호 교감함으로서 치유될 수 있다. 하지만, 이를 위한 실제 기존 서비스들이 제공하는 대화 서비스는 노인의 질문과 일상에 대한 모니터링을 통해 미리 서버에 프로그래밍된 지정된 답변을 친근감없이 기계적인 똑같은 목소리로 일방적으로 제공하고 있는 실정이다.As such, with the rapid development of ICT and artificial intelligence technology, various silver care services are also increasing, while loneliness and loneliness, one of the biggest difficulties of the elderly, is due to the absence of a conversation partner. It makes people feel a sense of security, and through this, they can be healed by communing with each other. However, the conversation service provided by the existing services for this purpose unilaterally provides the specified answers programmed in the server in advance through the monitoring of the elderly's questions and daily life with the same mechanical voice without familiarity.

일부 서비스 중에는 친근감을 높이고 노인의 관심 증가를 위해 디스플레이를 이용하여 특정 캐릭터 형상의 아바타를 통해 대화 서비스를 제공하기도 하나, 아바타의 이미지가 대부분 만화 또는 애니메이션 분위기로 노인들의 관심과 흥미를 끌지 못하고 있다. 최근 동물 형상의 인형을 통해 상호 교감을 높이고자 하는 서비스도 있으나, 동물 형상의 한계로 인해 감성적이고 친근감있는 대화 서비스는 제공하지 못하고 있다.Some services provide a conversation service through an avatar in a specific character shape using a display to increase friendliness and increase interest in the elderly. Recently, there are services that try to enhance mutual sympathy through animal-shaped dolls, but due to the limitations of animal-shaped dolls, emotional and friendly conversation services are not provided.

이러한 고독감과 외로움 이외에 노인 분들의 또 다른 걱정은 최근 치매 노인 인구의 증가에 있다. 일부 노인 돌봄 기능 서비스를 통해 치매 예방을 위한 프로그램을 제공하고 있으나, 대부분 인공지능 스피커를 통해 프로그래밍된 퀴즈를 풀거나 전래동화를 들려주고 이야기 속 내용을 묻는 정도에 지나지 않는다. 이는 유아 및 어린이용 프로그램의 콘텐츠와 운영방식이 대동소이 하여 일부 노인들에게는 내재적인 자존감을 떨어트리고 오히려 본인이 치매 증상이 있다는 것에 대한 상실감만 증가시켜 치매예방 프로그램의 이용을 꺼릴 수 있는 부정적인 요인으로 작용할 수 있다.In addition to the loneliness and loneliness, another concern of the elderly is the recent increase in the elderly population with dementia. Some elderly care services provide programs to prevent dementia, but most of them are nothing more than solving a programmed quiz or telling a fairy tale and asking about the content of a story through an artificial intelligence speaker. This is a negative factor that may be reluctant to use the dementia prevention program because the contents and operation method of the programs for infants and children are the same, which lowers the intrinsic self-esteem for some elderly people and increases the sense of loss that they have dementia symptoms. can work

요즘 노인들도 2G폰의 서비스 중지로 스마트폰을 사용하고 있는 비율이 높아 지고 있으나, 통화와 문자 서비스 사용이 대부분이며, 일부 카카오톡 및 사진 전송, 유튜브 영상 시청 등을 할 뿐 노인들이 이용할 만한 상호 교감형 스마트 기능 및 서비스는 실제 전무한 편이다. 따라서, 여가 시간 및 외로움을 줄이고 치매 예방을 위한 인지능력을 유지시켜 줄 수 있는 노인 친화적이고 ICT 기술을 이용한 실버 세대에 특화된 스마트 서비스가 절실히 요구되고 있다.Nowadays, the proportion of elderly people using smartphones is also increasing due to the suspension of 2G phone services, but most of them use phone calls and text services. Sympathetic smart functions and services are practically non-existent. Therefore, there is an urgent need for a smart service that is elderly-friendly and specialized for the silver generation using ICT technology, which can reduce leisure time and loneliness and maintain cognitive ability for dementia prevention.

또한, 노인은 생활 환경 변화에 취약하고, 면역력이 약해 날씨, 습도, 미세먼지, 곰팡이, 꽃가루, 강수, 세균, 바이러스 등 환경 변화에 민감하며, 급격한 변화에 노출될 경우 호흡기 질환 및 고혈압, 당뇨 등 기저 질환이 있을 경우 그 증상이 악화 되거나, 심할 경우 다른 합병증으로 발전하여 건강을 심하게 해칠 수 있는데, 개인적인 판단력과 주변 환경에 대한 이해 부족으로 대처능력이 떨어져 건강 관리에 취약 할 수 밖에 없는 실정이다. 이에 노인의 실내외 주변 환경을 인지하여 개인의 건강 상태에 맞는 대처 방법을 알려주고 ICT 센서 등을 활용한 자동 제어를 통해 주변 환경을 개인에게 맞는 환경으로 자동 컨트롤 해줄 수 있는 서비스 및 디바이스 등의 필요성이 높아 지고 있다.In addition, the elderly are vulnerable to changes in the living environment and have weak immunity and are sensitive to environmental changes such as weather, humidity, fine dust, mold, pollen, precipitation, bacteria, and viruses. If there is an underlying disease, the symptoms may worsen or, if severe, develop into other complications, which can seriously damage health. Accordingly, there is a high need for services and devices that can recognize the indoor and outdoor environment of the elderly, inform them of coping methods suitable for their health condition, and automatically control the surrounding environment to an environment suitable for the individual through automatic control using ICT sensors, etc. is losing

이와 같은 요구는 최근의 의료 서비스의 트렌드에서도 살펴볼 수 있는데, 무조건적으로 치료 중심의 의료 서비스를 제공하기 보다는 환자들의 참여(Participatory)로 개인 맞춤화(Personalized)되고 예측(Predictive)과 예방(Preventive)이 가능한 정밀 의료(Precision Medicine)를 추구하고 있으며, 헬스 케어 및 실버 케어의 패러다임도 ICT 기술을 중심으로 개인 의료 빅데이터를 연계한 예방 중심의 개인화 된 의료 서비스로 바뀌어 가고 있다. This demand can also be seen in the recent medical service trend. Rather than unconditionally providing treatment-oriented medical services, it is possible to personalize, predict, and prevent through patient participation (Participatory). Precision medicine is being pursued, and the paradigm of health care and silver care is also changing to a personalized medical service centered on prevention by linking personal medical big data with ICT technology.

스마트 폰의 보급 확대는 인간관계를 디지털로 전환하는 계기를 만들었고, 이에 맞춰 소셜 네트워크 및 소셜 미디어 서비스는 다양한 종류와 방식으로 개인을 인터넷 네트워크 상에서 표현할 수 있게 했으며, 개인간의 소통 방식 또한 소셜 네트워크와 소셜 미디어를 통한 상호 관계설정과 개인이 업로드 한 텍스트, 사진, 동영상, 링크, 지도, 선호도, 공유정보 등을 통해 본인의 관심사와 일상을 보여주며, 이를 통해 상대에 대한 이해와 공감대를 갖게 되는 방식으로 디지털 라이프 스타일이 변해 가고 있다.The expansion of smartphone penetration has created an opportunity to transform human relationships digitally, and social networks and social media services have made it possible to express individuals in various types and ways on the Internet network. Establishing mutual relationships through media and uploading texts, photos, videos, links, maps, preferences, shared information, etc., show your interests and daily life, and through this, you can understand and empathize with the other person. The digital lifestyle is changing.

이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100) 및 방법과 이를 이용한 헬스케어 방법을 설명한다.Hereinafter, an artificial intelligence character creation server 100 and method using user data according to an embodiment of the present invention and a healthcare method using the same will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)을 설명하기 위한 도면이다. 도 2는 제1 및 제2 사용자의 연결 관계를 설명하기 위한 도면이다. 도 3은 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 서버(100)의 블록도이다.1 is a diagram for explaining an artificial intelligence character creation system 1 using user data according to an embodiment of the present invention. 2 is a diagram for explaining a connection relationship between first and second users. 3 is a block diagram of an artificial intelligence character creation server 100 using user data according to an embodiment of the present invention.

도 1에 도시한 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)을 구성하는 각 구성요소들은 네트워크(network)를 통해 연결될 수 있다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크, WiFi 등이 포함되나 이에 한정되지는 않는다.Each component constituting the artificial intelligence character creation system 1 using user data shown in FIG. 1 may be connected through a network. The network refers to a connection structure in which information exchange is possible between nodes such as terminals and servers, and an example of such a network includes a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network. , WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, WiFi, etc. are included, but are not limited thereto.

도 1을 참조하면, 사용자 데이터를 이용한 인공지능 캐릭터 생성 시스템(1)은 제1 및 제2 사용자 단말(200, 300)과 인공지능 캐릭터 생성 서버(100)를 포함한다.Referring to FIG. 1 , an artificial intelligence character creation system 1 using user data includes first and second user terminals 200 and 300 and an artificial intelligence character creation server 100 .

한편, 인공지능 캐릭터 생성 서버(100, 이하 서버)가 도시된 도 1에서는 하나의 서버인 것으로 도시하였으나, 반드시 이에 한정되지 않는다. 즉, 인공지능 캐릭터 생성 서버(100)는 제1 및 제2 사용자에 대응하는 제1 및 제2 사용자 데이터를 관리하는 각각의 빅데이터 서버와 인공지능 알고리즘을 학습 및 관리하기 위한 서버로 구성되어 각각 상호 운영되는 형태로 실시될 수 있음은 물론이다.On the other hand, although the artificial intelligence character creation server 100 (hereinafter referred to as the server) is illustrated as one server in FIG. 1, it is not necessarily limited thereto. That is, the artificial intelligence character creation server 100 is composed of a big data server that manages first and second user data corresponding to the first and second users, and a server for learning and managing artificial intelligence algorithms, respectively. Of course, it may be implemented in an interoperable form.

제1 사용자 단말(200)은 제1 사용자가 이용 중인 사용자 단말로, 인공지능 캐릭터 생생 서버(100)로 인공지능 캐릭터 생성을 요청하며, 이에 대응하여 생성된 인공지능 캐릭터를 제공받는 사용자 단말이다. The first user terminal 200 is a user terminal being used by the first user, and is a user terminal that requests artificial intelligence character creation from the artificial intelligence character creation server 100 and is provided with the artificial intelligence character generated in response thereto.

제2 사용자 단말(300)은 제1 사용자 단말(200)의 요청에 따라 생성되는 인공지능 캐릭터의 대상이 되는 제2 사용자가 이용 중인 사용자 단말이다. The second user terminal 300 is a user terminal being used by a second user who is the target of the artificial intelligence character generated according to the request of the first user terminal 200 .

도 2를 참조하면 일 실시예로, 제1 사용자 단말(200)과 제2 사용자 단말(300)은 소정의 연결 관계를 갖는 제1 및 제2 사용자가 이용 중인 단말일 수 있다. 이때, 소정의 연결 관계는 페이스북, 인스타그램, 카카오톡, 카카오스토리, 네이버 밴드, 유튜브 등 다양한 SNS에서의 팔로우, 팔로워, 친구 관계 등일 수 있다. 즉, 제1 사용자가 팔로우한 사용자는 제2 사용자가 될 수 있고, 제1 사용자의 팔로워인 사용자 역시 제2 사용자 단말(300)이 될 수 있으며, 제1 및 제2 사용자가 직접 친구 관계로 설정된 경우도 이에 해당할 수 있다.Referring to FIG. 2 , according to an embodiment, the first user terminal 200 and the second user terminal 300 may be terminals being used by first and second users having a predetermined connection relationship. In this case, the predetermined connection relationship may be a follow, follower, friend relationship, etc. in various SNS such as Facebook, Instagram, Kakao Talk, Kakao Story, Naver Band, and YouTube. That is, a user followed by the first user may become a second user, a user who is a follower of the first user may also become the second user terminal 300 , and the first and second users are directly set as friends. This may be the case.

본 발명의 설명에서 제1 사용자 단말(200)을 이용 중인 제1 사용자는 노인이고, 제2 사용자는 노인과 실제 친근자 관계에 있는 자식, 손자, 친구 등인 것으로 설명하도록 하나 반드시 이에 한정되는 것은 아니며, 유명인, 반려동물 등들 그 대상으로 할 수도 있다. In the description of the present invention, the first user using the first user terminal 200 is an elderly person, and the second user is a child, grandson, friend, etc. who are in an actual friendly relationship with the elderly, but the present invention is not limited thereto. , celebrities, pets, etc.

또한, 제1 사용자 단말(200)과 제2 사용자 단말(300)은 그 기능에 따라 구분한 것에 불과하다. 따라서, 제1 사용자 단말(200)은 제2 사용자 단말(300)이 될 수도 있다. 이는 제2 사용자 단말(300) 역시 제1 사용자 단말(200)을 이용 중인 제1 사용자에 상응하도록 생성된 인공지능 캐릭터를 제공받을 수 있음을 의미한다. 도 2에서는 이를 이용자와 친근자의 용어를 들어 설명하였다. 즉, 이용자는 또 다른 이용자의 친근자일 수 있으며, 친근자는 또한 스스로 이용자이기도 하다.Also, the first user terminal 200 and the second user terminal 300 are merely classified according to their functions. Accordingly, the first user terminal 200 may be the second user terminal 300 . This means that the second user terminal 300 can also be provided with the artificial intelligence character generated to correspond to the first user who is using the first user terminal 200 . In FIG. 2, this has been described using terms of users and friendly people. That is, the user may be a friend of another user, and the friendly person is also a user himself/herself.

이 경우, 본 발명의 일 실시예는 제1 사용자 단말(200)의 제1 사용자는 제2 사용자에 상응하는 인공지능 캐릭터와 대화할 수 있고, 제2 사용자 단말(300)의 제2 사용자는 제1 사용자에 상응하는 인공지능 캐릭터와 대화할 수 있고, 제1 및 제2 사용자의 개입 없이 가상의 공간 상에서 각 사용자에 상응하도록 생성된 인공지능 캐릭터 간 대화도 가능하다. 하지만, 본 발명의 설명에서는 편의상 그 기능을 구분하여 설명하도록 한다.In this case, according to an embodiment of the present invention, the first user of the first user terminal 200 may converse with the artificial intelligence character corresponding to the second user, and the second user of the second user terminal 300 is the second user. It is possible to have a conversation with an AI character corresponding to one user, and it is also possible to have a conversation between AI characters created to correspond to each user in a virtual space without intervention of the first and second users. However, in the description of the present invention, the functions will be separately described for convenience.

또한, 본 발명의 일 실시예는 제1 사용자와 직접적인 연결 관계가 아닌 간접적인 연결 관계를 갖는 사용자를 대상으로 인공지능 캐릭터를 생성할 수도 있다. 이는, 제2 사용자 단말(300)은 제1 사용자와 연결 관계를 갖지 않되, 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함함을 의미한다.In addition, an embodiment of the present invention may generate an artificial intelligence character for a user having an indirect connection relationship with the first user rather than a direct connection relationship. This means that the second user terminal 300 includes a third user terminal that does not have a connection relationship with the first user, but is used by at least one third user who has a connection relationship with the second user.

일 예로, 도 2를 참조하면, 제1 사용자(친근자 A)는 친근자 E와는 직접적인 연결 관계를 가지나, 친근자 B와는 직접적인 연결 관계를 갖지 않는다. 다만, 친근자 B는 친근자 E와는 직접적인 연결 관계를 가지며, 제1 사용자는 친근자 B와 친근자 E를 통해 간접적인 연결 관계를 갖는 것으로 볼 수 있다. 이 경우 본 발명의 일 실시예는 친근자 B에 상응하는 인공지능 캐릭터를 생성하여 제1 사용자 단말(200)로 제공할 수도 있다. As an example, referring to FIG. 2 , the first user (closer A) has a direct connection relationship with friend E, but does not have a direct connection relationship with friend B. However, it can be seen that the friendly person B has a direct connection relationship with the friendly person E, and the first user has an indirect connection relationship between the friendly person B and the friendly person E. In this case, an embodiment of the present invention may generate an artificial intelligence character corresponding to friend B and provide it to the first user terminal 200 .

이와 같이, 본 발명의 일 실시예는 서버(100)에서 운영 중인 플랫폼에 등록된 다수의 이용자의 정보를 통해 인공지능 캐릭터를 생성할 수 있다. 또한, 기존의 SNS 친구 요청과 같은 기능을 통해 다수의 이용자에 상응하는 인공지능 캐릭터를 통한 새로운 폭넓은 SNS 네트워크 형성이 가능하다.As such, an embodiment of the present invention may generate an artificial intelligence character through information of a plurality of users registered in the platform operating in the server 100 . In addition, it is possible to form a new wide SNS network through artificial intelligence characters corresponding to multiple users through functions such as the existing SNS friend request.

일 실시예로, 제1 및 제2 사용자 단말(200, 300)은 스마트폰, 태블릿, PDA, 랩톱, 데스크톱, 서버 등과 같은 컴퓨터 장치 또는 전기 통신 장치를 의미한다. In an embodiment, the first and second user terminals 200 and 300 refer to computer devices or telecommunication devices such as smart phones, tablets, PDA's, laptops, desktops, servers, and the like.

도 3을 참조하면, 인공지능 캐릭터 생성 서버(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.Referring to FIG. 3 , the artificial intelligence character creation server 100 includes a communication module 110 , a memory 120 , and a processor 130 .

통신모듈(110)은 제1 및 제2 사용자 단말(200, 300)과 데이터를 송수신한다. 이와 같은 통신 모듈(110)은 유선 통신 모듈 및 무선 통신 모듈을 모두 포함할 수 있다. 유선 통신 모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신 모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.The communication module 110 transmits and receives data to and from the first and second user terminals 200 and 300 . Such a communication module 110 may include both a wired communication module and a wireless communication module. The wired communication module may be implemented as a power line communication device, a telephone line communication device, a cable home (MoCA), Ethernet, IEEE1294, an integrated wired home network, and an RS-485 control device. In addition, the wireless communication module may be implemented with wireless LAN (WLAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, wireless USB technology, wireless HDMI technology, and the like.

메모리(120)에는 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장되며, 프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. A program for generating an artificial intelligence character based on data from the first and second user terminals is stored in the memory 120 , and the processor 130 executes the program stored in the memory 120 . Here, the memory 120 collectively refers to a non-volatile storage device and a volatile storage device that continuously maintain stored information even when power is not supplied.

예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the memory 120 may include a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD), and a micro SD card. NAND flash memory such as cards, magnetic computer storage devices such as hard disk drives (HDD), etc., and optical disk drives such as CD-ROMs and DVD-ROMs. can

또한, 메모리(120)에 저장된 프로그램은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다. In addition, the program stored in the memory 120 may be implemented in the form of software or hardware such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and may perform predetermined roles.

이하, 도 4 내지 도 8을 참조하여 서버(100)에 의해 수행되는 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법을 보다 상세히 설명하도록 한다.Hereinafter, an artificial intelligence character creation method using user data performed by the server 100 will be described in more detail with reference to FIGS. 4 to 8 .

도 4는 본 발명의 일 실시예에 따른 인공지능 캐릭터 생성 방법의 순서도이다.4 is a flowchart of an artificial intelligence character creation method according to an embodiment of the present invention.

먼저, 서버(100)는 제1 사용자 단말(200)을 이용 중인 제1 사용자로부터 제2 사용자 단말(300)을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신한다(S110).First, the server 100 receives an artificial intelligence character creation request corresponding to the second user using the second user terminal 300 from the first user using the first user terminal 200 (S110).

이에 따라, 서버(100)는 제1 및 제2 사용자 단말(200, 300)로부터 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집한다(S120). Accordingly, the server 100 collects first and second user data corresponding to the first and second users from the first and second user terminals 200 and 300, respectively (S120).

이때, 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터일 수 있다. 또는, 각 사용자들이 직접 입력한 데이터일 수도 있다. In this case, the first and second user data may be data based on a social networking service. Alternatively, it may be data directly input by each user.

일 실시예로, 제1 및 제2 사용자 데이터는 제1 및 제2 사용자에 상응하는 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나일 수 있다.In one embodiment, the first and second user data includes at least one of photos, videos, texts, map information, shared information, preferences, individual input data, and voice data in a social networking service corresponding to the first and second users. can be

예를 들어, 제1 사용자가 페이스북이나 인스타그램에 업로드한 어느 게시물에 포함된 사진이나 동영상을 제1 사용자 데이터로 수집하고, 해당 게시물에 텍스트가 있는 경우 이를 함께 수집할 수 있다. 또한, 게시물에 포함된 지도 정보나 타 게시물을 공유한 이력 정보, 타 게시물에 대하여 좋아요, 싫어요 등과 같은 선호도 정보를 제1 사용자 데이터로 수집할 수 있다. For example, a photo or video included in a post uploaded by the first user to Facebook or Instagram may be collected as the first user data, and if there is text in the post, it may be collected together. In addition, map information included in a post, history information of sharing other posts, and preference information such as likes and dislikes for other posts may be collected as the first user data.

또 다른 예로, 제1 및 제2 사용자 데이터는 제1 및 제2 사용자 간의 영상 통화나 음성 통화와 같은 통화 데이터를 포함할 수도 있다.As another example, the first and second user data may include call data such as a video call or a voice call between the first and second users.

만약, 제1 사용자 또는 제2 사용자에 상응하는 음성이나 영상, 이미지가 없는 경우, 서버(100)는 각 사용자 단말(200, 300)로 학습에 필요한 데이터를 요청할 수 있으며, 각 사용자는 자신의 음성을 입력하거나 사진을 찍거나, 텍스트를 직접 입력하여 서버(100)로 전달할 수 있다.If there is no voice, video, or image corresponding to the first user or the second user, the server 100 may request data necessary for learning from each user terminal 200 , 300 , and each user uses his/her own voice. may be inputted, taken a picture, or directly inputted text and delivered to the server 100 .

다음으로, 서버(100)는 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습한다(S130). Next, the server 100 learns an artificial intelligence algorithm based on the collected first and second user data (S130).

일 실시예로, 서버(100)는 제2 사용자 데이터로부터 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보와 영상 정보를 추출하고, 추출된 음원 정보와 영상 정보를 미리 준비된 스크립트 정보에 부가하여 인공지능 알고리즘을 학습한다.In one embodiment, the server 100 extracts sound source information and image information to be used for an artificial intelligence character corresponding to the second user from the second user data, and adds the extracted sound source information and image information to pre-prepared script information. Learn artificial intelligence algorithms.

예를 들어, 제2 사용자의 인스타그램의 게시물을 통해 음원 정보와 영상 정보를 추출하여 제2 사용자의 얼굴과 표정 정보, 그리고 목소리 정보를 획득한다. 서버(100)는 이를 미리 준비된 최초 스크립트 정보에 부가하여 인공지능 알고리즘을 학습시킨다. For example, the second user's face and expression information, and voice information are obtained by extracting sound source information and image information through a post on Instagram of the second user. The server 100 learns the artificial intelligence algorithm by adding it to the pre-prepared initial script information.

이때, 서버(100)는 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 인공지능 알고리즘을 학습할 수 있다. 즉, 본 발명의 일 실시예는 제2 사용자에 상응하는 인공지능 캐릭터를 생성함에 있어 단순히 제2 사용자 데이터만을 이용하는 것이 아니라, 인공지능 캐릭터 생성을 요청한 제1 사용자에 대한 제1 사용자 데이터를 더 반영하여 생성하는 것을 특징으로 한다. 이 경우, 제1 사용자에게 보다 친숙한 목소리, 얼굴, 표정 등을 지닌 인공지능 캐릭터 생성이 가능하다는 장점이 있다.In this case, the server 100 may learn the artificial intelligence algorithm by further reflecting the first user data based on the similarity between the first and second user data. That is, an embodiment of the present invention does not simply use the second user data in generating the AI character corresponding to the second user, but further reflects the first user data for the first user who requested the creation of the AI character. It is characterized in that it is created. In this case, there is an advantage in that it is possible to create an artificial intelligence character having a voice, face, expression, etc. more familiar to the first user.

여기에서, 제1 및 제2 사용자 데이터 간의 유사도라 함은 제1 및 제2 사용자 데이터가 공통적으로 포함하고 있는 데이터를 의미한다. 이는 단순히 텍스트, 영상, 이미지 등의 동일성만을 의미하는 것이 아니며, 이미지, 텍스트, 영상으로부터 도출되는 제1 및 제2 사용자 간의 연관성을 포함한다. 일 예로, 제1 사용자 데이터에는 없으나 제2 사용자 데이터로부터 수집된 사진에 제1 및 제2 사용자가 동시에 포함된 경우 연관성이 있는 것으로, 서버(100)는 이 경우 소정의 등급의 유사도를 갖는 것으로 판단할 수 있다. 이때, 서버(100)는 사진에 제1 및 제2 사용자만이 있는 경우 가장 높은 유사도를 부여하고, 다른 사람들과 함께 있는 경우 그 수에 따라 등급별 유사도를 부여할 수 있다. 이러한 연관성과 관련하여, 서버(100)는 친구, 부모, 자식, 손자 등과 같은 사회적 관계 설정 데이터를 더 반영하여 인공지능 알고리즘을 학습할 수도 있다.Here, the similarity between the first and second user data means data commonly included in the first and second user data. This does not simply mean the sameness of text, image, image, etc., but also includes association between the first and second users derived from the image, text, and image. For example, if the first and second users are included at the same time in the photo that is not in the first user data but collected from the second user data, there is a correlation, and the server 100 determines that it has a degree of similarity of a predetermined level in this case can do. In this case, the server 100 may give the highest similarity when there are only the first and second users to the photo, and give the similarity by grade according to the number when there are other people. In relation to this association, the server 100 may learn the artificial intelligence algorithm by further reflecting social relationship setting data such as friends, parents, children, grandchildren, and the like.

본 발명의 일 실시예에서의 인공지능 알고리즘은 딥러닝, 신경망, 기계학습 등 어느 하나의 특정한 것으로 한정되는 것이 아니며, 필요에 따라 다양한 알고리즘이 적용될 수 있다.The artificial intelligence algorithm in an embodiment of the present invention is not limited to any one specific one, such as deep learning, neural network, machine learning, and various algorithms may be applied as needed.

다음으로, 서버(100)는 학습된 인공지능 알고리즘에 기초하여 제2 사용자에 상응하는 인공지능 캐릭터를 생성하고(S140), 생성된 인공지능 캐릭터를 제1 사용자 단말(200)로 제공한다(S150).Next, the server 100 generates an artificial intelligence character corresponding to the second user based on the learned artificial intelligence algorithm (S140), and provides the generated artificial intelligence character to the first user terminal 200 (S150). ).

이때, 서버(100)는 제1 사용자 단말(200)로 인공지능 캐릭터를 제공한 이후, 제1 사용자 단말(200)을 통해 제공된 인공지능 캐릭터와 제1 사용자 간의 대화 정보를 수집하고, 수집된 대화 정보에 기초하여 스크립트 정보를 업데이트할 수 있다. 그리고 서버(100)는 업데이트된 스크립트 정보에 기초하여 인공지능 알고리즘을 학습할 수 있다.At this time, after the server 100 provides the artificial intelligence character to the first user terminal 200 , the server 100 collects conversation information between the artificial intelligence character provided through the first user terminal 200 and the first user, and the collected conversation Script information may be updated based on the information. And the server 100 may learn the artificial intelligence algorithm based on the updated script information.

도 5는 제1 및 제2 사용자 데이터를 이용하여 인공지능 캐릭터를 생성하는 과정을 보다 상세히 도시한 도면이다.5 is a diagram illustrating in more detail a process of generating an artificial intelligence character using first and second user data.

먼저, 서버(100)는 제1 및 제2 사용자 단말(200, 300)을 대상으로 회원 가입 요청에 대응하여 본인 인증 확인 절차를 거쳐 회원 가입을 승인한다(S210). 이때, 서버(100)는 제1 및 제2 사용자로부터 인공지능 캐릭터 생성시 사용될 사용자 데이터의 대상 범위에 대한 선택 입력을 수신할 수 있다. 즉, 페이스북만을 대상으로 사용자 데이터를 수집할 것인지, 페이스북과 인스타그램을 모두 대상으로 하여 사용자 데이터를 수집할 것인지 그 범위에 대한 선택 입력을 수신할 수 있다. 이는 사용자의 개인 정보를 수집하는 것이므로 사용자들의 개인 정보 활용 동의를 함께 받을 수 있다.First, the server 100 approves membership registration through a self-authentication confirmation procedure in response to a membership registration request for the first and second user terminals 200 and 300 ( S210 ). In this case, the server 100 may receive a selection input for a target range of user data to be used when generating an artificial intelligence character from the first and second users. That is, it is possible to receive a selection input as to whether user data is to be collected only for Facebook or whether user data is collected for both Facebook and Instagram. Since this is to collect users' personal information, users' consent to use personal information can be obtained together.

이후, 제1 사용자는 전화번호나, SNS 계정, 이메일 등을 통해 인공지능 캐릭터로 생성할 제2 사용자를 선택한다(S220). 그 다음, 서버(100)는 제1 사용자 단말(200)과 제2 사용자 단말(300)로 제1 및 제2 사용자 데이터 제공을 요청하여(S230), 제1 및 제2 사용자 데이터를 수집한다(S240).Thereafter, the first user selects a second user to be created as an artificial intelligence character through a phone number, SNS account, e-mail, or the like (S220). Then, the server 100 requests to provide the first and second user data to the first user terminal 200 and the second user terminal 300 (S230), and collects the first and second user data (S230). S240).

서버(100)는 각 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습한다(S250). 이때, 제1 및 제2 사용자 데이터를 통해 학습되는 내용으로는 제1 및 제2 사용자 간의 관심분야, 선호도, 유사성, 상호 관계, 지리적 특성, 상호 호감도, 제1 및 제2 사용자 각각의 얼굴, 표정, 목소리 등일 수 있다. 이를 통해, 제1 사용자에게 보다 감성적인고 친근감이 드는 인공지능 캐릭터를 제공할 수 있으며, 보다 일상적이고 공감이 가능한 내용을 중심으로 제1 사용자의 현재 상황을 인지하고 보다 친밀하고 익숙한 대화를 할 수 있도록 한다. The server 100 learns an artificial intelligence algorithm based on each collected first and second user data (S250). In this case, the contents learned through the first and second user data include fields of interest, preference, similarity, mutual relationship, geographic characteristics, mutual liking, face and expression of each of the first and second users between the first and second users. , a voice, and the like. Through this, it is possible to provide an artificial intelligence character that is more emotional and friendly to the first user, and to recognize the current situation of the first user, focusing on more common and sympathetic content, and to have a more intimate and familiar conversation. do.

이후, 서버(100)는 학습된 인공지능 알고리즘을 이용하여 제2 사용자에 상응하는 인공지능 캐릭터를 생성하고(S260), 이를 제1 사용자 단말(200)로 제공한다(S270).Thereafter, the server 100 generates an artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm (S260), and provides it to the first user terminal 200 (S270).

이렇게 생성된 인공지능 캐릭터는 제1 사용자의 호출에 따라 구동되어, 제1 사용자에게 정서적으로 안정되고 호감있는 친근자의 얼굴과 목소리로 제공되며, 상호 대화를 통해 제1 사용자로 하여금 교감과 심리적 안정을 유지할 수 있도록 할 수 있다.The artificial intelligence character created in this way is driven according to the call of the first user, and is provided to the first user with the face and voice of a friendly person who is emotionally stable and likable, and enables the first user to achieve sympathy and psychological stability through mutual conversation. be able to keep it

서버(100)는 제1 사용자 단말(200)로 인공지능 캐릭터가 제공된 이후에도, 대화 정보를 제1 사용자 단말(200)로부터 지속적으로 수집하고, 이를 기반으로 인공지능 알고리즘을 업데이트하여 제1 사용자에게 더욱 부합되는 인공지능 캐릭터가 생성될 수 있도록 한다(S280).The server 100 continuously collects conversation information from the first user terminal 200 even after the artificial intelligence character is provided to the first user terminal 200, and updates the artificial intelligence algorithm based on this to provide more information to the first user. A matching artificial intelligence character can be created (S280).

서버(100)는 이러한 대화 과정에서 새롭게 축적된 데이터들을 이용하여 지속적인 학습을 수행하며, 이를 통해 보다 더 많은 이해를 바탕으로 제1 사용자와 인공지능 캐릭터 간의 교감과 추억, 기억 등의 이벤트를 만들어나갈 수 있다.The server 100 performs continuous learning using the data newly accumulated in the conversation process, and through this, based on more understanding, the server 100 will create events such as sympathy, memories, and memories between the first user and the artificial intelligence character. can

도 6은 복수의 제1 사용자 단말(200)을 통해 인공지능 캐릭터를 제공하는 내용을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the contents of providing an artificial intelligence character through a plurality of first user terminals 200 .

본 발명의 일 실시예에서 서버(100)는 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성할 수 있다(S310). 즉, 서버(100)는 제1 사용자가 복수의 제2 사용자를 선택한 경우, 복수의 제2 사용자에 각각 상응하는 개수의 인공지능 캐릭터를 생성할 수 있다.In an embodiment of the present invention, the server 100 may generate artificial intelligence characters corresponding to a plurality of second users, respectively (S310). That is, when the first user selects a plurality of second users, the server 100 may generate a number of artificial intelligence characters corresponding to the plurality of second users, respectively.

이와 같이 생성된 복수의 인공지능 캐릭터는 복수의 제1 사용자 단말(200)마다 각각 제공될 수 있다. 이때, 복수의 제1 사용자 단말(200)은 제1 사용자 단말과 페어링되거나 인터넷을 통해 연결된 사용자 단말을 포함할 수 있다.The plurality of artificial intelligence characters generated in this way may be provided for each of the plurality of first user terminals 200 , respectively. In this case, the plurality of first user terminals 200 may include a user terminal paired with the first user terminal or connected through the Internet.

서버(100)는 복수의 제1 사용자 단말(200) 중 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말(200)을 활성화시켜 제1 사용자에게 인공지능 캐릭터와의 대화가 가능하게 할 수 있다.The server 100 activates at least one first user terminal 200 corresponding to the called artificial intelligence character among the plurality of first user terminals 200 to enable the first user to have a conversation with the artificial intelligence character. can

일 실시예로, 서버(100)는 복수의 제1 사용자 단말(200) 각각에 직접 인공지능 캐릭터를 제공할 수 있다. 이에 따라, 제1 사용자는 안방에 배치된 AI 스피커를 통해서는 친근자 A의 인공지능 캐릭터와 대화하고, 거실에 배치된 TV를 통해서는 친근자 B의 인공지능 캐릭터와 대화할 수 있다.In an embodiment, the server 100 may provide an artificial intelligence character directly to each of the plurality of first user terminals 200 . Accordingly, the first user can communicate with the artificial intelligence character of friend A through the AI speaker placed in the bedroom, and the artificial intelligence character of friend B through the TV placed in the living room.

이와 달리, 서버(100)는 제1 사용자의 스마트 단말에 생성된 복수의 인공지능 캐릭터를 모두 제공하고, 스마트 단말은 TV, AI 스피커, 챗봇, 홈로봇, 인형 등 제1 사용자 단말(200)과 연결된 각 사용자 단말로 인공지능 캐릭터를 제공할 수 있다. 이 경우, 제1 사용자는 장소 및 특정 사용자 단말에 구애받지 않고 인공지능 캐릭터의 호출이 가능하다. 예를 들어, 안방에 배치된 AI 스피커를 통해 친근자 A의 인공지능 캐릭터를 호출할 수 있고, 거실에 배치된 TV를 통해서도 친근자 A의 인공지능 캐릭터를 호출할 수 있다. In contrast, the server 100 provides all of the plurality of artificial intelligence characters created in the smart terminal of the first user, and the smart terminal is connected to the first user terminal 200 such as TV, AI speaker, chatbot, home robot, and doll. An artificial intelligence character can be provided to each connected user terminal. In this case, the first user can call the artificial intelligence character regardless of a location or a specific user terminal. For example, the artificial intelligence character of friend A can be called through the AI speaker placed in the bedroom, and the artificial intelligence character of friend A can be called through the TV placed in the living room.

이때, 복수의 제1 사용자 단말(200)을 이용함으로써, 제1 사용자의 인공지능 캐릭터의 호출은 동일 시점에 반드시 하나의 인공지능 캐릭터만을 호출하는 것이 아닌 동시에 복수 개를 호출하여 집단적인 대화를 통해 가족적인 느낌의 대화를 재연할 수도 있다.At this time, by using the plurality of first user terminals 200 , the call of the first user's artificial intelligence character does not necessarily call only one artificial intelligence character at the same time, but a plurality of calls at the same time through collective conversation You can even recreate a conversation that feels like a family.

도 7은 인공지능 캐릭터를 이용한 헬스케어 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a healthcare method using an artificial intelligence character.

본 발명의 일 실시예는 제1 사용자 단말(200)로 제공된 인공지능 캐릭터를 이용하여 제1 사용자에게 헬스케어 서비스를 제공할 수 있다. 이때, 제공되는 헬스케어 서비스는 치매 진단 및 예방 서비스일 수 있으나, 반드시 이에 한정되는 것은 아니다.An embodiment of the present invention may provide a health care service to the first user using the artificial intelligence character provided to the first user terminal 200 . In this case, the provided health care service may be a dementia diagnosis and prevention service, but is not necessarily limited thereto.

구체적으로, 서버(100)는 제1 사용자 단말(200)을 통해 제공된 인공지능 캐릭터와 제1 사용자 간의 대화 정보를 수집한다(S410). 이때, 서버(100)는 제1 사용자와의 대화 단절을 방지하기 위하여, 소정의 기간 동안 대화가 없을 경우 먼저 인공지능 캐릭터가 제1 사용자에게 대화를 하게끔 할 수 있다.Specifically, the server 100 collects conversation information between the artificial intelligence character provided through the first user terminal 200 and the first user (S410). In this case, in order to prevent the disconnection of the conversation with the first user, the server 100 may first allow the AI character to talk to the first user when there is no conversation for a predetermined period of time.

이와 같은 본 발명의 일 실시예는 자연스러운 대화의 과정에서 함께 공감대를 가질 수 있는 사건과 장면 등의 기억을 통해 인지적 판단 능력 등을 검증하게 하여 치매의 정보를 판단할 수 있다.Such an embodiment of the present invention can determine information on dementia by verifying cognitive judgment ability, etc. through the memory of events and scenes that can have a consensus together in the course of a natural conversation.

다음으로, 서버(100)는 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하고(S420), 헬스케어 정보를 제1 사용자 단말로 제공한다(S430).Next, the server 100 analyzes the collected conversation information to generate healthcare information (S420), and provides the healthcare information to the first user terminal (S430).

본 발명의 일 실시예에서의 대화 정보는 단순히 음성 간의 대화가 아니라 제1 사용자 단말을 통해 입력된 텍스트, 영상, 사진, 음성, 특정 문제에 대한 선택 입력을 모두 포함하는 개념이다.Conversation information in an embodiment of the present invention is not a simple conversation between voices, but a concept including text, video, photo, voice, and selection input for a specific problem input through the first user terminal.

일 실시예로, 서버(100)는 인공지능 캐릭터에 의한 대화에 연속되는 제1 사용자의 대화 간의 일치도를 분석하고, 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 헬스케어 정보로 생성할 수 있다.In one embodiment, the server 100 analyzes the degree of correspondence between the conversations of the first user that is continuous to the conversation by the artificial intelligence character, and reflects the analyzed degree of agreement to determine dementia type, dementia stage, dementia progress, customized training information and life A dementia diagnosis result including map information may be generated as healthcare information.

여기에서, 일치도는 인공지능 캐릭터에 의한 대화에 연속되는 제1 사용자의 대화 간의 주제, 문맥, 단어에 대한 각 일치도 중 적어도 하나를 포함하는 개념이다. 예를 들어, 인공지능 캐릭터가 "오늘 무엇을 드셨나요?"라는 대화를 했을 경우, 제1 사용자가 이와 무관한 주제인 "어제 날씨가 안좋았어"라는 연속되는 대화를 한 경우, 각 대화간의 일치도는 0인 것으로 판단할 수 있다. 이러한 일치도는 수치화되어 제공되거나, 등급별로 구분되어 제공되는 등 실시 형태에 따라 다양하게 제공될 수 있다.Here, the degree of agreement is a concept including at least one of each degree of agreement with respect to a topic, a context, and a word between conversations of the first user consecutive to the conversation by the artificial intelligence character. For example, if the AI character has a conversation with "What did you eat today?", if the first user has a series of conversations with an unrelated topic "The weather was bad yesterday", the degree of correspondence between the conversations can be determined to be 0. This degree of agreement may be provided in various ways depending on the embodiment, such as being provided numerically or provided separately by grade.

일 예로, 서버(100)는 인공지능 캐릭터를 통해 치매 진단 프로그램을 제공할 수 있으며, 치매 진단 프로그램을 통해 문제 타입으로 대화를 유도하여 제1 사용자의 수리력, 기억력, 지남력, 어휘력, 주의 집중력을 분석할 수 있다.As an example, the server 100 may provide a dementia diagnosis program through an artificial intelligence character, and analyze the first user's numeracy, memory, orientation, vocabulary, and attention concentration by inducing a conversation with a problem type through the dementia diagnosis program. can do.

일 실시예로, 이러한 문제 타입으로 제공시, 서버(100)는 제1 사용자 단말(200)의 카메라를 통해, 제1 사용자 단말(200)의 화면 상에 인공지능 캐릭터를 통한 문제가 출력된 시각 이후부터 제1 사용자에 의해 정답을 위한 정보가 입력되는 시각까지의 시간 동안 사용자의 안구인식 데이터를 더 획득할 수도 있다. 이와 같은 안구인식 데이터를 활용하면 손상된 인지력을 정밀 측정할 수 있다는 장점이 있다.In one embodiment, when providing this type of problem, the server 100 through the camera of the first user terminal 200, the time at which the problem is output through the artificial intelligence character on the screen of the first user terminal 200 From thereafter, the user's eye recognition data may be further acquired during a time from when information for a correct answer is input by the first user. The advantage of using such eye recognition data is that it is possible to precisely measure impaired cognition.

예를 들어, 서버(100)는 각 문제가 출력되어 제1 사용자 단말(200)을 통한 정답을 위한 정보가 입력되기까지의 평균 문제 제공 시간을 산출하고, 안구인식 데이터에 기초하여 각 문제가 출력되어 정답을 위한 정보가 입력되기까지 제1 사용자가 화면을 주시한 평균 화면 주시 시간을 산출한다.For example, the server 100 calculates the average question provision time until each question is output and information for a correct answer through the first user terminal 200 is input, and each question is output based on the eye recognition data and calculates the average screen gaze time during which the first user gazes at the screen until information for the correct answer is input.

이후, 서버(100)는 평균 문제 제공 시간 대비 평균 화면 주시 시간이 소정의 최소 주시 시간에 따른 비율 이상을 만족하는지 여부에 기초하여 치매 진단 결과를 생성한다. 이때, 최소 주시 시간은 정답을 맞춘 것으로 확인된 다수의 사용자의 평균 화면 주시 시간으로부터 결정될 수 있으며, 최소 주시 시간은 치매 진단 프로그램을 이용하는 사용자의 수가 증가할 수록 갱신될 수 있다. 또한, 최소 주시 시간은 사용자의 연령, 학력, 성별, 치매 정도 등에 따라 사용자별로 구분되어 설정될 수도 있다.Thereafter, the server 100 generates the dementia diagnosis result based on whether the average screen gaze time to the average problem providing time satisfies a ratio according to a predetermined minimum gaze time or more. In this case, the minimum gaze time may be determined from the average screen gaze time of a plurality of users confirmed to have given correct answers, and the minimum gaze time may be updated as the number of users using the dementia diagnosis program increases. In addition, the minimum gaze time may be set separately for each user according to the user's age, educational background, gender, degree of dementia, and the like.

또한, 서버(100)는 평균 화면 주시 시간과 최소 주시 시간을 제1 사용자 단말(200)의 각 영역별로 구분하여 산출할 수 있다. 일 예로, 정답에 해당하는 영역이나 문제에 해당하는 영역에 상응하는 각 주시 시간의 가중치를 더 높게 부여하여, 치매 정도를 더욱 정밀하게 진단할 수 있도록 한다.In addition, the server 100 may calculate the average screen gaze time and the minimum gaze time for each region of the first user terminal 200 . For example, by giving a higher weight for each gaze time corresponding to an area corresponding to a correct answer or an area corresponding to a problem, the degree of dementia can be diagnosed more precisely.

이러한 인공지능 캐릭터를 이용하여 치매와 같은 헬스케어 서비스에 이용할 경우, 기존의 서비스 방식들보다 거부감이 적고 자존감과 친밀감을 바탕으로 일상의 대화 내용과 추억을 기반으로 하는 적극적인 참여를 유도할 수 있다. 이를 통해 매일 일상의 대화 속에서 치매 예방적 의료 서비스를 제공함으로서 자연스럽게 정신적, 신체적 건강을 유지할 수 있는 헬스케어 서비스 제공이 가능하다는 장점이 있다. 이러한 인공지능 캐릭터를 이용한 헬스케어 서비스는 향후 노인뿐만 아니라, 발달 장애아, 자폐아, 우울증 환자, 젊은 1인 세대 등에게도 심리적 안정감을 줄 수 있으며, 그들이 필요로 하는 심리적 치료 방향을 친근자들의 얼굴과 목소리로 상담하고 대응하는 서비스로 확대 발전될 수 있다.When using such an artificial intelligence character for health care services such as dementia, it has less resistance than existing service methods and can induce active participation based on daily conversations and memories based on self-esteem and intimacy. Through this, it is possible to provide health care services that can naturally maintain mental and physical health by providing dementia preventive medical services in daily conversations. Healthcare services using these artificial intelligence characters can provide psychological stability to not only the elderly, but also children with developmental disabilities, autism, depressed patients, and young single generations, and provide the psychological treatment direction they need with the faces and voices of familiar people. It can be expanded and developed into a service that provides consultation and response.

도 8은 다양한 데이터를 수집하여 헬스케어 정보를 생성하는 일 예시를 도시한 도면이다.8 is a diagram illustrating an example of generating health care information by collecting various data.

그밖에, 서버(100)는 건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 헬스케어 정보를 생성할 수 있다.In addition, the server 100 may generate health care information by further collecting health-related data, safety-related data, indoor/outdoor environment, and weather-related data.

즉, 실내외 설치된 센서와 제1 사용자의 바이오 센서를 통해 수집된 데이터를 사전 입력된 제1 사용자의 바이오 정보 등과 함께 빅데이터로 누적되도록 하여, 제1 사용자에게 보다 적합한 환경을 실시간 비교 분석하고, 이를 기반으로 환경 변화에 대한 올바른 대응방법을 제시하여, 제1 사용자에게 안정적인 헬스케어와 사전 예방 의료 서비스가 제공되게끔 할 수 있다.That is, data collected through indoor and outdoor installed sensors and the biosensor of the first user is accumulated as big data together with the bioinformation of the first user input in advance, so that an environment more suitable for the first user is compared and analyzed in real time, and this Based on this, it is possible to present a correct response method to environmental changes so that stable health care and preventive medical services can be provided to the first user.

예를 들어, 실외에 별도의 미세먼지 센서 기능을 갖춘 IoT 환경 측정기를 설치하고, 측정기에서 발생한 측정 데이터(PM1.0, PM2.5, PM10, 온도, 습도, 강수량, 냄새, 꽃가루,곰팡이 등)는 일정 시간에 통신 수단을 통해 서버(100)로 전달된다. For example, install an IoT environment meter with a separate fine dust sensor function outdoors, and the measurement data generated by the meter (PM1.0, PM2.5, PM10, temperature, humidity, precipitation, odor, pollen, mold, etc.) is transmitted to the server 100 through a communication means at a predetermined time.

또한, 사용자의 위치를 기반으로 정부에서 발표하는 기상청의 공공 환경 데이터를 추가하여, 서버(100)는 제1 사용자가 위치한 현재의 환경 상황을 분석하고 이에 대한 대응 방안 또는 추천 상황을 정리하여 제1 사용자에게 적절한 운동과 환기 요구 등 건강과 환경 개선을 유도할 수 있도록 인공지능 캐릭터와의 대화를 통해 전달할 수 있다.In addition, by adding the public environment data of the Korea Meteorological Administration announced by the government based on the user's location, the server 100 analyzes the current environmental situation where the first user is located, and organizes countermeasures or recommendations for the first It can be communicated through conversations with artificial intelligence characters so that the user can induce health and environment improvement, such as demanding appropriate exercise and ventilation.

또한, 서버(100)는 제1 사용자의 바이오 데이터를 분석한 결과가 미리 설정된 기준치 이상의 응급 상황으로 판단될 경우 본인 및 등록된 제1 사용자의 친근자, 가족, 보호자, 119 등에 문자, 전화 등으로 긴급 상황을 알리는 기능을 제공할 수 있다.In addition, when it is determined that the result of analyzing the bio data of the first user is an emergency situation greater than or equal to a preset standard value, the server 100 sends a text message, phone call, etc. A function to notify an emergency situation may be provided.

이와 함께 향후, 본 발명에 따른 헬스케어 서비스는 IoT 기반의 센서들과 연동하여, 실내 공기가 오염될 경우 자동으로 환기 시스템을 작동시키거나, 창문을 열어 환기하는 모드로 작동하게 하며, 외부 공기가 오염되었을 경우 열린 창문을 닫고 외부 유입 공기를 공기청정기 및 정화 필터를 통해 유입되도록 제어할 수 있다.In the future, the healthcare service according to the present invention will link with IoT-based sensors to automatically operate the ventilation system when indoor air is polluted, or to operate in a ventilation mode by opening a window, and If it is polluted, the open window can be closed and the outside air can be controlled to flow through the air purifier and purification filter.

한편, 도 8에서는 환경 데이터 서버, 인공지능 서버, 헬스케어 서버, 캐릭터 서버 등 다양한 서버를 통해 구성되어 각 기능이 동작하는 것으로 설명하였으나 반드시 이에 한정되는 것은 아니다. 이는 설명의 편의상 구분한 것으로서, 실시예에 따라 하나의 서버인 인공지능 캐릭터 서버(100)에 의해 구현될 수 있음은 물론, 둘 이상의 서버가 서로 조합되어 구현될 수 있음은 물론이다.On the other hand, although it has been described that each function is configured through various servers such as an environmental data server, an artificial intelligence server, a health care server, and a character server in FIG. 8 , it is not necessarily limited thereto. This is divided for convenience of description, and may be implemented by one server, the artificial intelligence character server 100 , according to an embodiment, and of course, two or more servers may be combined with each other to be implemented.

한편, 상술한 설명에서, 단계 S110 내지 S430은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 3의 내용은 도 4 내지 도 8의 내용에도 적용될 수 있다.Meanwhile, in the above description, steps S110 to S430 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed. In addition, the contents of FIGS. 1 to 3 may also be applied to the contents of FIGS. 4 to 8 even if other contents are omitted.

전술한 본 발명의 일 실시예에 따르면 다음과 같은 효과를 기대할 수 있다.According to an embodiment of the present invention described above, the following effects can be expected.

먼저, 본 발명의 일 실시예는 제1 사용자, 특히 노인의 고독감을 해소할 수 있다는 장점이 있다. 혼자 계시는 노인들에게 가장 필요한 것은 대화이며, 특히 가족, 자식, 친근자와의 대화일 것이다. 또한, 노년기 건강을 위해서는 반드시 대화가 필요한데, 서울아산병원의 조사에 의하며 대화가 단절된 채 홀로 사는 노인의 우울감은 정상 노인에 비해 4배 가량 높으며, 신체 장애의 발생률도 2.5배 높아 건강을 헤칠 수 있다는 연구 결과가 있듯이, 신체적으로는 노쇠하지 않더라도 자주 소통하고 대화하지 않으면, 정신과 신체의 건강을 모두 해칠 수 있다는 문제가 있다. 본 발명의 일 실시예에 따르면, 특히 심리적 안정감을 주는 노인의 친근자들을 중심으로 인공지능을 통한 상호간의 친밀도와 내용을 분석하여 친근자의 얼굴 표정과 목소리로 가공된 인공지능 캐릭터를 제공하여, 대화의 집중도와 관심도를 높일 수 있으며, 이로 인한 노인의 고독감을 해소하여 심리적, 신체적 안정감을 높일 수 있다.First, an embodiment of the present invention has an advantage in that the first user, particularly the elderly, can relieve the feeling of loneliness. The most important thing for the elderly living alone is conversation, especially with family, children, and close friends. In addition, conversation is essential for health in old age. According to a survey by Asan Medical Center in Seoul, the feeling of depression of the elderly living alone with communication cut off is 4 times higher than that of the normal elderly, and the incidence of physical disabilities is 2.5 times higher, which can harm health. As research has shown, there is a problem that even if you are not physically old, if you do not communicate and communicate frequently, you can harm both your mental and physical health. According to an embodiment of the present invention, in particular, by analyzing mutual intimacy and content through artificial intelligence, focusing on close friends of the elderly who give psychological stability, artificial intelligence characters processed with the facial expressions and voices of the friendly people are provided, It is possible to increase the concentration and interest of the elderly, thereby relieving the feeling of loneliness in the elderly and increasing psychological and physical stability.

또한, 노인과 친근자 간의 대화 내용도 사전 인공지능 학습을 통해 본인의 이야기와 친근자의 내용을 중심으로 풀어나가도록 하며, 지속적인 대화를 통한 업데이트가 가능하도록 하여, 인공지능 캐릭터와 대화하더라도 이질감이 느껴지지 않는, 맞춤형 대화를 통해 마치 가족과 함께 이야기 하는 정서적인 분위기를 느낄 수 있다.In addition, the conversation between the elderly and the friendly person is also solved focusing on their own story and the friendly person's contents through prior AI learning, and it is possible to update through continuous conversation, so that even if you talk with an AI character, you do not feel a sense of alienation. You can feel the emotional atmosphere as if you were talking with your family through a personalized conversation.

이러한 가족같은 분위기를 통해 과거의 기억과 추억의 사진 등을 친근자와 함께 자연스럽게 이야기 나누는 과정에서 인지적인 학습과 치매 예방을 위한 프로그램 참여도를 높일 수 있다. 특히, 거부감이 있거나 자존감을 떨어트릴 수 있는 유아적 치매 관리 프로그램보다 더욱 높은 집중도를 유도할 수 있으며, 본인의 특성에 맞는 지속 가능하고 정확성 있는 맞춤형 치매 예방 관리가 가능할 수 있다.Through such a family-like atmosphere, it is possible to increase the participation in cognitive learning and dementia prevention programs in the process of naturally sharing past memories and photos of memories with close friends. In particular, it can induce a higher level of concentration than the dementia management program for infants that may have a sense of rejection or lower self-esteem, and it may be possible to provide sustainable and accurate customized dementia prevention management according to the person's characteristics.

또한, 친근자의 SNS로부터 실시간 업데이트되는 데이터들은 노인들에게 친근자의 근황을 알려주고, 필요시 바로 연락하기와 같은 기능을 통하여 친근자와 실제 통화도 가능하게 할 수 있다.In addition, real-time updated data from the friendly person's SNS can inform the elderly of the friendly person's current status, and, if necessary, make an actual call with the friendly person through a function such as direct contact.

또한, 이동이 자유롭지 못하거나, 왕래가 많지 않은 노인들은 대부분 혼자 집안에서 머물며, 활동을 극히 제한 하고 있는 경우가 많다. 이를 위해, 본 발명의 일 실시예는 집안 밖에 부착된 센서를 통해 집안 밖의 미세먼지를 비롯한 대기 환경에 대한 정보를 수집하고 이를 노인에게 제공하여 환기를 하거나 창문을 닫게 할 수 있다. 또한, 본인의 건강 정보와 연동하여 어떻게 대처할 것인지 안내하게 할 수 있고, 응급 상황에 따라서는 등록된 친근자나 보호자 및 사회복지사, 119 등에 긴급 호출을 통해 응급 상황을 알릴 수도 있다. In addition, the elderly who are not able to move freely or do not travel much stay at home alone and have very limited activities in many cases. To this end, an embodiment of the present invention may collect information on the atmospheric environment including fine dust outside the house through a sensor attached outside the house and provide it to the elderly to ventilate or close the window. In addition, it can be linked to the person's health information to guide them on how to respond, and depending on the emergency situation, the emergency situation can be notified through an emergency call to a registered close friend, guardian, social worker, or 911.

이와 더불어, 본 발명의 일 실시예는 복수의 인공지능 캐릭터와의 대화를 통해 사회성과 가족적인 분위기를 느낄 수 있으며, 절대적 고독감이 많은 노인에게는 충분한 심리적 보상과 안정감을 느낄수 있게 할 수 있다. 또한, 친근자를 등록하지 못하는 경우 본인의 개인적인 정보를 바탕으로 대화를 통해 별도의 가상의 친근자를 생성할 수 있게 하여 외로움과 심리적 안정감을 줄 수 있도록 할 수 있다.In addition, an embodiment of the present invention can feel social and family atmosphere through conversation with a plurality of artificial intelligence characters, and can make it possible to feel sufficient psychological compensation and stability for the elderly who have a lot of absolute loneliness. In addition, when it is not possible to register a friend, it is possible to create a separate virtual friend through conversation based on personal information, thereby providing loneliness and psychological stability.

이상에서 전술한 본 발명의 일 실시예에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The artificial intelligence character creation method using user data according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. there is. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

1: 인공지능 캐릭터 생성 시스템
100: 인공지능 캐릭터 생성 서버
110: 통신모듈
120: 메모리
130: 프로세서
200: 제1 사용자 단말
300: 제2 사용자 단말
1: Artificial intelligence character creation system
100: artificial intelligence character creation server
110: communication module
120: memory
130: processor
200: first user terminal
300: second user terminal

Claims (13)

컴퓨터에 의해 수행되는 방법에 있어서,
제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하는 단계;
상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계;
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계;
상기 학습된 인공지능 알고리즘을 이용하여 상기 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 단계; 및
상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계를 포함하되,
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습시키는 단계는,
상기 제1 및 제2 사용자 데이터 간의 유사도에 기초한 제1 사용자 데이터를 더 반영하여 상기 인공지능 알고리즘을 학습하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
A method performed by a computer comprising:
Receiving an artificial intelligence character creation request corresponding to the second user using the second user terminal from the first user using the first user terminal;
collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively;
learning an artificial intelligence algorithm based on the collected first and second user data;
generating an artificial intelligence character corresponding to the second user by using the learned artificial intelligence algorithm; and
Comprising the step of providing the generated artificial intelligence character to the first user terminal,
The step of learning an artificial intelligence algorithm based on the collected first and second user data includes:
Learning the artificial intelligence algorithm by further reflecting the first user data based on the similarity between the first and second user data,
An artificial intelligence character creation method using user data.
제1항에 있어서,
상기 제1 및 제2 사용자 데이터는 소셜 네트워킹 서비스 기반의 데이터인 것을 특징으로 하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
According to claim 1,
The first and second user data is characterized in that the data based on a social networking service,
An artificial intelligence character creation method using user data.
제2항에 있어서,
상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하는 단계는,
상기 제1 및 제2 사용자에 상응하는 상기 소셜 네트워킹 서비스에서의 사진, 동영상, 텍스트, 지도 정보, 공유 정보, 선호도, 개별 입력 데이터 및 음성 데이터 중 적어도 하나의 제1 및 제2 사용자 데이터를 수집하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
3. The method of claim 2,
Collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively,
Collecting first and second user data of at least one of photos, videos, texts, map information, sharing information, preferences, individual input data, and voice data in the social networking service corresponding to the first and second users; that is,
An artificial intelligence character creation method using user data.
제3항에 있어서,
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하는 단계는,
상기 제2 사용자 데이터로부터 상기 제2 사용자에 상응하는 인공지능 캐릭터에 사용될 음원 정보 및 영상 정보를 추출하는 단계; 및
상기 추출된 음원 정보 및 영상 정보를 미리 준비된 스크립트 정보에 부가하여 상기 인공지능 알고리즘을 학습하는 단계를 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
4. The method of claim 3,
Learning an artificial intelligence algorithm based on the collected first and second user data comprises:
extracting sound source information and image information to be used for an artificial intelligence character corresponding to the second user from the second user data; and
Including the step of learning the artificial intelligence algorithm by adding the extracted sound source information and image information to script information prepared in advance,
An artificial intelligence character creation method using user data.
제4항에 있어서,
상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계;
상기 대화 정보에 기초하여 상기 스크립트 정보를 업데이트하는 단계; 및
상기 업데이트된 스크립트 정보에 기초하여 상기 인공지능 알고리즘을 학습하는 단계를 더 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
5. The method of claim 4,
collecting conversation information between the artificial intelligence character provided through the first user terminal and the first user;
updating the script information based on the conversation information; and
Further comprising the step of learning the artificial intelligence algorithm based on the updated script information,
An artificial intelligence character creation method using user data.
제1항에 있어서,
상기 제2 사용자 단말은 상기 제1 사용자 단말을 이용 중인 제1 사용자와 연결 관계를 갖는 적어도 하나의 제2 사용자가 이용 중인 제2 사용자 단말이고,
상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는,
상기 적어도 하나의 제2 사용자에 상응하는 인공지능 캐릭터를 생성하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
According to claim 1,
The second user terminal is a second user terminal being used by at least one second user having a connection relationship with the first user using the first user terminal,
The step of generating the artificial intelligence character based on the collected user data corresponding to the second user comprises:
generating an artificial intelligence character corresponding to the at least one second user,
An artificial intelligence character creation method using user data.
제6항에 있어서,
상기 제2 사용자 단말은 상기 제1 사용자와 연결 관계를 갖지 않되, 상기 제2 사용자와는 연결 관계를 갖는 적어도 하나의 제3 사용자가 이용 중인 제3 사용자 단말을 포함하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
7. The method of claim 6,
The second user terminal does not have a connection relationship with the first user, but includes a third user terminal that is used by at least one third user having a connection relationship with the second user,
An artificial intelligence character creation method using user data.
제6항에 있어서,
상기 수집된 제2 사용자에 상응하는 사용자 데이터에 기초하여 상기 인공지능 캐릭터를 생성하는 단계는,
상기 복수의 제2 사용자에 상응하는 인공지능 캐릭터를 각각 생성하고,
상기 생성된 인공지능 캐릭터를 상기 제1 사용자 단말로 제공하는 단계는,
상기 복수의 인공지능 캐릭터를 복수의 제1 사용자 단말마다 각각 제공하며,
상기 복수의 제1 사용자 단말은 상기 제1 사용자 단말과 페어링된 사용자 단말을 포함하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
7. The method of claim 6,
The step of generating the artificial intelligence character based on the collected user data corresponding to the second user comprises:
generating artificial intelligence characters corresponding to the plurality of second users, respectively;
The step of providing the generated artificial intelligence character to the first user terminal comprises:
Each of the plurality of artificial intelligence characters is provided for each of the plurality of first user terminals,
The plurality of first user terminals will include a user terminal paired with the first user terminal,
An artificial intelligence character creation method using user data.
제8항에 있어서,
상기 제1 사용자가 적어도 하나의 인공지능 캐릭터를 호출하는 단계;
복수의 제1 사용자 단말 중 상기 호출한 인공지능 캐릭터에 상응하는 적어도 하나의 제1 사용자 단말을 활성화시키는 단계를 더 포함하는,
사용자 데이터를 이용한 인공지능 캐릭터 생성 방법.
9. The method of claim 8,
calling at least one artificial intelligence character by the first user;
Further comprising the step of activating at least one first user terminal corresponding to the called artificial intelligence character among a plurality of first user terminals,
An artificial intelligence character creation method using user data.
제1항 내지 제9항 중 어느 한 항에 따른 사용자 데이터를 이용한 인공지능 캐릭터 생성 방법에 기반한 헬스 케어 방법에 있어서,
상기 제1 사용자 단말을 통해 제공된 인공지능 캐릭터와 상기 제1 사용자 간의 대화 정보를 수집하는 단계;
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계; 및
상기 헬스케어 정보를 상기 제1 사용자 단말로 제공하는 단계를 포함하는,
인공지능 캐릭터를 이용한 헬스케어 방법.
In the health care method based on the artificial intelligence character creation method using user data according to any one of claims 1 to 9,
collecting conversation information between the artificial intelligence character provided through the first user terminal and the first user;
generating healthcare information by analyzing the collected conversation information; and
Comprising the step of providing the health care information to the first user terminal,
A healthcare method using artificial intelligence characters.
제9항에 있어서,
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는,
상기 인공지능 캐릭터에 의한 대화에 연속되는 상기 제1 사용자의 대화 간의 일치도를 분석하는 단계; 및
상기 분석된 일치도를 반영하여 치매 유형, 치매 단계, 치매 경과, 맞춤형 훈련 정보 및 생활 지도 정보를 포함하는 치매 진단 결과를 상기 헬스케어 정보로 생성하는 단계를 포함하는,
인공지능 캐릭터를 이용한 헬스케어 방법.
10. The method of claim 9,
The step of generating health care information by analyzing the collected conversation information,
analyzing the degree of correspondence between the conversations of the first user that is continuous with the conversations by the artificial intelligence character; and
Including the step of generating a dementia diagnosis result including dementia type, dementia stage, dementia progress, customized training information and life guidance information as the health care information by reflecting the analyzed matching degree,
A healthcare method using artificial intelligence characters.
제9항에 있어서,
상기 수집된 대화 정보를 분석하여 헬스케어 정보를 생성하는 단계는,
건강 관련 데이터, 안전 관련 데이터, 실내외 환경 및 기상 관련 데이터를 더 수집하여 상기 헬스케어 정보를 생성하는 것인,
인공지능 캐릭터를 이용한 헬스케어 방법.
10. The method of claim 9,
The step of generating health care information by analyzing the collected conversation information,
To generate the health care information by further collecting health-related data, safety-related data, indoor and outdoor environment and weather-related data,
A healthcare method using artificial intelligence characters.
사용자 데이터를 이용한 인공지능 캐릭터 생성 서버에 있어서,
적어도 하나의 제1 및 제2 사용자 단말과 데이터를 송수신하는 통신모듈,
상기 제1 및 제2 사용자 단말로부터의 데이터에 기초하여 인공지능 캐릭터를 생성하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 제1 사용자 단말을 이용 중인 제1 사용자로부터 제2 사용자 단말을 이용 중인 제2 사용자에 상응하는 인공지능 캐릭터 생성 요청을 수신하면, 상기 제1 및 제2 사용자 단말로부터 상기 제1 및 제2 사용자에 상응하는 제1 및 제2 사용자 데이터를 각각 수집하고,
상기 수집된 제1 및 제2 사용자 데이터에 기초하여 인공지능 알고리즘을 학습하여 상기 인공지능 캐릭터를 생성하고, 상기 생성된 인공지능 캐릭터를 상기 통신모듈을 통해 상기 제1 사용자 단말로 제공하는 것인,
사용자 데이터를 이용한 인공지능 캐릭터 생성 서버.
In the artificial intelligence character creation server using user data,
a communication module for transmitting and receiving data to and from at least one first and second user terminals;
a memory in which a program for generating an artificial intelligence character based on data from the first and second user terminals is stored; and
Including a processor for executing the program stored in the memory,
When the processor receives an artificial intelligence character creation request corresponding to the second user using the second user terminal from the first user using the first user terminal through the communication module as the program is executed, the Collecting first and second user data corresponding to the first and second users from the first and second user terminals, respectively;
Learning an artificial intelligence algorithm based on the collected first and second user data to generate the artificial intelligence character, and to provide the created artificial intelligence character to the first user terminal through the communication module,
Artificial intelligence character creation server using user data.
KR1020200133757A 2020-10-15 2020-10-15 Server and method for generating artificial intelligence character using user data, and healthcare method using the same KR102493280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200133757A KR102493280B1 (en) 2020-10-15 2020-10-15 Server and method for generating artificial intelligence character using user data, and healthcare method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200133757A KR102493280B1 (en) 2020-10-15 2020-10-15 Server and method for generating artificial intelligence character using user data, and healthcare method using the same

Publications (2)

Publication Number Publication Date
KR20220050302A true KR20220050302A (en) 2022-04-25
KR102493280B1 KR102493280B1 (en) 2023-02-01

Family

ID=81451937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200133757A KR102493280B1 (en) 2020-10-15 2020-10-15 Server and method for generating artificial intelligence character using user data, and healthcare method using the same

Country Status (1)

Country Link
KR (1) KR102493280B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102555967B1 (en) * 2022-05-25 2023-07-18 주식회사 투바앤 Method for recommending a user character according to the other user's propensity based on artificial intelligence and a digital content providing server including the same
KR102602426B1 (en) * 2022-11-09 2023-11-17 주식회사 에스비솔루션 Method and system for providing health assistant information in conversational format in conjunction with wearable sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224190A (en) * 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
KR102118585B1 (en) * 2019-12-13 2020-06-03 가천대학교 산학협력단 Smart Mirror Chatbot System and Method for Senior Care
KR20200110498A (en) 2019-03-13 2020-09-24 (주)아이티엔제이 Smart Monitoring System for elderly people living alone

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224190A (en) * 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
KR20200110498A (en) 2019-03-13 2020-09-24 (주)아이티엔제이 Smart Monitoring System for elderly people living alone
KR102118585B1 (en) * 2019-12-13 2020-06-03 가천대학교 산학협력단 Smart Mirror Chatbot System and Method for Senior Care

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102555967B1 (en) * 2022-05-25 2023-07-18 주식회사 투바앤 Method for recommending a user character according to the other user's propensity based on artificial intelligence and a digital content providing server including the same
KR102602426B1 (en) * 2022-11-09 2023-11-17 주식회사 에스비솔루션 Method and system for providing health assistant information in conversational format in conjunction with wearable sensor

Also Published As

Publication number Publication date
KR102493280B1 (en) 2023-02-01

Similar Documents

Publication Publication Date Title
US20240054117A1 (en) Artificial intelligence platform with improved conversational ability and personality development
US11367435B2 (en) Electronic personal interactive device
US20190122093A1 (en) Artificial intelligence system for supporting communication
US20160379107A1 (en) Human-computer interactive method based on artificial intelligence and terminal device
Donaghue Sex outside the lines: Authentic sexuality in a sexually dysfunctional culture
KR102009844B1 (en) Facial expression recognition device and management service server for dementia patient using the same
Smock Jordan et al. Utilizing solution-focused brief therapy with families living with autism spectrum disorder
KR102493280B1 (en) Server and method for generating artificial intelligence character using user data, and healthcare method using the same
Stone et al. From the individual to the collective: The emergence of a psychological approach to collective memory
KR20190034035A (en) Method for providing vicarious experience service using virtual reality based on role-playing and bigdata
CN111448533A (en) Communication model for cognitive system
da Rosa Tavares et al. Apollo SignSound: an intelligent system applied to ubiquitous healthcare of deaf people
US11657729B2 (en) Childhood development system
Currin et al. Taking the red pill: Using The Matrix to explore transgender identity development
Davis et al. Context-aware communication for severely disabled users
US20180293281A1 (en) Method and system for facilitating context based information
KR102151505B1 (en) Social mashup logic implementation system and method for improving sns dysfunction based on deep learning
Young et al. Roadblocks and resistance: Digital mediation as a process of calibration among US parents of adolescents
Kozuh The deaf and hard of hearing on social networking sites: Identity, community building and connections between communities
Wren Researching the moral dimension of first-person narratives
Dabbous et al. Meta-Digital-Communication
Willett ‘In our family, we don’t watch those things’: parents’ discursive constructions of decision-making connected with family media practices
KR102599369B1 (en) CUSTOMIZED CONTENT PROVIDING SYSTEM ANS METHOD FOR PROVIDING WebRTC-BASED REAL-TIME CHAT SERVICE
Hansaram Exploring Middle-Class Malaysian Parents' Perceptions and Concerns About Children's Internet Usage
KR102488550B1 (en) System for Caring Self Mind

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant