KR102118585B1 - Smart Mirror Chatbot System and Method for Senior Care - Google Patents

Smart Mirror Chatbot System and Method for Senior Care Download PDF

Info

Publication number
KR102118585B1
KR102118585B1 KR1020190166549A KR20190166549A KR102118585B1 KR 102118585 B1 KR102118585 B1 KR 102118585B1 KR 1020190166549 A KR1020190166549 A KR 1020190166549A KR 20190166549 A KR20190166549 A KR 20190166549A KR 102118585 B1 KR102118585 B1 KR 102118585B1
Authority
KR
South Korea
Prior art keywords
information
user
unit
voice
smart mirror
Prior art date
Application number
KR1020190166549A
Other languages
Korean (ko)
Inventor
오석희
황보택근
윤경목
백한솔
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020190166549A priority Critical patent/KR102118585B1/en
Application granted granted Critical
Publication of KR102118585B1 publication Critical patent/KR102118585B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • G06K9/00268
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/028Communication between parent and child units via remote transmission means, e.g. satellite network
    • G08B21/0283Communication between parent and child units via remote transmission means, e.g. satellite network via a telephone network, e.g. cellular GSM
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/005
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Abstract

The present invention relates to a smart mirror chatbot system for senior care and a method thereof. More specifically, the present invention relates to a smart mirror chatbot system for senior care and a method thereof. The smart mirror chatbot system for senior care performs a conversation with a user through a character displayed on a smart mirror, analyzes a mild cognitive impairment degree and emotion of the user based on contents of the performed conversation and image information of the user collected through a camera of the smart mirror, and transmits state information of the user in accordance with the analyzed emotion to a guardian.

Description

시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법 {Smart Mirror Chatbot System and Method for Senior Care}Smart Mirror Chatbot System and Method for Senior Care}

본 발명은 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법에 관한 것으로서, 보다 상세하게는 스마트미러에 디스플레이 되는 캐릭터를 통해 사용자와 대화를 수행하고, 수행한 대화의 내용 및 스마트미러의 카메라를 통해 수집된 사용자의 영상정보에 기초하여 사용자의 경도인지장애정도 및 감정을 분석하고, 분석한 감정에 따른 사용자의 상태정보를 보호자에게 송신할 수 있는, 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법에 관한 것이다.The present invention relates to a smart mirror chatbot system and method for senior care, and more specifically, to perform a conversation with a user through a character displayed on the smart mirror, the content of the conversation performed, and collected through the camera of the smart mirror The present invention relates to a smart mirror chatbot system and method for senior care that can analyze a user's degree of mild cognitive impairment and emotion based on the user's image information and transmit the user's status information according to the analyzed emotion to a guardian.

시니어 헬스케어 기술은 고령화 시대에 따른 시니어 인구의 증가와 이들의 건강에 대한 관심도 증가에 맞추어 더욱 활발하게 연구되고 있다. 현재 우리나라의 65세 이상 인구는 610만여 명으로 전체 인구의 12%를 넘어섰다. 대한민국뿐 아니라 프랑스, 스웨덴, 미국, 독일, 일본 등 선진국을 중심으로 고령화사회가 빠르게 확산되고 있으며, 21세기에는 모든 국가가 고령화라는 사회적 현상에 대응해야 하는 상황이다.Senior healthcare technology is being actively researched in line with the increase in the senior population and their interest in health according to the aging age. Currently, the population of people over 65 years old in Korea is more than 6.6 million, exceeding 12% of the total population. Aging society is rapidly spreading not only in Korea but also in developed countries such as France, Sweden, the United States, Germany, and Japan, and in the 21st century, all countries must respond to the social phenomenon of aging.

한편, 최근 스마트미러에 대한 연구가 활발히 진행되고 있으며, 스마트 미러에 대한 사람들의 관심도 증가하고 있다. 스마트 미러란, 거울이 빛의 반사를 이용하여 물체의 모양을 비추는 거울 고유의 기능을 수행할 뿐만 아니라, 인터넷과 연결되어 날씨, 달력 및 주요 뉴스 등의 다양한 정보를 출력해주는 기능을 수행할 수 있는 거울이다. 하지만, 지금까지 사용되고 있는 스마트미러는 그날의 날씨, 주요 뉴스 등의 일반적인 정보를 일방적으로 제공하는 데 그치고 있을 뿐, 사용자의 감정을 고려하여, 사용자의 감정에 따라 그에 적합한 맞춤형 정보를 제공하지는 못하고 있다.Meanwhile, research on smart mirrors has been actively conducted recently, and people's interest in smart mirrors is also increasing. Smart mirror is a mirror that reflects the shape of an object by reflecting light, as well as performing a function that can connect to the Internet and output various information such as weather, calendar, and major news. It is a mirror. However, the smart mirrors used so far are only unilaterally providing general information such as the weather of the day and main news, and are not able to provide customized information suitable for the user's emotions in consideration of the user's emotions. .

또한, 고령화 사회의 가속화에 따라 노인에 대한 관리의 필요성이 크게 증가하고 있고, 특히 홀로 거주하는 노인의 경우, 긴급상황이 발생하게 되면 별다른 조치를 취하지 못하는 경우에 큰 위험에 처할 수 있고, 이는 사회적으로 크게 문제되고 있다. 이러한 문제를 해결하기 위하여, 노인들이 일반 스마트기기 보다 간편하게 사용할 수 있는 스마트미러를 이용하여 사용자의 감정을 고려한 대화를 제공하고, 사용자의 영상 혹은 음성을 수집하여, 사용자의 상태를 분석하여 관리할 수 있는 기술이 필요하나 이러한 종래의 기술은 전무하다.In addition, as the aging society accelerates, the need for management of the elderly is greatly increased, and especially in the case of an elderly person living alone, when an emergency occurs, it can be in great danger if no special measures can be taken. As is the big problem. In order to solve this problem, a smart mirror that can be used more easily than a general smart device by an elderly person provides a conversation considering the user's emotion, collects the user's video or voice, and analyzes and manages the user's condition. There is a need for an existing technology, but there is no such conventional technology.

본 발명은 스마트미러에 디스플레이 되는 캐릭터를 통해 사용자와 대화를 수행하고, 수행한 대화의 내용 및 스마트미러의 카메라를 통해 수집된 사용자의 영상정보에 기초하여 사용자의 경도인지장애정도 및 감정을 분석하고, 분석한 감정에 따른 사용자의 상태정보를 보호자에게 송신할 수 있는, 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention conducts a conversation with a user through a character displayed on a smart mirror, analyzes the user's degree of mild cognitive impairment and emotion based on the content of the conversation performed and the user's video information collected through the camera of the smart mirror, It is an object of the present invention to provide a smart mirror chatbot system and method for senior care, which can transmit the user's status information according to the analyzed emotion to the guardian.

상기와 같은 과제를 해결하기 위하여, 보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 구현되는 시니어 케어를 위한 스마트미러 챗봇 시스템으로서, 상기 스마트미러장치는, 사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고, 상기 제어부는, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별부; 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부; 및 보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부;를 포함하고, 상기 서비스서버는, 사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부; 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부;를 포함하는 사용자상태진단부; 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부;를 포함하는, 스마트미러 챗봇 시스템을 제공한다.In order to solve the above problems, as a smart mirror chatbot system for senior care implemented by a service server that can be accessed by a guardian's terminal and a smart mirror device, the smart mirror device is made of a transparent material that illuminates the user's appearance. mirror; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit controlling an operation of the smart mirror device through communication with the service server, wherein the control unit identifies the user based on voice information and video information of a user who wants to operate the smart mirror device. A user identification unit for operating the smart mirror device; A chatbot interface unit for performing a conversation with a user through a character displayed on the display unit; And a call mode providing unit for performing a video call through communication with a terminal of the guardian, wherein the service server is a mild cognitive impairment that derives mild cognitive impairment information based on the user's voice information and the video information. Information elicitation unit; And an emotion information deriving unit that derives emotion information based on the image information of the user. And a user status notification unit that transmits the user's status information derived based on the mild cognitive impairment information and the emotion information to a guardian's terminal.

본 발명의 일 실시예에서는, 상기 사용자식별부는, 얼굴식별부; 및 음성식별부;를 포함하고, 상기 얼굴식별부는, 사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계; 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계; 및 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하고, 상기 음성식별부는, 수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계; 및 사용자의 음성으로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행할 수 있다.In one embodiment of the present invention, the user identification unit, face identification unit; And a voice identification unit, wherein the face identification unit extracts a user's face image based on the image information of the user; Determining a user's face by comparing the pre-stored user's face image with the face image extracted from the image information; And if it is determined as the user's face, operating the smart mirror device; and the voice identification unit determines the user's voice by comparing the received user's voice information with the pre-stored user's voice information. step; And when it is determined by the user's voice, operating the smart mirror device.

본 발명의 일 실시예에서는, 상기 챗봇인터페이싱부는, 정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부의 표시화면에 해당 정보를 디스플레이하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러의 영역과 겹치지 않는 디스플레이부의 영역에 디스플레이 될 수 있다.In one embodiment of the present invention, the chatbot interfacing unit comprises a chatbot that displays smart mirror providing information including one or more of weather, schedule, and news requested by the user in the form of a character according to the user's voice information for the information request. Provided through voice, and displays the corresponding information on the display screen of the display unit, and the character can be displayed in an area of the display unit that does not overlap the area of the mirror on which the user's appearance is projected based on the image information of the user. have.

본 발명의 일 실시예에서는, 상기 챗봇인터페이싱부는, 상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계; 상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계; 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및 상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 수행하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러의 영역과 겹치지 않는 디스플레이부의 영역에 디스플레이 될 수 있다.In one embodiment of the present invention, the chatbot interface unit, performing one or more questions related to the diagnosis of mild cognitive impairment through a character displayed on the display unit; Receiving voice information of a user in response to the question through the microphone unit; Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And providing the feedback voice information through the character; and the character may be displayed on an area of the display unit that does not overlap the area of the mirror on which the user's appearance is projected based on the image information of the user. have.

본 발명의 일 실시예에서는, 상기 통화모드제공부는, 사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치로 송신하여 영상통화를 실행할 수 있다.In one embodiment of the present invention, the call mode providing unit transmits the user's voice information and video information to the guardian's terminal, and transmits the guardian voice information and the guardian's video information received from the guardian's terminal to the smart mirror device. To make a video call.

본 발명의 일 실시예에서는, 상기 사용자상태진단부는, 특징정보도출부;를 더 포함하고, 상기 특징정보도출부는, 상기 사용자의 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고, 상기 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출할 수 있다.In an embodiment of the present invention, the user state diagnosis unit further includes a feature information extractor; the feature information extractor derives voice feature information according to the amplitude, length and pattern of the user's voice information, A face image may be extracted based on the user's image information, and face feature information may be derived based on the extracted face image.

본 발명의 일 실시예에서는, 상기 경도인지장애정보도출부는, 사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계; 사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및 상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the hardness cognitive impairment information extracting unit is a first artificial person analyzing the degree of hardness cognitive impairment based on voice characteristic information including amplitude, length and pattern derived based on the user's voice information. Deriving a first analysis result by the neural network; Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.

본 발명의 일 실시예에서는, 상기 감정정보도출부는, 상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출할 수 있다.In one embodiment of the present invention, the emotion information deriving unit may derive the emotion information by a third artificial neural network analyzing the user's emotion based on the facial feature information derived from the image information of the user.

본 발명의 일 실시예에서는, 상기 사용자상태알림부는, 사용자의 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신할 수 있다.In one embodiment of the present invention, the user status notification unit derives the user's status information according to a preset criterion based on the user's longitude cognitive impairment information and the emotion information, and the derived user's status information is preset. If the criteria are met, the user's status information may be transmitted to the guardian's terminal.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 수행되는 시니어 케어를 위한 스마트미러 챗봇 서비스를 제공하는 방법으로서, 상기 스마트미러장치는, 사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고, 상기 서비스서버는, 사용자식별부; 챗봇인터페이싱부; 통화모드제공부; 경도인지장애정보도출부; 및 감정정보도출부;를 포함하는 사용자상태진단부; 및 사용자상태알림부;를 포함하고, 상기 사용자식별부에 의하여, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별단계; 상기 챗봇인터페이싱부에 의하여, 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱단계; 상기 통화모드제공부에 의하여, 보호자의 단말기와 통신을 통해 음성통화 혹은 영상통화를 제공하는, 통화모드제공단계; 상기 경도인지장애정보도출부에 의하여, 상기 사용자의 음성정보에 대한 특징정보 및 상기 영상정보에 대한 특징정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출단계; 및 상기 감정정보도출부에 의하여, 상기 사용자의 영상정보에 대한 특징정보에 기초하여 감정정보를 도출하는 감정정보도출단계;를 포함하는 사용자상태진단단계; 및 상기 사용자상태알림부에 의하여, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는, 사용자상태알림단계;를 포함하는, 스마트미러 챗봇 서비스를 제공하는 방법을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a method of providing a smart mirror chatbot service for senior care performed by a service server to which a terminal of a guardian and a smart mirror device can access, the smart The mirror device includes a mirror made of a transparent material that illuminates a user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server, wherein the service server comprises: a user identification unit; Chatbot interface unit; A call mode providing unit; Mild Cognitive Disability Information Derivation Unit; And an emotional information deriving unit; And a user status notifying unit, comprising: a user identification step of operating the smart mirror device by identifying the user based on voice information and video information of a user to operate the smart mirror device by the user identification unit; A chatbot interfacing step of performing a conversation with a user through a character displayed on the display unit by the chatbot interfacing unit; A call mode providing step of providing a voice call or a video call through communication with a terminal of the guardian by the call mode providing unit; A long-term cognitive disability information deriving step of deriving long-term cognitive disability information based on the feature information on the user's voice information and the feature information on the image information; And an emotion information deriving step of deriving emotion information based on feature information on the user's image information by the emotion information deriving unit. And a user status notification step of transmitting, by the user status notification unit, the user's status information derived based on the mild cognitive impairment information and the emotion information to a guardian's terminal. How to do it.

본 발명의 일 실시예에 따르면, 스마트미러장치에 디스플레이되는 캐릭터를 통해 사용자에게 대화상대를 제공하여 감성에 대한 결핍을 충족시켜 줄 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to provide an interactive partner to a user through a character displayed on a smart mirror device, thereby exerting an effect of satisfying a lack of emotion.

본 발명의 일 실시예에 따르면, 스마트미러장치를 통해 대화형으로 정보를 제공하고, 수집한 사용자의 음성정보 및 영상정보에 기초하여 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 사용자의 상태에 따른 보호자의 효과적인 조치를 취할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, information is provided interactively through a smart mirror device, and a result of analyzing a user's state based on the collected voice and video information is delivered to a guardian, and the user's state It can exert the effect of taking effective measures by the guardian.

본 발명의 일 실시예에 따르면, 캐릭터와 실제 대화를 하는 것 같은 상황을 연출함으로써, 사용자의 음성정보로부터 사용자의 표정, 목소리 패턴, 사용하는 단어의 키워드 등을 분석하여 현재 사용자의 감정 및 건강상태에 대한 분석을 할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by generating a situation such as having a real conversation with a character, the user's voice information is analyzed from the user's facial expression, voice pattern, keywords of words used, and the current user's emotion and health status It can exert an effect that can be analyzed for.

본 발명의 일 실시예에 따르면, 사용자의 영상정보에 기초하여 학습된 인공신경망 모델을 이용하여 사용자의 영상정보에 담긴 감정을 인식할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to exert the effect of recognizing the emotion contained in the user's image information using an artificial neural network model learned based on the user's image information.

본 발명의 일 실시예에 따르면, 독거 노인들에게 편의성 및 대화상대를 제공하여 감성에 대한 충족감과 건강상태를 실시간으로 측정 및 분석하여 보호자에게 전달할 수 있다.According to an embodiment of the present invention, it is possible to provide convenience and conversational counterparts to the elderly living alone to measure and analyze the feeling of satisfaction and health in real time and deliver it to the guardian.

본 발명의 일 실시예에 따르면, 도출된 사용자의 상태정보를 기설정된 기준에 따라 판단하여, 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 독거하는 시니어 계층의 사용자의 보호자는 함께 거주하지 않더라도 사용자의 상태를 수신할 수 있음으로써, 사용자의 상태에 따라 적절한 조치를 취할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the derived user's status information is determined according to a predetermined criterion, and the result of analyzing the user's status is transmitted to the guardian, even if the guardian of the user of the senior class who is living alone does not live together By receiving the user's status, it is possible to exert the effect of taking appropriate measures according to the user's status.

도 1은 본 발명의 일 실시예에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템의 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 스마트미러장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제어부의 내부 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 서비스서버의 내부 구성을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 사용자식별부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 챗봇인터페이싱부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 챗봇인터페이싱부의 수행단계를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 챗봇인터페이싱부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 통화모드제공부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 특징정보도출부의 동작을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 특징정보도출부의 동작을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 경도인지장애정보도출부의 동작을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 감정정보도출부의 동작을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치를 예시적으로 도시한다.
1 schematically illustrates a form of a smart mirror chatbot system for senior care according to an embodiment of the present invention.
2 schematically shows a configuration of a smart mirror device according to an embodiment of the present invention.
Figure 3 schematically shows the internal configuration of the control unit according to an embodiment of the present invention.
4 schematically shows an internal configuration of a service server according to an embodiment of the present invention.
5 schematically illustrates a screen of a smart mirror device provided by a user identification unit according to an embodiment of the present invention.
6 schematically illustrates a screen of a smart mirror device provided by a chatbot interface unit according to an embodiment of the present invention.
7 schematically illustrates a step of performing a chatbot interface unit according to an embodiment of the present invention.
8 schematically shows a screen of a smart mirror device provided by a chatbot interface unit according to an embodiment of the present invention.
9 schematically illustrates a screen of a smart mirror device provided by a call mode providing unit according to an embodiment of the present invention.
10 schematically illustrates the operation of the feature information extracting unit according to an embodiment of the present invention.
11 schematically illustrates the operation of the feature information extractor according to an embodiment of the present invention.
12 schematically illustrates the operation of the longitudinal cognitive impairment information extracting unit according to an embodiment of the present invention.
13 schematically illustrates the operation of the emotion information extracting unit according to an embodiment of the present invention.
14 exemplarily illustrates a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part “includes” a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise specified.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Further, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and/or includes a combination of a plurality of related described items or any one of a plurality of related described items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware. Meanwhile,'~unit' is not limited to software or hardware, and'~unit' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided within components and'~units' may be combined into a smaller number of components and'~units' or further separated into additional components and'~units'. In addition, the components and'~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" mentioned below may be implemented as a computer or a portable terminal capable of accessing a server or another terminal through a network. Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop (desktop), a laptop (laptop), and the like, and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code It may include all kinds of handheld-based wireless communication devices such as Division Multiple Access (2000), W-Code Division Multiple Access (W-CDMA), and Wireless Broadband Internet (Wibro) terminals. In addition, the "network" is a wired network or a mobile radio communication network or satellite, such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN). It can be implemented with any kind of wireless network, such as a communication network.

도 1은 본 발명의 일 실시예에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템의 형태를 개략적으로 도시한다.1 schematically illustrates a form of a smart mirror chatbot system for senior care according to an embodiment of the present invention.

도 1의 보호자의 단말기는 전술한 사용자 단말에 해당할 수 있고, 서비스서버(2000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The terminal of the guardian of FIG. 1 may correspond to the aforementioned user terminal, and the service server 2000 corresponds to a computing device including one or more processors and one or more memories.

스마트미러(100)장치(1000)는, 상기 서비스서버(2000)와 통신할 수 있고, 상기 스마트미러(100)장치(1000)의 제어부(500)는 서비스서버(2000)와의 통신으로 스마트미러(100)장치(1000)의 동작을 제어할 수 있다. 상기 제어부(500)는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에 해당한다.The smart mirror 100 device 1000 may communicate with the service server 2000, and the control unit 500 of the smart mirror 100 device 1000 may communicate with the service server 2000 through the smart mirror ( 100) It is possible to control the operation of the device 1000. The control unit 500 corresponds to a computing device including one or more processors and one or more memories.

상기 스마트미러장치(1000)는 사용자의 모습을 비추는 미러(100)를 포함하고, 상기 미러(100)는 사용자의 모습을 비출 뿐만 아니라 투과성 재질로 구성되어 미러(100)를 통해 후면에 있는 물체 혹은 환경을 미러(100)를 투과하여 시각적으로 볼 수 있다. 본 발명의 스마트미러장치(1000)는 상기와 같은 미러(100)의 후면에는 영상 혹은 정보를 디스플레이하는 디스플레이부(600)가 설치된다. 또한, 상기 스마트미러장치(1000)는, 사운드를 출력하는 스피커부(400); 사용자의 음성정보를 수집하는 마이크부(300); 상기 서비스서버(2000) 및 상기 보호자의 단말기와 무선적으로 통신하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부(200)를 더 포함할 수 있다.The smart mirror device 1000 includes a mirror 100 that illuminates the user's appearance, and the mirror 100 is made of a transparent material as well as illuminating the user's appearance, or an object on the back through the mirror 100 or The environment can be seen visually through the mirror 100. In the smart mirror device 1000 of the present invention, a display unit 600 for displaying an image or information is installed on the rear surface of the mirror 100 as described above. In addition, the smart mirror device 1000, a speaker unit 400 for outputting sound; A microphone unit 300 for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server 2000 and the guardian's terminal; A camera unit 200 for collecting user's image information may be further included.

이와 같은, 상기 스마트미러장치(1000)는, 사용자를 식별하여 스마트미러장치(1000)를 동작시키고, 상기 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행할 수 있다. 또한, 보호자의 단말기와 통신을 통해 영상통화를 실행할 수 있다.The smart mirror device 1000 may identify the user, operate the smart mirror device 1000, and perform a conversation with the user through a character displayed on the display unit 600. In addition, it is possible to execute a video call through communication with the guardian's terminal.

이하에서는, 상기 스마트미러장치(1000)의 구성에 대하여 더욱 자세하게 설명하도록 한다.Hereinafter, the configuration of the smart mirror device 1000 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른 스마트미러장치(1000)의 구성을 개략적으로 도시한다.2 schematically shows a configuration of a smart mirror device 1000 according to an embodiment of the present invention.

구체적으로, 도 2의 (a)는 본 발명의 스마트미러장치(1000)를 정면에서 바라본 형태를 도시한다. 상기 스마트미러장치(1000)는 투과성 재질의 미러(100)를 포함하여, 사용자 및 주변환경을 비출 수 있고, 스마트미러장치(1000)의 상단에는 사용자의 영상정보를 수집하는 카메라부(200); 및 사용자의 음성정보를 수집하는 마이크부(300);가 장착된다.Specifically, Figure 2 (a) shows a form viewed from the front of the smart mirror device 1000 of the present invention. The smart mirror device 1000 may include a mirror 100 of a transparent material, illuminate a user and surrounding environment, and a camera unit 200 that collects image information of a user at the top of the smart mirror device 1000; And a microphone unit 300 for collecting voice information of the user.

도 2의 (b)는 본 발명의 스마트미러장치(1000)를 측면에서 바라본 형태를 도시한다. 도 2의 (b)에 도시된 바와 같이, 전방에는 사용자의 모습을 비추는 투과성재질의 미러(100)가 구비되고, 미러(100)의 상단에는 사용자의 영상정보를 수집하는 카메라부(200)가 장착된다. 이러한 미러(100)의 후면에는 정보 혹은 영상을 디스플레이하는 디스플레이부(600)가 설치된다. 또한, 디스플레이부(600)의 후면에는 사운드를 출력하는 스피커부(400) 및 스마트미러장치(1000)의 동작을 제어하는 제어부(500)가 구비된다. 상기 스피커부(400)는 꼭 디스플레이부(600)의 후면이 아니더라도 스마트미러장치(1000)의 다른 영역에 구비될 수도 있다.Figure 2 (b) shows a form viewed from the side of the smart mirror device 1000 of the present invention. As shown in (b) of FIG. 2, the front side is provided with a mirror 100 of a transmissive material that illuminates the user's figure, and at the top of the mirror 100 is a camera unit 200 that collects user image information. It is mounted. A display unit 600 for displaying information or images is installed on the rear surface of the mirror 100. In addition, a speaker unit 400 for outputting sound and a control unit 500 for controlling the operation of the smart mirror device 1000 are provided on the rear surface of the display unit 600. The speaker unit 400 may be provided in another area of the smart mirror device 1000 even if it is not necessarily the rear surface of the display unit 600.

이하에서는, 본 발명의 스마트미러장치(1000)의 상기 제어부(500)의 구성에 대하여 더욱 자세하게 설명하도록 한다.Hereinafter, the configuration of the control unit 500 of the smart mirror device 1000 of the present invention will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 제어부(500)의 내부 구성을 개략적으로 도시한다.3 schematically shows an internal configuration of the control unit 500 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 상기 스마트미러장치(1000)의 상기 제어부(500)는, 상기 스마트미러장치(1000)를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치(1000)를 동작시키는 사용자식별부(510); 상기 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부(520); 및 보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부(530);를 포함한다.As illustrated in FIG. 3, the control unit 500 of the smart mirror device 1000 identifies the user based on voice information and video information of a user who wants to operate the smart mirror device 1000 to identify the smart A user identification unit 510 for operating the mirror device 1000; A chatbot interface unit 520 that performs a conversation with a user through a character displayed on the display unit 600; And a call mode providing unit 530 for performing a video call through communication with the terminal of the guardian.

구체적으로, 상기 사용자식별부(510)는, 얼굴식별부(511) 및 음성식별부(512)를 포함하고, 상기 얼굴식별부(511)는, 스마트미러장치(1000)의 카메라부(200)에 의하여 수집된 사용자의 영상정보에 기초하여 사용자의 얼굴을 판별하고, 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치(1000)를 동작시킬 수 있다. 상기 음성식별부(512)는, 스마트미러장치(1000)의 마이크부(300)에 의하여 수집된 사용자의 음성정보에 기초하여 사용자의 음성을 판별하고, 수집된 음성정보가 사용자의 음성으로 판별된 경우, 상기 스마트미러장치(1000)를 동작시킬 수 있다.Specifically, the user identification unit 510 includes a face identification unit 511 and a voice identification unit 512, and the face identification unit 511 is a camera unit 200 of the smart mirror device 1000. The user's face may be determined based on the collected user's image information, and when it is determined as the user's face, the smart mirror device 1000 may be operated. The voice identification unit 512 determines the user's voice based on the user's voice information collected by the microphone unit 300 of the smart mirror device 1000, and the collected voice information is determined as the user's voice In this case, the smart mirror device 1000 may be operated.

상기 챗봇인터페이싱부(520)는, 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행한다. 정보 요청에 대한 사용자의 음성정보를 수신하고, 수신한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부(600)의 표시화면 해당 정보를 디스플레이 한다. 또한, 챗봇인터페이싱부(520)는, 사용자의 경도인지장애정도를 진단하기 위해 상기 캐릭터를 통해 경도인지장애진단과 관련된 1 이상의 질문을 수행하고, 스마트미러장치(1000)의 마이크부(300)를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보에 따라 상기 응답에 대한 피드백음성정보를 제공할 수 있다.The chatbot interfacing unit 520 performs a conversation with a user through a character displayed on the display unit 600 of the smart mirror device 1000. Receives the user's voice information for the information request, and according to the received user's voice information, the smart mirror providing information including one or more of the weather, schedule, and news requested by the user is voiced through a chatbot displayed in the form of a character. Provided, and displays the information corresponding to the display screen of the display unit 600. In addition, the chatbot interfacing unit 520 performs one or more questions related to the diagnosis of mild cognitive impairment through the character in order to diagnose the degree of mild cognitive impairment of the user, and the microphone unit 300 of the smart mirror device 1000. Through this, feedback voice information for the response may be provided according to the user's voice information for the response corresponding to the question.

상기 통화모드제공부(530)는, 사용자의 음성정보 및 영상정보를 보호자의 단말기로 송신하고 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치(1000)로 송신하여 영상통화를 실행한다. 통화모드제공부(530)의 동작으로 스마트미러장치(1000)를 통해 사용자는 보호자와 영상통화를 할 수 있다.The call mode providing unit 530 transmits the user's voice information and video information to the guardian's terminal, and transmits the guardian voice information and the guardian video information received from the guardian's terminal to the smart mirror device 1000 to make a video call. Run Through the operation of the call mode providing unit 530, the user can make a video call with the guardian through the smart mirror device 1000.

도 3에 도시된 제어부(500)는 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템과 관련된 구성요소들만을 표시하였다.The control unit 500 illustrated in FIG. 3 may further include elements other than the illustrated components, but for convenience, only components related to the smart mirror chatbot system for senior care according to embodiments of the present invention are displayed.

도 4는 본 발명의 일 실시예에 따른 서비스서버(2000)의 내부구성을 개략적으로 도시한다.4 schematically shows the internal configuration of a service server 2000 according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 상기 서비스서버(2000)는, 사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부(2120); 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부(2130);를 포함하는 사용자상태진단부(2100); 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부(2200); 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치를 설정하는 스마트미러장치설정부(2300);를 포함할 수 있다.As shown in FIG. 4, the service server 2000 includes: a longitudinal cognitive impairment information deriving unit 2120 for deriving longitudinal cognitive impairment information based on the user's voice information and the video information; And an emotion information deriving unit 2130 for deriving emotion information based on the image information of the user; And a user status notification unit 2200 that transmits the user's status information derived based on the mild cognitive impairment information and the emotion information to a guardian's terminal. And a smart mirror device setting unit 2300 for setting a smart mirror device based on the hardness cognitive impairment information and the emotion information.

구체적으로, 상기 사용자상태진단부(2100)는, 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보 및 감정정보를 도출하여 사용자의 상태정보를 도출할 수 있다. 이러한 사용자상태진단부(2100)는, 특징정보도출부(2110), 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)를 포함한다.Specifically, the user status diagnosis unit 2100 may derive the user's status information by deriving the mild cognitive impairment information and emotion information based on the user's voice information and video information. The user state diagnosis unit 2100 includes a feature information extraction unit 2110, a long-term cognitive disability information extraction unit 2120, and an emotion information extraction unit 2130.

상기 특징정보도출부(2110)는, 스마트미러장치(1000)의 카메라부(200)로부터 수집된 사용자의 영상정보 및 마이크부(300)로부터 수집된 사용자의 음성정보에 기초하여 얼굴특징정보 및 음성특징정보를 도출할 수 있다. 구체적으로, 상기 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고, 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다.The feature information deriving unit 2110, face feature information and voice based on the user's video information collected from the camera unit 200 of the smart mirror device 1000 and the user's voice information collected from the microphone unit 300 Feature information can be derived. Specifically, voice characteristic information is derived according to the amplitude, length, and pattern of the voice information, face image is extracted based on image information, and face feature information is derived based on the extracted face image.

본 발명의 일 실시예에서는, 상기 특징정보도출부(2110)는 기본적으로 사용자의 영상정보 및 음성정보를 수신하여 딥러닝과 같은 기계학습기술을 통한 학습된 모델을 통하여 얼굴특징정보 및 음성특징정보를 도출할 수 있다.In one embodiment of the present invention, the feature information deriving unit 2110 basically receives the user's image information and voice information, and thus face feature information and voice feature information through a model learned through machine learning techniques such as deep learning. Can be derived.

상기 특징정보도출부(2110)에 포함된 특징정보를 도출하는 모듈은 상기 영상정보에 포함된 얼굴이미지를 별도로 추출하고 RNN, LSTM, GRU와 같은 시간적 개념이 포함된 인공신경망 기술을 이용하여 경도인지장애정도를 분석하고, 경도인지장애점수를 도출할 수 있다. 또한, 이에 추가적으로, 상기 특징정보도출부(2110)는, 기계학습이 아닌 기설정된 규칙에 따라 영상을 분석할 수도 있다.The module for deriving the feature information included in the feature information deriving unit 2110 separately extracts the face image included in the image information and recognizes the hardness using artificial neural network technology including temporal concepts such as RNN, LSTM, and GRU. You can analyze the degree of disability and derive a mild cognitive disability score. In addition, in addition to this, the feature information extracting unit 2110 may analyze an image according to a preset rule rather than machine learning.

상기 경도인지장애정보도출부(2120)는, 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보를 도출한다. 구체적으로, 경도인지장애정보도출부(2120)는, 제1인공신경망(2121), 제2인공신경망(2122) 및 종합진단모듈(2123)을 포함한다. 상기 제1인공신경망(2121)은 음성특징정보에 기초하여 경도인지장애정도를 분석한 제1분석결과를 도출하고, 상기 제2인공신경망(2122)은 얼굴특징정보에 기초하여 경도인지장애정도를 분석한 제2분석결과를 도출한다. 이후, 상기 종합진단모듈(2123)은 제1분석결과 및 제2분석결과에 기초하여 경도인지장애정보를 도출할 수 있다. 바람직하게는, 상기 경도인지장애정보는, 사용자의 경도인지장애정도에 따른 레벨 혹은 점수의 형태로 도출될 수 있다.The mild cognitive disability information deriving unit 2120 derives mild cognitive disability information based on the user's voice information and video information. Specifically, the longitudinal cognitive impairment information extraction unit 2120 includes a first artificial neural network 2121, a second artificial neural network 2122, and a comprehensive diagnosis module 2123. The first artificial neural network 2121 derives a first analysis result analyzing the degree of mild cognitive impairment based on the voice feature information, and the second artificial neural network 2122 determines the degree of hardness cognitive impairment based on the facial feature information. The second analysis result is analyzed. Thereafter, the comprehensive diagnosis module 2123 may derive longitudinal cognitive impairment information based on the first analysis result and the second analysis result. Preferably, the mild cognitive impairment information may be derived in the form of a level or score according to the user's degree of mild cognitive impairment.

상기 감정정보도출부(2130)는, 사용자의 영상정보에 기초하여 감정정보를 도출한다. 구체적으로, 감정정보도출부(2130)는, 제3인공신경망(2131)을 포함하고, 상기 제3인공신경망(2131)은 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 감정정보를 분석한다. 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망(2131)에 의하여 감정정보를 도출한다. 바람직하게는, 상기 감정정보는, 사용자의 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 등의 감정에 따른 벡터형태의 데이터 일 수 있다.The emotion information deriving unit 2130 derives emotion information based on the user's image information. Specifically, the emotion information deriving unit 2130 includes a third artificial neural network 2131, and the third artificial neural network 2131 analyzes emotion information based on face feature information derived from the user's image information. . Based on the facial feature information derived from the user's image information, emotion information is derived by a third artificial neural network 2131 that analyzes the user's emotion. Preferably, the emotion information may be data in vector form according to emotions such as user's joy, surprise, sadness, anger, fear, interest, stress, fear, boredom, comfort, discomfort, anxiety, and neutrality. .

상기 사용자상태알림부(2200)는, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신한다. 구체적으로, 사용자상태알림부(2200)는, 경도인지장애정보 및 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신한다.The user status notification unit 2200 transmits the user's status information derived based on the hardness cognitive impairment information and the emotion information to the terminal of the guardian. Specifically, the user status notification unit 2200 derives the user's status information according to a preset criterion based on the mild cognitive disability information and emotion information, and when the derived user's status information corresponds to the preset criterion, The user's status information is transmitted to the guardian's terminal.

상기 스마트미러장치설정부(2300)는, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치(1000)를 설정한다. 도 3의 설명에서 언급한 바와 같이 스마트미러장치(1000)는 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하고, 스마트미러장치설정부(2300)는 스마트미러장치(1000)로부터 수신한 사용자의 음성정보에 따라 상기 응답에 대한 피드백음성정보를 도출하고, 상기 스마트미러장치(1000)로 도출한 피드백음성정보를 송신할 수 있다. 또한, 스마트미러장치설정부(2300)는 사용자상태진단부(2100)로부터 도출된 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치(1000)의 챗봇인터페이싱부(520)를 설정하여 디스플레이부(600)에 디스플레이 되는 캐릭터의 음성 및 음성의 속도를 다르게 제공하도록 설정할 수도 있다.The smart mirror device setting unit 2300 sets the smart mirror device 1000 based on the hardness cognitive impairment information and the emotion information. As mentioned in the description of FIG. 3, the smart mirror device 1000 communicates with a user through a character displayed on the display unit 600 of the smart mirror device 1000, and the smart mirror device setting unit 2300 The feedback voice information for the response may be derived according to the voice information of the user received from the smart mirror device 1000, and the feedback voice information derived to the smart mirror device 1000 may be transmitted. In addition, the smart mirror device setting unit 2300 sets and displays the chatbot interfacing unit 520 of the smart mirror device 1000 based on the hardness cognitive disorder information and the emotion information derived from the user state diagnosis unit 2100. It is also possible to set the voice of the character displayed on the unit 600 and the speed of the voice to be different.

한편, 상기 서비스서버(2000)의 DB(2400)에는 스마트미러장치(1000)의 제어부(500)에 송신하여 제공하는 경도인지장애 진단과 관련된 1 이상의 질문정보, 스마트미러장치(1000)에서 수집된 사용자의 음성정보 및 영상정보, 사용자상태진단부(2100)에 의하여 도출된 사용자의 경도인지장애정보, 감정정보 및 상태정보를 포함하는 진단정보, 사용자의 보호자의 단말기에 대한 정보, 주소, 이메일 및 전화번호 등을 포함하는 보호자정보가 저장되어 있을 수 있다.On the other hand, the DB (2400) of the service server 2000 is transmitted to the control unit 500 of the smart mirror device 1000, one or more question information related to the diagnosis of mild cognitive impairment, collected by the smart mirror device 1000 User's voice information and video information, user's long-term cognitive impairment information derived by user status diagnosis unit 2100, diagnostic information including emotion information and status information, user's guardian's terminal information, address, email and Guardian information including a phone number may be stored.

도 4에 도시된 서비스서버(2000)는 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 시니어케어를 위한 스마트미러 챗봇 시스템과 관련된 구성요소들만을 표시하였다.The service server 2000 illustrated in FIG. 4 may further include elements other than the illustrated components, but for convenience, only components related to the smart mirror chatbot system for senior care according to embodiments of the present invention are displayed. .

도 5는 본 발명의 일 실시예에 따른 사용자식별부(510)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.5 schematically illustrates a screen of the smart mirror device 1000 provided by the user identification unit 510 according to an embodiment of the present invention.

상기 스마트미러장치(1000)의 제어부(500)는 사용자식별부(510)를 포함하고, 상기 사용자식별부(510)는, 사용자의 영상정보 및 음성정보에 기초하여 스마트미러장치(1000)에 접근하거나 혹은 스마트미러장치(1000)를 동작시키고자 하는 사용자를 식별할 수 있다.The control unit 500 of the smart mirror device 1000 includes a user identification unit 510, and the user identification unit 510 accesses the smart mirror device 1000 based on the user's video information and audio information. Alternatively, a user who wants to operate the smart mirror device 1000 may be identified.

바람직하게는, 상기 사용자식별부(510)는, 얼굴식별부(511) 및 음성식별부(512)를 포함하고, 상기 얼굴식별부(511)는, 사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계(S100); 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계(S110); 및 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치(1000)를 동작시키는 단계(S120);를 수행하고, 상기 음성식별부(512)는, 수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계(S200); 및 사용자의 음성으로 판별된 경우, 상기 스마트미러장치(1000)를 동작시키는 단계(S210);를 수행한다.Preferably, the user identification unit 510 includes a face identification unit 511 and a voice identification unit 512, and the face identification unit 511 is based on the user's video information. Extracting an image (S100); Determining a user's face by comparing the user's previously stored face image and the face image extracted from the image information (S110); And if it is determined as the user's face, operating the smart mirror device 1000 (S120); performing, the voice identification unit 512, the received voice information of the user and the pre-stored user's voice Comparing the information to determine the user's voice (S200); And when it is determined by the user's voice, operating the smart mirror device 1000 (S210).

S100단계에서는, 상기 얼굴식별부(511)는, 사용자의 영상정보에 기초하여 사용자의 얼굴이미지를 추출한다.In step S100, the face identification unit 511 extracts the user's face image based on the user's image information.

S110단계에서는, S110단계에서 추출한 얼굴이미지 및 기저장된 사용자의 얼굴이미지를 비교하여 사용자의 얼굴을 판별한다. 스마트미러장치(1000)에는 사용자를 판별하기 위해 사용자의 얼굴이미지를 기저장하여 사용자 인식을 위해 설정할 수 있다. 얼굴식별부(511)는 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 같은 사람의 얼굴이미지인 경우, 사용자의 얼굴로 판별하고, 같은 사람의 얼굴이미지가 아니라고 판별된 경우에는 스마트미러장치(1000)에 접근한 사람이 기설정된 사용자가 아닌 것으로 판별한다.In step S110, the user's face is determined by comparing the face image extracted in step S110 and the previously stored face image. The smart mirror device 1000 may pre-store the user's face image to determine the user and set it for user recognition. The face identification unit 511 compares the previously stored face image of the user and the face image extracted from the image information, and if it is a face image of the same person, it is determined as the user's face, and when it is determined that it is not the same face image It is determined that the person accessing the smart mirror device 1000 is not a preset user.

S120단계에서는, S110단계에서 사용자의 얼굴로 판별된 경우, 스마트미러장치(1000)를 동작시킨다. 사용자가 식별되어 동작된 스마트미러장치(1000)는 도 5의 (b)에 도시된 바와 같이 해당 날짜, 시간, 및 날씨 등을 포함하는 스마트미러제공정보가 디스플레이 되며, 스마트미러장치(1000)가 동작될 수 있다.In step S120, when it is determined as the user's face in step S110, the smart mirror device 1000 is operated. The smart mirror device 1000 in which the user has been identified and operated is displayed with smart mirror providing information including the corresponding date, time, and weather, as shown in FIG. 5(b), and the smart mirror device 1000 is operated. Can be operated.

바람직하게는, 사용자식별부(510)는, 근접센서를 더 포함하여 스마트미러장치(1000)에 사용자가 접근하는 경우, 사용자접근신호를 카메라부(200)로 송신하여 카메라부(200)의 동작으로 사용자의 영상정보를 수집할 수 있도록 할 수도 있다.Preferably, the user identification unit 510 further includes a proximity sensor, when a user approaches the smart mirror device 1000, transmits a user access signal to the camera unit 200 to operate the camera unit 200 In addition, it may be possible to collect the user's video information.

한편, S200단계에서는, 음성식별부(512)는, 수신한 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별한다. 스마트미러장치(1000)에는 사용자를 판별하기 위해 사용자의 음성정보를 기저장하여 사용자 인식을 위해 설정할 수 있다. 음성식별부(512)는 기저장된 사용자의 음성정보 및 수신한 사용자의 음성정보를 비교하여 각각의 음성정보가 같은 사람의 음성정보인 경우, 사용자의 음성으로 판별하고, 같은 사람의 음성정보가 아닌 경우에는 스마트미러장치(1000)를 동작시키려는 사람이 설정된 사용자가 아닌 것으로 판별한다.Meanwhile, in step S200, the voice identification unit 512 determines the user's voice by comparing the received user's voice information with the pre-stored user's voice information. In order to discriminate the user, the smart mirror device 1000 may pre-store the user's voice information and set it for user recognition. The voice identification unit 512 compares the previously stored user's voice information with the received user's voice information, and if each voice information is the same person's voice information, it is determined as the user's voice and is not the same person's voice information. In the case, it is determined that the person who intends to operate the smart mirror device 1000 is not a set user.

S210단계에서는, S200단계에서 사용자의 음성으로 판별된 경우, 스마트미러장치(1000)를 동작시킨다. 사용자가 식별되어 동작된 스마트미러장치(1000)는 사용자의 음성에 따라 사용자가 얻고자 하는 스마트미러제공정보를 제공하거나, 영상통화를 실행하거나, 캐릭터와 대화하는 등의 형태로 동작될 수 있다.In step S210, when it is determined by the user's voice in step S200, the smart mirror device 1000 is operated. The smart mirror device 1000 in which the user has been identified and operated may be operated in the form of providing smart mirror providing information desired by the user according to the user's voice, executing a video call, or talking with a character.

도 5의 (a)는 스마트미러장치(1000)가 동작하지 않는 상태를 도시한다. 사용자가 접근하지 않은 형태의 스마트미러장치(1000)는 일반 거울과 같이 거울의 전방에 있는 사람 혹은 사물 등을 비추는 거울의 기능만을 할 수 있다.5A shows a state in which the smart mirror device 1000 does not operate. The smart mirror device 1000 in a form not accessed by the user can function only as a mirror that illuminates a person or an object in front of the mirror like a general mirror.

한편, 도 5의 (b)는 사용자가 접근함으로써 스마트미러장치(1000)가 동작되고 있는 상태를 개략적으로 도시한다. 사용자가 스마트미러장치(1000)에 접근하는 경우 사용자의 모습을 비추게 되고, 스마트미러장치(1000)의 카메라부(200)는, 사용자의 영상정보를 수집한다. 또한, 본 발명의 스마트미러장치(1000)에 포함된 미러(100)는, 투과성 재질로 이루어져 미러(100) 후면에 설치된 디스플레이부(600)의 표시화면이 투과될 수 있다. 도 5의 (b)는 디스플레이부(600)의 표시화면에 해당 날짜, 시간 및 날씨와 같은 정보가 디스플레이 된 것이 도시되었다. 본 발명의 다른 실시예에서는, 스마트미러장치(1000)는 근접센서를 포함하여, 상기 근접센서에서 사용자를 인식하는 경우, 스마트미러장치(1000)를 작동시킬 수도 있다. 해당일의 날짜, 시간, 날씨 등과 같은 정보가 디스플레이부(600)의 표시화면에 표시되고, 스마트미러장치(1000)를 동작시킨 사용자는 스마트미러장치(1000)에서 제공되는 정보를 확인할 수 있다.Meanwhile, FIG. 5B schematically illustrates a state in which the smart mirror device 1000 is operated by a user approaching. When the user approaches the smart mirror device 1000, the user's appearance is reflected, and the camera unit 200 of the smart mirror device 1000 collects the user's video information. In addition, the mirror 100 included in the smart mirror device 1000 of the present invention is made of a transparent material, and the display screen of the display 600 installed on the rear surface of the mirror 100 can be transmitted. FIG. 5B shows that information such as the date, time, and weather is displayed on the display screen of the display unit 600. In another embodiment of the present invention, the smart mirror device 1000 may include a proximity sensor, and when the proximity sensor recognizes a user, the smart mirror device 1000 may be operated. Information such as the date, time, and weather of the day is displayed on the display screen of the display unit 600, and the user operating the smart mirror device 1000 can check the information provided by the smart mirror device 1000.

이와 같은 방식으로, 사용자식별부(510)는 사용자를 식별하여 스마트미러장치(1000)를 동작시킴으로써, 스마트미러장치(1000)를 사용하지 않는 경우에는, 전력의 불필요한 낭비를 예방할 수 있고, 기설정된 사용자만이 스마트미러장치(1000)를 사용할 수 있도록 할 수 있는 효과를 발휘할 수 있다.In this way, the user identification unit 510 identifies the user and operates the smart mirror device 1000 to prevent unnecessary waste of power when the smart mirror device 1000 is not used. It is possible to exert the effect of allowing only the user to use the smart mirror device 1000.

도 6은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.6 schematically shows a screen of the smart mirror device 1000 provided by the chatbot interface unit 520 according to an embodiment of the present invention.

스마트미러장치(1000)의 제어부(500)는 챗봇인터페이싱부(520)를 포함하고, 상기 챗봇인터페이싱부(520)는, 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하고 정보를 제공할 수 있다.The control unit 500 of the smart mirror device 1000 includes a chatbot interface unit 520, and the chatbot interface unit 520 is a user through a character displayed on the display unit 600 of the smart mirror device 1000. And conduct conversations and provide information.

바람직하게는, 상기 챗봇인터페이싱부(520)는, 정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부(600)의 표시화면에 해당 정보를 디스플레이하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러(100)의 영역과 겹치지 않는 디스플레이부(600)의 영역에 디스플레이 된다.Preferably, the chatbot interfacing unit 520 is a chatbot that displays smart mirror provision information including one or more of weather, schedule, and news requested by the user in the form of a character according to the user's voice information for the information request. Provided through voice, and displays the corresponding information on the display screen of the display unit 600, and the character does not overlap the area of the mirror 100 on which the user's appearance is reflected based on the user's image information. It is displayed in the area of the display unit 600.

도 6은, 스마트미러장치(1000)는 사용자의 날씨에 대한 정보의 요청에 대한 음성정보를 사용자로부터 수신하여 사용자가 요청한 날씨에 대한 정보를 제공하는 상태를 개략적으로 도시한다. 도 6에 도시된 바에 따르면, 사용자는 “오늘 날씨 알려줘!” 라고 말하여 스마트미러장치(1000)에 정보 요청을 하고, 스마트미러장치(1000)는 이러한 사용자의 음성정보를 수신하여 사용자가 요청한 날씨에 대한 스마트미러제공정보를 스마트미러장치(1000)의 디스플레이부(600)의 표시화면에 디스플레이 한다. 또한, “오늘 날씨는 맑고 어제보다 3°낮으며~~"와 같이 캐릭터의 형상으로 디스플레이되는 챗봇을 통해 날씨에 대한 정보를 음성으로 제공한다. 본 발명은 시니어 계층의 케어를 위한 스마트미러 챗봇 시스템에 관한 발명으로서, 스마트미러장치(1000)의 사용자는 시니어계층이 주를 이룰 수 있다. 상대적으로, 스마트폰 및 컴퓨터를 조작하기 힘든 시니어들은 도 6에 도시된 바와 같이, 음성을 통해 자신이 얻고자 하는 정보를 스마트미러장치(1000)에 요청할 수 있고, 챗봇인터페이싱부(520)의 동작으로 스마트미러장치(1000)는 사용자가 요청한 정보를 제공할 수 있다.FIG. 6 schematically illustrates a state in which the smart mirror device 1000 receives voice information for a request for information about a user's weather from a user and provides information about the weather requested by the user. According to what is shown in FIG. 6, the user “tell me the weather today!” That is, the smart mirror device 1000 requests information, and the smart mirror device 1000 receives the voice information of the user and displays the smart mirror providing information on the weather requested by the user in the display unit of the smart mirror device 1000. It is displayed on the display screen of (600). In addition, the voice of the weather is provided through a chatbot displayed in the form of a character such as “Today's weather is clear and 3° lower than yesterday~~.” The present invention is a smart mirror chatbot system for the care of seniors. As an invention relating to, the user of the smart mirror device 1000 can mainly dominate the senior layer, relatively, seniors who are difficult to operate a smartphone and a computer can obtain themselves through voice, as shown in FIG. The desired information may be requested from the smart mirror device 1000, and the smart mirror device 1000 may provide information requested by the user through the operation of the chatbot interface unit 520.

한편, 스마트미러제공정보를 음성으로 제공할 수 있는 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 미러(100)의 영역과 겹치지 않는 디스플레이부(600)의 영역에 디스플레이된다. 투과성재질의 미러(100) 및 미러(100)의 후면에 설치되는 디스플레이부(600)를 포함한 스마트미러장치(1000)는, 스마트미러장치(1000)에 접근한 사용자를 비추고, 상기 디스플레이부(600)를 통해 캐릭터를 디스플레이 한다. 본 발명의 스마트미러장치(1000)는 미러(100)에 비춰진 사용자의 모습과 겹치지 않는 디스플레이부(600)의 영역에 캐릭터를 디스플레이한다. 도 6에 도시된 바에 따르면, 사용자가 미러(100)상에서 비춰지는 영역(L1) 및 디스플레이부(600)의 캐릭터표시영역(L2)을 볼 때, 사용자의 모습과 캐릭터가 겹치지 않도록 디스플레이 된 것이 도시된다. 이와 같이, 챗봇인터페이싱부(520)는, 거울의 비춰지는 사용자의 모습과 디스플레이되는 캐릭터가 겹치지 않도록 디스플레이 한다. 구체적으로, 상기 챗봇인터페이싱부(520)는, 상기 영상정보에 기초하여 상기 미러(100)상에서 사용자가 비춰지는 영역을 도출하는 단계(S300); 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부(600)의 캐릭터표시영역을 도출하는 단계(S310); 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계(S320);를 수행한다.On the other hand, the character capable of providing the smart mirror providing information by voice is displayed on the area of the display unit 600 that does not overlap the area of the mirror 100 on which the user's appearance is reflected based on the image information of the user. . The smart mirror device 1000 including the mirror 100 of the transparent material and the display unit 600 installed on the rear surface of the mirror 100 illuminates a user accessing the smart mirror device 1000, and the display unit 600 ) To display the character. The smart mirror device 1000 of the present invention displays a character in an area of the display unit 600 that does not overlap with the user's appearance reflected on the mirror 100. According to FIG. 6, when the user views the area L1 projected on the mirror 100 and the character display area L2 of the display unit 600, the user's appearance and characters are displayed so as not to overlap. do. As such, the chatbot interfacing unit 520 displays the mirrored user's appearance and the displayed character so as not to overlap. Specifically, the chatbot interfacing unit 520, based on the image information, deriving an area in which the user is projected on the mirror 100 (S300); Deriving a character display area of the display unit 600 that does not overlap the area where the user is illuminated (S310); And displaying the character in the character display area (S320).

S300단계에서는, 상기 영상정보에 기초하여 사용자가 미러(100)상에서 비춰지는 영역(L1)을 도출한다.In step S300, based on the image information, the user derives an area L1 that is illuminated on the mirror 100.

S310단계에서는, S300단계에서 도출한 사용자가 미러(100)상에서 비춰지는 영역(L1)에 기초하여 미러(100) 후면에 설치된 디스플레이부(600)와 사용자가 비춰지는 영역 겹치지 않는 상기 디스플레이부(600)의 캐릭터표시영역(L2)을 도출한다.In step S310, the display unit 600 installed on the rear surface of the mirror 100 and the display unit 600 in which the user is illuminated do not overlap based on the region L1 where the user derived in step S300 is projected on the mirror 100. ), the character display area L2 is derived.

S320단계에서는, S310단계에서 도출한 캐릭터표시영역(L2)에 캐릭터를 디스플레이 한다.In step S320, the character is displayed in the character display area L2 derived in step S310.

이와 같은 방식으로, 캐릭터를 디스플레이하여 사용자가 요청한 정보를 제공함으로써, 혼자 거주하며 외로움을 느낄수 있는 시니어 계층의 사용자가 캐릭터와 실제로 대화하는 느낌을 받음으로써, 감성적인 충족감을 느낄 수 있는 효과를 발휘할 수 있다.In this way, by displaying the character and providing the information requested by the user, the user of the senior class who can live alone and feel loneliness can actually exert the effect of feeling emotional satisfaction by receiving the feeling of actually interacting with the character. have.

도 7은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)의 수행단계를 개략적으로 도시하고, 도 8은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.Figure 7 schematically shows the execution steps of the chatbot interface unit 520 according to an embodiment of the present invention, Figure 8 is a smart mirror device provided by the chatbot interface unit 520 according to an embodiment of the present invention The screen of 1000 is schematically illustrated.

도 7에 도시된 바에 따르면, 상기 챗봇인터페이싱부(520)는, 상기 디스플레이부(600)에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계(S1000); 상기 마이크부(300)를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계(S1100); 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버(2000)로부터 수신하는 단계(S1200); 및 상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계(S1300);를 수행한다.As illustrated in FIG. 7, the chatbot interfacing unit 520 includes: performing one or more questions related to diagnosis of mild cognitive impairment through a character displayed on the display unit 600 (S1000); Receiving the user's voice information on a response corresponding to the question through the microphone 300 (S1100); Receiving feedback voice information corresponding to the corresponding response from the service server 2000 based on the user's voice information for the response (S1200); And providing the feedback voice information through the character (S1300).

구체적으로, S1000단계에서는, 상기 챗봇인터페이싱부(520)는, 상기 디스플레이부(600)에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행한다. 상기 질문은 예를 들어, 도 8에 도시된 바와 같은 “오늘 하루는 어떠셨나요?” 혹은 “어제 했던 ooo에 대한 결과는 어떻게 되었나요?” 등과 같이, 일상생활을 묻는 질문이지만 해당 질문을 통해 해당 질문에 대응하는 사용자의 응답에 따라 사용자의 기억력에 대한 상태, 현재 감정에 대한 상태를 진단할 수 있는 질문일 수 있다. 이러한 질문정보는 스마트미러장치(1000)에 저장되어 있을 수도 있고, 서비스서버(2000)로부터 수신하여 업데이트 될 수도 있다.Specifically, in step S1000, the chatbot interfacing unit 520 performs one or more questions related to the diagnosis of mild cognitive impairment through characters displayed on the display unit 600. The question above is, for example, as shown in FIG. 8, “How was your day today?” Or “What was the result of ooo you did yesterday?” As such, it is a question that asks about daily life, but may be a question that can diagnose a state of a user's memory and a state of a current emotion according to a user's response to the corresponding question through the corresponding question. The question information may be stored in the smart mirror device 1000 or may be updated by receiving it from the service server 2000.

S1100단계에서는, S1000단계에서 수행한 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신한다. 수신한 음성정보는 서비스서버(2000)에 송신된다.In step S1100, the user's voice information is received in response to the question performed in step S1000. The received voice information is transmitted to the service server 2000.

S1200단계에서는, 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 서비스서버(2000)로부터 수신한다. 바람직하게는, 서비스서버(2000)는 질문에 대한 사용자의 응답에 포함된 키워드 혹은 사용자의 음성정보의 진폭, 길이, 및 패턴에 따라 사용자의 감정을 판단하는 제1인공신경망(2121)에 의하여 도출된 사용자의 감정정보에 기초하여 기설정된 기준에 따라 사용자에게 제공될 피드백음성정보가 결정될 수 있다. 이러한 피드백음성정보는 서비스서버(2000)의 질문정보에 포함되어 저장되어 있을 수 있고, 질문에 응답한 사용자의 음성정보에 기초하여 기설정된 기준에 따라 저장되어 있는 피드백음성정보 중 해당 응답에 대한 피드백음성정보가 결정될 수도 있다.In step S1200, feedback voice information corresponding to the corresponding response is received from the service server 2000 based on the user's voice information for the response. Preferably, the service server 2000 is derived by the first artificial neural network 2121 that determines the user's emotion according to the amplitude, length, and pattern of the keyword or the user's voice information included in the user's response to the question. Feedback voice information to be provided to the user may be determined according to a predetermined criterion based on the user's emotion information. The feedback voice information may be included and stored in the question information of the service server 2000, and the feedback for the corresponding response among the feedback voice information stored according to a preset criterion based on the voice information of the user who answered the question Audio information may be determined.

S1300단계에서는, 챗봇인터페이싱부(520)는, S1200단계에서 서비스서버(2000)로부터 수신한 피드백음성정보를 상기 캐릭터를 통해 제공한다. 상기 캐릭터는 피드백음성정보에 따라 실제 말하는 듯한 표정 및 입모양이 조절되어 디스플레이부(600)에 디스플레이되고, 스피커를 통해 서비스서버(2000)로부터 수신한 피드백음성정보를 출력한다.In step S1300, the chatbot interfacing unit 520 provides feedback voice information received from the service server 2000 in step S1200 through the character. The character is displayed on the display 600 by adjusting the expression and mouth shape as if they are actually speaking according to the feedback voice information, and outputs feedback voice information received from the service server 2000 through the speaker.

한편, 본 발명의 서비스서버(2000)는 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보 및 감정정보를 도출하고, 도출한 경도인지장애정보 및 감정정보를 스마트미러장치(1000)로 송신할 수 있다. 이에 따라, 바람직하게는, 상기 챗봇인터페이싱부(520)는 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환할 수 있다.On the other hand, the service server 2000 of the present invention derives the longitudinal cognitive impairment information and emotion information based on the user's voice information and video information, and transmits the derived mild cognitive impairment information and emotion information to the smart mirror device 1000. can do. Accordingly, preferably, the chatbot interfacing unit 520 receives the user's longitude and cognitive disability information and the emotion information from a service server, and based on the received mild cognitive disability information and the emotion information, a preset criterion According to this, the voice of the character and the speed of the voice providing the feedback voice information may be converted.

본 발명의 일 실시예에서, 사용자의 감정정보가 슬픔으로 판단된 경우, 상기 감정정보를 수신한 챗봇인터페이싱부(520)는 보다 다정하고 나긋나긋한 음성모드로 변환할 수 있다. 이러한 음성모드는 감정정보에 따라 복수개의 음성모드를 가질 수 있고, 기설정된 기준에 따라 음성이 변환될 수 있다. 또한, 경도인지장애정보 및 감정정보에 기초하여 사용자가 피드백음성정보를 잘 이해하지 못한다고 판단되는 경우, 제공하는 음성의 속도를 변환시켜 조금 더 느린 속도로 피드백음성정보를 제공할 수 있다. 또한, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터를 변경할 수도 있다.In one embodiment of the present invention, when the user's emotion information is determined to be sad, the chatbot interface unit 520 receiving the emotion information may convert to a more sweet and comfortable voice mode. The voice mode may have a plurality of voice modes according to emotion information, and voice may be converted according to a preset criterion. In addition, when it is determined that the user does not understand the feedback voice information well based on the mild cognitive impairment information and the emotion information, the voice speed of the provided voice may be converted to provide the feedback voice information at a slightly slower rate. In addition, the character providing the feedback voice information may be changed according to a predetermined criterion based on the received mild cognitive impairment information and the emotion information.

도 8에 도시된 바에 따르면, 스마트미러장치(1000)의 챗봇인터페이싱부(520)에 의하여, 스마트미러장치(1000)의 디스플레이부(600)에 캐릭터가 디스플레이되고, 상기 캐릭터를 통해 사용자에게 질문을 수행한다. 상기 캐릭터는 "오늘 하루는 어떠셨나요?"라고 질문하였고, 사용자는 해당 질문에 대하여 "오늘은 ?일이 있었는데, 그래서 기분이 좀 별로야"라고 대답하고 있다. 이와 같이, 챗봇인터페이싱부(520)는, 이러한 질문에 대한 사용자의 응답을 수신하여 서비스서버(2000)로 송신하고, 서비스서버(2000)로부터 피드백음성정보를 수신하여 사용자에게 피드백음성정보를 제공할 수 있다. 이후, 서비스서버(2000)로 송신된 음성정보는 이후, 후술하는 서비스서버(2000)의 동작에 의하여 사용자의 상태정보를 도출할 수 있다.According to FIG. 8, a character is displayed on the display unit 600 of the smart mirror device 1000 by the chatbot interface unit 520 of the smart mirror device 1000, and the user is asked a question through the character. Perform. The character asked, "How was your day today?", and the user replied to the question, "There was a day today, so I'm not feeling well." As described above, the chatbot interfacing unit 520 receives the user's response to the question and transmits it to the service server 2000, and receives feedback voice information from the service server 2000 to provide feedback voice information to the user. Can be. Thereafter, the voice information transmitted to the service server 2000 may then derive the user's status information by the operation of the service server 2000 described later.

이와 같은 방식으로 사용자는 스마트미러장치(1000)에 디스플레이되는 캐릭터와 실제로 대화하는 것 같은 느낌을 받음으로써, 외로움과 같은 감정의 결핍이 충족될 수 있고, 스마트미러장치(1000)는 사용자로부터 수집한 사용자의 음성정보를 서비스서버(2000)로 송신하여 사용자의 경도인지장애정보 및 감정정보를 분석할 수 있는 효과를 발휘할 수 있다.In this way, the user can feel the deficiency of emotion, such as loneliness, by receiving the feeling of actually communicating with the character displayed on the smart mirror device 1000, and the smart mirror device 1000 collects from the user By transmitting the user's voice information to the service server 2000, it is possible to exert the effect of analyzing the user's mild cognitive impairment information and emotion information.

도 9는 본 발명의 일 실시예에 따른 통화모드제공부(530)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.9 schematically illustrates a screen of the smart mirror device 1000 provided by the call mode providing unit 530 according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면 스마트미러장치(1000)의 제어부(500)는, 통화모드제공부(530)를 포함하고, 상기 통화모드제공부(530)는, 사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치(1000)로 송신하여 영상통화를 실행한다. 또한, 보호자의 단말기뿐만 아니라 다른 외부의 단말기와도 같은 방식으로 영상통화를 실행할 수 있다. 사용자가 영상통화에 대한 요청을 하는 경우 혹은 보호자의 단말기로부터 영상통화가 걸려온 경우, 도 9에 도시된 바와 같이, 사용자가 미러(100)에 비추는 영역(L1)과 사용자가 미러(100)에 비추는 영역(L1)과 겹치지 않는 디스플레이부(600)의 영역(L3)에 영상통화를 하는 대상의 모습이 디스플레이되고, 스마트미러장치(1000)가 영상통화모드로 실행될 수 있다. 이와 같이, 사용자는 스마트미러장치(1000)를 통해 영상통화를 할 수 있고, 가족들과 영상통화를 통해 소통할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the control unit 500 of the smart mirror device 1000 includes a call mode providing unit 530, and the call mode providing unit 530 provides user voice information and video information. It transmits to the terminal of the guardian and transmits the guardian voice information and the guardian image information received from the terminal of the guardian to the smart mirror device 1000 to perform a video call. In addition, the video call can be performed in the same manner as the other terminal as well as the terminal of the guardian. When a user makes a request for a video call or when a video call is received from a terminal of a guardian, as shown in FIG. 9, the user shines on the mirror 100 and the area L1 that the user shines on the mirror 100 The appearance of an object making a video call is displayed on the area L3 of the display unit 600 that does not overlap with the area L1, and the smart mirror device 1000 may be executed in a video call mode. In this way, the user can make a video call through the smart mirror device 1000, and can exert the effect of communicating with the family through the video call.

도 10은 본 발명의 일 실시예에 따른 특징정보도출부(2110)의 동작을 개략적으로 도시한다.10 schematically illustrates the operation of the feature information extractor 2110 according to an embodiment of the present invention.

본 발명의 스마트미러장치(1000)와 통신하는 서비스서버(2000)는, 사용자상태진단부(2100)를 포함하고, 사용자상태진단부(2100)는, 특징정보도출부(2110) 및 경도인지장애정보도출부(2120)를 포함한다. 스마트미러장치(1000)의 마이크부(300)로부터 수신된 사용자의 음성정보는 도 10에 도시된 바와 같이, 특징정보도출부(2110)는, 상기 사용자의 음성정보의 진폭, 길이 및 패턴을 포함하는 음성특징정보를 도출한다. 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보는 경도인지장애정보도출부(2120)로 송신되고, 경도인지장애정보도출부(2120)는 송신된 음성특징정보에 기초하여 경도인지장애정보를 도출할 수 있다. 도출된 경도인지장애정보는 후술하는 사용자상태알림부(2200)에 의하여 기설정된 기준에 따라 사용자의 경도인지장애정보가 보호자의 단말기로 송신될 수 있다.The service server 2000 that communicates with the smart mirror device 1000 of the present invention includes a user state diagnosis unit 2100, and the user state diagnosis unit 2100 includes a feature information extraction unit 2110 and a hardness recognition disorder. It includes an information extraction unit 2120. As illustrated in FIG. 10, the user's voice information received from the microphone unit 300 of the smart mirror device 1000 includes the feature information extractor 2110 including the amplitude, length, and pattern of the user's voice information. Derives voice feature information. The voice feature information including the derived amplitude, length, and pattern is transmitted to the longitude cognitive impairment information extracting unit 2120, and the longitude cognitive impairment information extracting unit 2120 provides the longitude cognitive impairment information based on the transmitted voice feature information. Can be derived. The derived hardness cognitive impairment information may be transmitted to the guardian's terminal by the user's hardness cognitive impairment information according to a preset criterion by the user state notification unit 2200 described later.

도 11은 본 발명의 일 실시예에 따른 특징정보도출부(2110)의 동작을 개략적으로 도시한다.11 schematically illustrates the operation of the feature information extractor 2110 according to an embodiment of the present invention.

본 발명의 스마트미러장치(1000)와 통신하는 서비스서버(2000)는, 사용자상태진단부(2100)를 포함하고, 사용자상태진단부(2100)는, 특징정보도출부(2110), 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)를 포함한다. 스마트미러장치(1000)의 카메라부(200)로부터 수신된 사용자의 영상정보는 도 11에 도시된 바와 같이, 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다. 상기 영상정보는 사용자의 감정을 인식할 수 있는 안면의 표정변화를 포함하는 사용자에 대한 동적영상 혹은 일정한 주기로 연속되어 기록한 사용자에 대한 복수의 정적영상일 수 있다. 영상정보는 2 이상의 이미지 프레임을 갖는 것을 포함하는 최광의로 해석되어야 할 것이다. 이에 따라, 특징정보도출부(2110)는, 수신한 영상정보를 복수의 프레임으로 분류하고, 각각의 프레임에서 얼굴이미지를 추출한다. 이후, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다. 얼굴특징정보는 눈의 기울기, 눈썹의 기울기, 입모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 의미할 수 있고, 이와 같이 도출된 얼굴특징정보들은 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)로 송신되고, 경도인지장애정보도출부(2120)는 송신된 얼굴특징정보에 기초하여 경도인지장애정보를 도출하고, 감정정보도출부(2130)는 송신된 얼굴특징정보에 기초하여 감정정보를 도출한다. 도출된 경도인지장애정보 및 감정정보는 이후, 사용자상태알림부(2200)에 의하여, 기설정된 기준에 따라 보호자의 단말기로 송신될 수 있다.The service server 2000 that communicates with the smart mirror device 1000 of the present invention includes a user state diagnosis unit 2100, and the user state diagnosis unit 2100 includes a feature information extraction unit 2110, a hardness recognition disorder. It includes an information extracting unit 2120 and an emotion information extracting unit 2130. As illustrated in FIG. 11, the user's image information received from the camera unit 200 of the smart mirror device 1000 extracts a face image based on the user's image information, and features a face based on the extracted face image. Derive information. The image information may be a dynamic image for a user including a facial expression change capable of recognizing a user's emotion or a plurality of static images for a user recorded continuously at a constant cycle. Image information should be interpreted in the broadest sense, including having two or more image frames. Accordingly, the feature information deriving unit 2110 classifies the received image information into a plurality of frames, and extracts a face image from each frame. Then, face feature information is derived based on the extracted face image. The facial feature information may mean feature information about the unique characteristics capable of recognizing the facial expression, such as the inclination of the eye, the inclination of the eyebrow, the inclination of the mouth, and the inclination of the mouth. It is transmitted to the disability information extracting unit 2120 and the emotion information extracting unit 2130, and the long-term cognitive impairment information extracting unit 2120 derives long-term cognitive impairment information based on the transmitted facial feature information, and the emotion information extracting unit ( 2130) derives emotion information based on the transmitted facial feature information. The derived long-term cognitive impairment information and emotion information may then be transmitted to the guardian's terminal according to a preset criterion by the user status notification unit 2200.

도 12는 본 발명의 일 실시예에 따른 경도인지장애정보도출부(2120)의 동작을 개략적으로 도시한다.12 schematically illustrates the operation of the longitudinal cognitive impairment information extracting unit 2120 according to an embodiment of the present invention.

본 발명의 서비스서버(2000)는 사용자상태진단부(2100)에 포함되는 경도인지장애정보도출부(2120)를 포함하고, 상기 경도인지장애정보도출부(2120)는, 도 12에 도시된 바와 같이 제1인공신경망(2121), 제2인공신경망(2122) 및 종합진단모듈(2123)을 포함하고, 상기 경도인지장애정보도출부(2120)는, 사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망(2121)에 의하여 제1분석결과를 도출하는 단계(S400); 사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망(2122)에 의하여 제2분석결과를 도출하는 단계(S410); 및 상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계(S420);를 수행한다.The service server 2000 of the present invention includes a longitudinal cognitive disability information exposing unit 2120 included in the user state diagnosis unit 2100, and the longitudinal cognitive disability information exposing unit 2120 is as shown in FIG. 12. Likewise, the first artificial neural network 2121, the second artificial neural network 2122, and the comprehensive diagnosis module 2123 are included, and the longitudinal cognitive impairment information extracting unit 2120 is an amplitude derived based on the user's voice information. Deriving a first analysis result by the first artificial neural network 2121 that analyzes the degree of mild cognitive impairment based on voice feature information including length and pattern (S400); Deriving a second analysis result by a second artificial neural network (2122) that analyzes the degree of mild cognitive impairment based on the facial feature information derived from the user's image information (S410); And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result (S420).

S400단계에서는, 특징정보도출부(2110)로부터 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망(2121)에 의하여 제1분석결과를 도출한다. 상기 진폭, 길이 및 패턴에 기초하여 사용자의 말투를 분석하고, 사용자가 사용한 키워드에 기초하여 사용자의 언어구사능력 등을 분석하여 상기 제1분석결과를 도출할 수 있다.In step S400, the first analysis result is derived by the first artificial neural network 2121 that analyzes the degree of long-term cognitive impairment based on the voice characteristic information including the amplitude, length, and pattern derived from the feature information deriving unit 2110. do. The first analysis result may be derived by analyzing a user's speech based on the amplitude, length, and pattern, and analyzing a user's language proficiency based on keywords used by the user.

S410단계에서는, 특징정보도출부(2110)로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망(2122)에 의하여 제2분석결과를 도출한다. 사용자의 영상정보에 기초하여 추출된 얼굴이미지로부터 도출된 얼굴특징정보는 눈의 기울기, 눈썹의 기울기, 입모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 의미할 수 있고, 이러한 특징정보에 기초하여 사용자의 표정에 따른 경도인지장애정도를 분석한 상기 제2분석결과를 도출할 수 있다.In step S410, the second analysis result is derived by the second artificial neural network 2122 that analyzes the degree of mild cognitive impairment based on the facial feature information derived from the feature information deriving unit 2110. The facial feature information derived from the face image extracted based on the user's image information refers to characteristic information about a unique characteristic capable of recognizing a facial expression such as an eye tilt, an eyebrow tilt, a mouth shape, and a mouth tilt. It is possible to derive the second analysis result analyzing the degree of mild cognitive impairment according to the user's facial expression based on the feature information.

S420단계에서는, 상기 종합진단모듈(2123)은 상기 S400단계에서 제1인공신경망(2121)에 의하여 음성특징정보에 기초하여 경도인지장애정도를 분석한 제1분석결과 및 상기 S410단계에서 제2인공신경망(2122)에 의하여 얼굴특징정보에 기초하여 경도인지장애정도를 분석한 제2분석결과에 기초하여 경도인지장애정보를 도출한다. 상기 경도인지장애정보는, 예를 들어, 사용자의 경도인지장애정도가 가장 낮을 때를 1로하고, 사용자의 경도인지장애정도가 가장 높을 때를 10으로 하는 것과 같이 점수 혹은 레벨로 도출될 수 있다. 바람직하게는, 종합진단모듈(2123)은, 상기 영상정보 및 상기 음성정보에 대해 어느 정도로 가중치로 경도인지장애정보를 도출할 것인지를 자동으로 조절할 수 있도록 구성할 수도 있고, 이와 같은 가중치에 대해서도 학습하도록 모델을 구성할 수 있다. 즉, 이와 같은 구성에서 스마트미러장치(1000)로부터 수신한 영상정보에서 입모양과 같은 얼굴특징정보를 통해 사용자가 말하는 상태가 아닌 경우 자동으로 영상정보를 좀 더 중요하게 처리하고, 음성정보를 덜 중요하게 처리할 수 있다. 이와 같은 방식으로, 상기 경도인지장애정보도출부(2120)는, 사용자의 음성특징정보 및 얼굴특징정보에 기초하여 경도인지장애정보를 도출할 수 있다.In step S420, the comprehensive diagnosis module 2123 analyzes the degree of hardness cognitive impairment based on voice feature information by the first artificial neural network 2121 in step S400 and the second artificial in step S410. Based on the facial feature information by the neural network 2122, mild cognitive impairment information is derived based on the second analysis result analyzing the degree of mild cognitive impairment. The mild cognitive impairment information may be derived by a score or level, for example, when the user's degree of mild cognitive impairment is the lowest and 1 when the user's degree of mild cognitive impairment is the highest. . Preferably, the comprehensive diagnosis module 2123 may be configured to automatically control to what extent weight or obstacle information is derived for the video information and the audio information, and learn about the weight. You can construct the model to do so. That is, in this configuration, if the user is not in a state of speaking through facial feature information such as a mouth shape from the image information received from the smart mirror device 1000, the image information is automatically processed more importantly and the voice information is less. It can be important. In this way, the cognitive impairment information guiding unit 2120 may derive the cognitive impairment information based on the user's voice feature information and face feature information.

도 13은 본 발명의 일 실시예에 따른 감정정보도출부(2130)의 동작을 개략적으로 도시한다.13 schematically illustrates the operation of the emotion information extracting unit 2130 according to an embodiment of the present invention.

본 발명의 서비스서버(2000)는 사용자상태진단부(2100)를 포함되는 감정정보도출부(2130)를 포함하고, 상기 감정정보도출부(2130)는, 도 13의 (a)에 도시된 바와 같이 제3인공신경망(2131)을 포함한다. 상기 감정정보도출부(2130)는, 상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망(2131)에 의하여 감정정보를 도출할 수 있다. 상기 제3인공신경망(2131)은, 얼굴특징정보에 기초하여 사용자의 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 중 1 이상을 포함하는 사용자의 감정정보를 도출한다. 상기 감정정보는 도 13의 (b)에 도시된 바와 같이 상기 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립과 같은 감정에 따른 벡터형태의 데이터 일 수 있다. 도 13의 (b)에 도시된 감정정보는, 분노 0.01, 불쾌 0.00, 두려움 0.00, 행복 72.00, 중립 24.09, 슬픔 0.00, 놀람 3.9로서, 감정정보가 도출되었고, 이러한 감정정보에 기초하여 사용자는 해당 시간의 영상정보에서 행복한 감정을 느끼고 있다고 판단될 수 있다.The service server 2000 of the present invention includes an emotion information extracting unit 2130 including a user state diagnosis unit 2100, and the emotion information extracting unit 2130 is as shown in FIG. 13(a). Likewise, it includes a third artificial neural network (2131). The emotion information deriving unit 2130 may derive emotion information by a third artificial neural network 2131 that analyzes a user's emotion based on face feature information derived from the user's image information. The third artificial neural network 2131 includes one or more of a user's joy, surprise, sadness, anger, fear, interest, stress, fear, boredom, comfort, discomfort, anxiety, and neutrality based on facial feature information Derives emotion information of the user. The emotion information is a vector form according to emotions such as joy, surprise, sadness, anger, fear, interest, stress, fear, boredom, comfort, discomfort, anxiety, and neutrality as shown in FIG. 13B. It can be data. The emotion information shown in (b) of FIG. 13 is anger 0.01, discomfort 0.00, fear 0.00, happiness 72.00, neutral 24.09, sadness 0.00, surprise 3.9, and emotion information is derived. It can be judged that you are feeling happy in the video information of time.

한편, 상기 서비스서버(2000)는 사용자상태알림부(2200)를 포함하고, 상기 사용자상태알림부(2200)는, 상기 경도인지장애정보도출부(2120)가 도출한 경도인지장애정보 및 상기 감정정보도출부(2130)가 도출한 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하는 단계(S500); 도출된 사용자의 상태정보가 기설정된 기준에 해당하는지 여부를 판별하는 단계(S510); 및 상기 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신하는 단계(S520);를 수행한다.On the other hand, the service server 2000 includes a user status notification unit 2200, and the user status notification unit 2200, the hardness cognitive impairment information and the emotion derived from the cognitive impairment information estimator 2120 Deriving the user's status information according to a predetermined criterion based on the emotion information derived by the information deriving unit 2130 (S500); Determining whether the derived user's status information corresponds to a predetermined criterion (S510); And if the user's status information corresponds to a predetermined criterion, transmitting the user's status information to the terminal of the guardian (S520).

S500단계에서는, 상기 경도인지장애정보 및 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출한다. 본 발명의 일 실시예에서, 사용자의 경도인지장애정보가 7로 도출되었고, 상기 기설정된 기준은 상기 경도인지장애정보가 5 이상인 경우 혹은 과거의 도출된 경도인지장애정보보다 3 이상의 차이가 나는 경우, 경도인지장애위험상태로 판단하는 것으로 가정할 때, 사용자는 경도인지장애위험상태인 것으로 판단된다. 또한, 상기 감정정보에 포함되는 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 중 1 이상을 포함하는 감정세부항목 중 해당 벡터값이 가장 큰 감정세부항목을 해당 감정상태로 도출하거나 혹은, 해당 벡터값이 0.5이상인 경우, 해당 감정세부항목을 감정상태로 도출한다고 가정할 때, 도 13의 (b)와 같은 감정정보가 도출된 사용자는 행복의 감정을 느끼고 있다고 판단될 수 있다. 이와 같은 방식으로 사용자의 상태정보가 도출된다.In step S500, the user's status information is derived according to a predetermined criterion based on the mild cognitive impairment information and emotion information. In one embodiment of the present invention, the user's longitudinal cognitive impairment information was derived as 7, and the preset criterion is when the longitudinal cognitive impairment information is 5 or more or when there is a difference of 3 or more than the past derived cognitive impairment information. , Assuming that it is judged as a mild cognitive disability risk condition, the user is judged to be a mild cognitive disability risk condition. In addition, among the emotion details including one or more of joy, surprise, sadness, anger, fear, interest, stress, fear, boredom, comfort, discomfort, anxiety, and neutrality included in the emotion information, the corresponding vector value is the most When it is assumed that a large emotional detail item is derived into the corresponding emotional state, or when the corresponding vector value is 0.5 or more, assuming that the corresponding emotional detail item is derived into an emotional state, the user from whom the emotional information as shown in FIG. 13(b) is derived It can be judged that you are feeling happiness. In this way, the user's status information is derived.

S510단계에서는, S500단계에서 도출된 사용자의 상태정보에 기초하여 사용자의 상태정보가 기설정된 기준에 해당하는지 여부를 판별한다. 본 발명의 일 실시예에서, 상기 기설정된 기준은 사용자의 상태정보가 경도인지장애위험상태이면서, 우울 혹은 슬픔과 같은 감정상태인 경우에는, 보호자의 단말기로 상태정보를 송신하고, 사용자의 상태정보가 경도인지장애위험상태이지만, 행복 혹은 기쁨과 같은 감정상태인 경우에는, 보호자의 단말기로 상태정보를 송신하지 않는다고 가정할 때, 이와 같은 기설정된 기준에 사용자의 상태정보가 해당하는지 여부를 판별한다.In step S510, it is determined whether the user's status information corresponds to a predetermined criterion based on the user's status information derived in step S500. In one embodiment of the present invention, the preset criterion is that when the user's status information is a mild or disability risk condition and an emotional state such as depression or sadness, the status information is transmitted to the guardian's terminal, and the user's status information Is a mild cognitive disability risk condition, but in the case of an emotional state such as happiness or joy, it is determined whether the user's status information corresponds to the predetermined criteria, assuming that the status information is not transmitted to the terminal of the guardian. .

S520단계에서는, 상기 S510단계에서, 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 사용자의 보호자의 단말기로 사용자의 상태정보를 송신한다. 본 발명의 일 실시예에서, 상기 S510단계에서 설명한 기설정된 기준을 적용하면, 사용자의 상태정보가 경도인지장애안전상태 및 슬픔에 해당하는 감정상태인 경우에는, 보호자의 단말기로 사용자의 상태정보가 송신되지 않을 수 있다.In step S520, in step S510, when the user's status information corresponds to a preset criterion, the user's status information is transmitted to the terminal of the user's guardian. In one embodiment of the present invention, when the preset criteria described in step S510 is applied, the user's status information is sent to the terminal of the guardian when the user's status information is a mild cognitive disorder safety state and an emotional state corresponding to sadness. It may not be transmitted.

이와 같은 방식으로, 도출된 사용자의 상태정보를 기설정된 기준에 따라 판단하여, 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 독거하는 시니어 계층의 사용자의 보호자는 함께 거주하지 않더라도 사용자의 상태를 알림 받음으로써, 사용자의 상태에 따라 적절한 조치를 취할 수 있는 효과를 발휘할 수 있다.In this way, the derived user's status information is judged according to a predetermined criterion, and the result of analyzing the user's status is transmitted to the guardian, so that the guardian of the senior senior user who lives alone does not live with the user's status. By receiving the notification, it is possible to exert the effect of taking appropriate action according to the user's condition.

도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.14 exemplarily shows an internal configuration of a computing device according to an embodiment of the present invention.

도 14에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 스마트미러장치(1000)에 연결된 서비스서버(2000) 혹은 전술한 사용자 단말에 해당될 수 있다.As shown in FIG. 14, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( I/Osubsystem) 11400, a power circuit 11500, and a communication circuit 11600. At this time, the computing device 11000 may correspond to the service server 2000 connected to the smart mirror device 1000 or the aforementioned user terminal.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 학습된 임베딩모델에 포함하는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. have. The memory 11200 may include software modules required for the operation of the computing device 11000, a set of instructions, or other various data included in the learned embedding model.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the memory 11200 from other components such as the processor 11100 or the peripheral interface 11300 may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface 11300 may couple input and/or output peripherals of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute various functions for the computing device 11000 and process data by executing a software module or a set of instructions stored in the memory 11200.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 can couple various input/output peripherals to the peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor or keyboard, mouse, printer or a touch screen or sensor to the peripheral interface 11300 as required. According to another aspect, the input/output peripherals may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or power. It can include any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with other computing devices using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Or, as described above, if necessary, the communication circuit 11600 may transmit and receive an RF signal, also known as an electromagnetic signal, including an RF circuit, to enable communication with other computing devices.

이러한 도 14의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 14에 도시된 일부 컴포넌트가 생략되거나, 도 14에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 14에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 14 is only an example of the computing device 11000, and the computing device 11000 may omit some components illustrated in FIG. 14 or further include additional components not illustrated in FIG. 14, or 2 It may have a configuration or arrangement that combines more than one component. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, etc. in addition to the components illustrated in FIG. 14, and various communication methods (WiFi, 3G, LTE) in the communication circuit 1160. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented in hardware, software, or a combination of both hardware and software including integrated circuits specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be recorded in a computer readable medium by being implemented in the form of program instructions that can be performed through various computing devices. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed on a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable gate arrays (FPGAs). , A programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configures the processing device to operate as desired, or processes independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if substituted or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 구현되는 시니어 케어를 위한 스마트미러 챗봇 시스템으로서,
상기 스마트미러장치는,
사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고,
상기 제어부는,
상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별부;
상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부; 및
보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부;를 포함하고,
상기 서비스서버는,
사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부; 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부;를 포함하는 사용자상태진단부; 및
상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부;를 포함하고,
상기 챗봇인터페이싱부는,
상기 영상정보에 기초하여 상기 미러상에서 사용자가 비춰지는 영역을 도출하는 단계; 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부의 캐릭터표시영역을 도출하는 단계; 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계;를 수행하고,
상기 챗봇인터페이싱부는,
상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계;
상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계;
응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및
상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 더 수행하고,
상기 경도인지장애정보도출부는,
사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계;
사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및
상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 수행하고,
상기 감정정보도출부는,
상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출하고,
상기 챗봇인터페이싱부는,
상기 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환하는, 스마트미러 챗봇 시스템.
As a smart mirror chatbot system for senior care implemented by a service server that can be accessed by a guardian's terminal and a smart mirror device,
The smart mirror device,
A mirror made of a transparent material that illuminates the user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server.
The control unit,
A user identification unit for operating the smart mirror device by identifying the user based on voice information and video information of a user who intends to operate the smart mirror device;
A chatbot interface unit for performing a conversation with a user through a character displayed on the display unit; And
Includes a call mode providing unit for executing a video call through communication with the guardian's terminal;
The service server,
A longitudinal cognitive disability information deriving unit for deriving longitudinal cognitive disability information based on the user's voice information and the image information; And an emotion information deriving unit that derives emotion information based on the image information of the user. And
It includes; a user status notification unit for transmitting the user's status information derived based on the hardness cognitive impairment information and the emotion information to the terminal of the guardian
The chatbot interface unit,
Deriving an area where a user is projected on the mirror based on the image information; Deriving a character display area of the display unit that does not overlap the area where the user is projected; And displaying the character in the character display area.
The chatbot interface unit,
Performing one or more questions related to diagnosis of mild cognitive impairment through a character displayed on the display unit;
Receiving voice information of a user in response to the question through the microphone unit;
Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And
And providing the feedback voice information through the character.
The longitudinal cognitive disability information extraction unit,
Deriving a first analysis result by a first artificial neural network analyzing a degree of mild cognitive impairment based on voice feature information including amplitude, length and pattern derived based on the user's voice information;
Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And
And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.
The emotion information deriving unit,
Emotion information is derived by a third artificial neural network that analyzes the user's emotion based on the facial feature information derived from the user's image information,
The chatbot interface unit,
Voice and voice of a character that receives the user's mild cognitive impairment information and the emotion information from the service server and provides the feedback voice information according to a preset criterion based on the received mild cognitive impairment information and the emotional information Smart mirror chatbot system to convert the speed of the.
청구항 1에 있어서,
상기 사용자식별부는, 얼굴식별부; 및 음성식별부;를 포함하고,
상기 얼굴식별부는,
사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계;
기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계; 및
사용자의 얼굴로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하고,
상기 음성식별부는,
수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계; 및
사용자의 음성으로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user identification unit, a face identification unit; And a voice identification unit;
The face identification unit,
Extracting a user's face image based on the user's image information;
Determining a user's face by comparing the user's previously stored face image with the face image extracted from the image information; And
If it is determined as the user's face, operating the smart mirror device;
The voice identification unit,
Determining a user's voice by comparing the received user's voice information with a pre-stored user's voice information; And
If it is determined by the user's voice, operating the smart mirror device; performing, smart mirror chatbot system.
청구항 1에 있어서,
상기 챗봇인터페이싱부는,
정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부의 표시화면에 해당 정보를 디스플레이하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The chatbot interface unit,
According to the user's voice information for the information request, smart mirror providing information including one or more of the weather, schedule, and news requested by the user is provided by voice through a chatbot displayed in the form of a character, and corresponds to the display screen of the display unit A smart mirror chatbot system that displays information.
삭제delete 청구항 1에 있어서,
상기 통화모드제공부는,
사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치로 송신하여 영상통화를 실행하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The call mode providing unit,
A smart mirror chatbot system that transmits a user's voice information and video information to the guardian's terminal, and transmits the guardian voice information and the guardian's video information received from the guardian's terminal to the smart mirror device to perform a video call.
청구항 1에 있어서,
상기 사용자상태진단부는, 특징정보도출부;를 더 포함하고,
상기 특징정보도출부는,
상기 사용자의 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고,
상기 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user state diagnosis unit further includes a feature information deriving unit;
The feature information introduction unit,
Deriving voice feature information according to the amplitude, length and pattern of the user's voice information,
A smart mirror chatbot system that extracts a face image based on the user's video information and derives facial feature information based on the extracted face image.
삭제delete 삭제delete 청구항 1에 있어서,
상기 사용자상태알림부는,
사용자의 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user status notification unit,
Based on the user's long-term cognitive impairment information and the emotion information, the user's status information is derived according to a preset criterion, and when the derived user's status information corresponds to a preset criterion, the user's status is transferred to the guardian's terminal A smart mirror chatbot system that transmits information.
보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 수행되는 시니어 케어를 위한 스마트미러 챗봇 서비스를 제공하는 방법으로서,
상기 스마트미러장치는,
사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고,
상기 서비스서버는, 사용자식별부; 챗봇인터페이싱부; 통화모드제공부; 경도인지장애정보도출부; 및 감정정보도출부;를 포함하는 사용자상태진단부; 및 사용자상태알림부;를 포함하고,
상기 사용자식별부에 의하여, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별단계;
상기 챗봇인터페이싱부에 의하여, 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱단계;
상기 통화모드제공부에 의하여, 보호자의 단말기와 통신을 통해 음성통화 혹은 영상통화를 제공하는, 통화모드제공단계;
상기 경도인지장애정보도출부에 의하여, 상기 사용자의 음성정보에 대한 특징정보 및 상기 영상정보에 대한 특징정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출단계; 및 상기 감정정보도출부에 의하여, 상기 사용자의 영상정보에 대한 특징정보에 기초하여 감정정보를 도출하는 감정정보도출단계;를 포함하는 사용자상태진단단계; 및
상기 사용자상태알림부에 의하여, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는, 사용자상태알림단계;를 포함하고,
상기 챗봇인터페이싱단계는,
상기 영상정보에 기초하여 상기 미러상에서 사용자가 비춰지는 영역을 도출하는 단계; 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부의 캐릭터표시영역을 도출하는 단계; 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계;를 포함하고,
상기 챗봇인터페이싱단계는,
상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계;
상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계;
응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및
상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 더 포함하고,
상기 경도인지장애정보도출단계는,
사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계;
사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및
상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 포함하고,
상기 감정정보도출단계는,
상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출하고,
상기 챗봇인터페이싱단계는,
상기 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환하는, 스마트미러 챗봇 서비스를 제공하는 방법.
As a method of providing a smart mirror chatbot service for senior care performed by a service server that can be accessed by the guardian's terminal and the smart mirror device,
The smart mirror device,
A mirror made of a transparent material that illuminates the user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server.
The service server includes a user identification unit; Chatbot interface unit; A call mode providing unit; Mild Cognitive Disability Information Derivation Unit And an emotion information deriving unit; And a user status notification unit;
A user identification step of identifying the user based on voice information and video information of a user who wants to operate the smart mirror device by the user identification unit and operating the smart mirror device;
A chatbot interfacing step of performing a conversation with the user through a character displayed on the display unit by the chatbot interfacing unit;
A call mode providing step of providing a voice call or a video call through communication with a terminal of the guardian by the call mode providing unit;
A long-term cognitive disability information deriving step of deriving long-term cognitive disability information based on feature information on the user's voice information and feature information on the video information by the long-term cognitive disability information deriving unit; And an emotion information deriving step of deriving emotion information based on the feature information on the user's image information by the emotion information deriving unit. And
Including, by the user status notification unit, the user status notification step of transmitting the user's status information derived on the basis of the hardness cognitive impairment information and the emotion information to the terminal of the guardian,
The chatbot interfacing step,
Deriving an area in which the user is projected on the mirror based on the image information; Deriving a character display area of the display unit that does not overlap the area where the user is projected; And displaying the character in the character display area.
The chatbot interfacing step,
Performing one or more questions related to diagnosis of mild cognitive impairment through a character displayed on the display unit;
Receiving voice information of a user in response to the question through the microphone unit;
Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And
And providing the feedback voice information through the character.
The longitudinal cognitive disability information extraction step,
Deriving a first analysis result by a first artificial neural network analyzing a degree of mild cognitive impairment based on voice feature information including amplitude, length and pattern derived based on the user's voice information;
Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And
And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.
The emotion information deriving step,
Emotion information is derived by a third artificial neural network that analyzes the user's emotion based on the facial feature information derived from the user's image information,
The chatbot interfacing step,
Voice and voice of a character that receives the user's mild cognitive impairment information and the emotion information from the service server and provides the feedback voice information according to a preset criterion based on the received mild cognitive impairment information and the emotional information How to provide a smart mirror chatbot service, to transform the speed of the.
KR1020190166549A 2019-12-13 2019-12-13 Smart Mirror Chatbot System and Method for Senior Care KR102118585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190166549A KR102118585B1 (en) 2019-12-13 2019-12-13 Smart Mirror Chatbot System and Method for Senior Care

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190166549A KR102118585B1 (en) 2019-12-13 2019-12-13 Smart Mirror Chatbot System and Method for Senior Care

Publications (1)

Publication Number Publication Date
KR102118585B1 true KR102118585B1 (en) 2020-06-03

Family

ID=71087604

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190166549A KR102118585B1 (en) 2019-12-13 2019-12-13 Smart Mirror Chatbot System and Method for Senior Care

Country Status (1)

Country Link
KR (1) KR102118585B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102230493B1 (en) * 2020-08-20 2021-03-23 주식회사 씨디에스 O2O-based no-no care system and Operation method of the Same
KR102331335B1 (en) * 2021-07-13 2021-12-01 주식회사 로퓨라 Vulnerable person care robot and its control method
KR20220050302A (en) * 2020-10-15 2022-04-25 (주)에픽랩 Server and method for generating artificial intelligence character using user data, and healthcare method using the same
KR20220055311A (en) * 2020-10-26 2022-05-03 (주)신라시스템 Measurement system for non-contact body and recognition condition with kiosk
KR102399304B1 (en) 2022-03-08 2022-05-19 주식회사 삼마아이씨티 3D Image-Based Gait And Motion Imaging Inspection System Through smart Mirror
WO2022158689A1 (en) * 2021-01-22 2022-07-28 가톨릭대학교 산학협력단 System for analyzing clinical connection of subjective pain through voice analysis for preliminary questionnaire
KR102432250B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 The System that Provides Care Chatbot
KR20220122870A (en) * 2021-02-26 2022-09-05 한국광기술원 Smart mirror
KR102551617B1 (en) 2022-09-26 2023-07-06 주식회사 에스엠메이커스 Smart mirror system capable of extracting and reproducing people without background

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101849955B1 (en) * 2016-10-11 2018-04-19 (주)유미테크 Convalescence care system using smart mirror
JP2018152810A (en) * 2017-03-15 2018-09-27 株式会社日立製作所 Communication system and communication control device
KR20180111197A (en) * 2017-03-31 2018-10-11 삼성전자주식회사 Information providing method and electronic device supporting the same
KR20190073118A (en) * 2017-12-18 2019-06-26 (주)휴레이포지티브 Monitoring Robot for health care of user
KR101998881B1 (en) * 2018-05-03 2019-07-10 주식회사 에프티에치코리아 Old man dementia prevention and safety management system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101849955B1 (en) * 2016-10-11 2018-04-19 (주)유미테크 Convalescence care system using smart mirror
JP2018152810A (en) * 2017-03-15 2018-09-27 株式会社日立製作所 Communication system and communication control device
KR20180111197A (en) * 2017-03-31 2018-10-11 삼성전자주식회사 Information providing method and electronic device supporting the same
KR20190073118A (en) * 2017-12-18 2019-06-26 (주)휴레이포지티브 Monitoring Robot for health care of user
KR101998881B1 (en) * 2018-05-03 2019-07-10 주식회사 에프티에치코리아 Old man dementia prevention and safety management system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102230493B1 (en) * 2020-08-20 2021-03-23 주식회사 씨디에스 O2O-based no-no care system and Operation method of the Same
KR102493280B1 (en) * 2020-10-15 2023-02-01 (주)에픽랩 Server and method for generating artificial intelligence character using user data, and healthcare method using the same
KR20220050302A (en) * 2020-10-15 2022-04-25 (주)에픽랩 Server and method for generating artificial intelligence character using user data, and healthcare method using the same
KR20220055311A (en) * 2020-10-26 2022-05-03 (주)신라시스템 Measurement system for non-contact body and recognition condition with kiosk
KR102496971B1 (en) * 2020-10-26 2023-02-08 (주)신라시스템 Measurement system for non-contact body and recognition condition with kiosk
WO2022158689A1 (en) * 2021-01-22 2022-07-28 가톨릭대학교 산학협력단 System for analyzing clinical connection of subjective pain through voice analysis for preliminary questionnaire
KR20220106574A (en) * 2021-01-22 2022-07-29 가톨릭대학교 산학협력단 Clinical linkage analysis system of subjective pain through voice analysis for pre-interview
KR102522172B1 (en) * 2021-01-22 2023-04-14 가톨릭대학교 산학협력단 Clinical linkage analysis system of subjective pain through voice analysis for pre-interview
KR20220122870A (en) * 2021-02-26 2022-09-05 한국광기술원 Smart mirror
KR102513289B1 (en) * 2021-02-26 2023-03-24 한국광기술원 Smart mirror
KR102331335B1 (en) * 2021-07-13 2021-12-01 주식회사 로퓨라 Vulnerable person care robot and its control method
KR102432250B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 The System that Provides Care Chatbot
KR102399304B1 (en) 2022-03-08 2022-05-19 주식회사 삼마아이씨티 3D Image-Based Gait And Motion Imaging Inspection System Through smart Mirror
KR102551617B1 (en) 2022-09-26 2023-07-06 주식회사 에스엠메이커스 Smart mirror system capable of extracting and reproducing people without background

Similar Documents

Publication Publication Date Title
KR102118585B1 (en) Smart Mirror Chatbot System and Method for Senior Care
CN111788621B (en) Personal virtual digital assistant
CN107894833B (en) Multi-modal interaction processing method and system based on virtual human
Xu First encounter with robot Alpha: How individual differences interact with vocal and kinetic cues in users’ social responses
KR102363794B1 (en) Information providing method and electronic device supporting the same
JP6992870B2 (en) Information processing systems, control methods, and programs
JP2021529382A (en) Systems and methods for mental health assessment
CN116312526A (en) Natural assistant interaction
KR102448382B1 (en) Electronic device for providing image related with text and operation method thereof
US20070074114A1 (en) Automated dialogue interface
US10813584B2 (en) Assessing adherence fidelity to behavioral interventions using interactivity and natural language processing
JP2021514514A (en) Affective computing Sensitive interaction systems, devices and methods based on user interfaces
WO2016080553A1 (en) Learning robot, learning robot system, and learning robot program
Griol et al. Mobile conversational agents for context-aware care applications
CN109272994A (en) Speech data processing method and the electronic device for supporting the speech data processing method
JP2018024058A (en) Customer service device, customer service method, and customer service system
KR102200816B1 (en) Method and system for provding mental health self-management using face image
Furey et al. Alexa, emotions, privacy and GDPR
Griol et al. Modeling the user state for context-aware spoken interaction in ambient assisted living
EP3699811A1 (en) Machine-implemented beauty assistant for predicting face aging
KR20220126658A (en) AI(artificial intelligence) chatbot smart mirror
WO2020175969A1 (en) Emotion recognition apparatus and emotion recognition method
Patil et al. Artificial intelligence chat bot for counselling therapy
KR20210150988A (en) Apparatus and method for acquiring of vitality quotient
Schultz et al. Acceptance of Digital Voice Assistants for Grocery Shopping

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant