KR102118585B1 - Smart Mirror Chatbot System and Method for Senior Care - Google Patents
Smart Mirror Chatbot System and Method for Senior Care Download PDFInfo
- Publication number
- KR102118585B1 KR102118585B1 KR1020190166549A KR20190166549A KR102118585B1 KR 102118585 B1 KR102118585 B1 KR 102118585B1 KR 1020190166549 A KR1020190166549 A KR 1020190166549A KR 20190166549 A KR20190166549 A KR 20190166549A KR 102118585 B1 KR102118585 B1 KR 102118585B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- unit
- voice
- smart mirror
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000008451 emotion Effects 0.000 claims abstract description 96
- 208000010877 cognitive disease Diseases 0.000 claims abstract description 85
- 208000027061 mild cognitive impairment Diseases 0.000 claims abstract description 43
- 208000028698 Cognitive impairment Diseases 0.000 claims description 40
- 238000013528 artificial neural network Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 25
- 238000003745 diagnosis Methods 0.000 claims description 24
- 230000001149 cognitive effect Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 23
- 230000001815 facial effect Effects 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 12
- 230000007774 longterm Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 9
- 239000012780 transparent material Substances 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 208000019901 Anxiety disease Diseases 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 4
- 230000032683 aging Effects 0.000 description 4
- 230000036506 anxiety Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000035882 stress Effects 0.000 description 4
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work
-
- G06K9/00268—
-
- G06K9/00302—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/30—Transportation; Communications
-
- G06Q50/40—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/028—Communication between parent and child units via remote transmission means, e.g. satellite network
- G08B21/0283—Communication between parent and child units via remote transmission means, e.g. satellite network via a telephone network, e.g. cellular GSM
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G10L17/005—
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
Abstract
Description
본 발명은 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법에 관한 것으로서, 보다 상세하게는 스마트미러에 디스플레이 되는 캐릭터를 통해 사용자와 대화를 수행하고, 수행한 대화의 내용 및 스마트미러의 카메라를 통해 수집된 사용자의 영상정보에 기초하여 사용자의 경도인지장애정도 및 감정을 분석하고, 분석한 감정에 따른 사용자의 상태정보를 보호자에게 송신할 수 있는, 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법에 관한 것이다.The present invention relates to a smart mirror chatbot system and method for senior care, and more specifically, to perform a conversation with a user through a character displayed on the smart mirror, the content of the conversation performed, and collected through the camera of the smart mirror The present invention relates to a smart mirror chatbot system and method for senior care that can analyze a user's degree of mild cognitive impairment and emotion based on the user's image information and transmit the user's status information according to the analyzed emotion to a guardian.
시니어 헬스케어 기술은 고령화 시대에 따른 시니어 인구의 증가와 이들의 건강에 대한 관심도 증가에 맞추어 더욱 활발하게 연구되고 있다. 현재 우리나라의 65세 이상 인구는 610만여 명으로 전체 인구의 12%를 넘어섰다. 대한민국뿐 아니라 프랑스, 스웨덴, 미국, 독일, 일본 등 선진국을 중심으로 고령화사회가 빠르게 확산되고 있으며, 21세기에는 모든 국가가 고령화라는 사회적 현상에 대응해야 하는 상황이다.Senior healthcare technology is being actively researched in line with the increase in the senior population and their interest in health according to the aging age. Currently, the population of people over 65 years old in Korea is more than 6.6 million, exceeding 12% of the total population. Aging society is rapidly spreading not only in Korea but also in developed countries such as France, Sweden, the United States, Germany, and Japan, and in the 21st century, all countries must respond to the social phenomenon of aging.
한편, 최근 스마트미러에 대한 연구가 활발히 진행되고 있으며, 스마트 미러에 대한 사람들의 관심도 증가하고 있다. 스마트 미러란, 거울이 빛의 반사를 이용하여 물체의 모양을 비추는 거울 고유의 기능을 수행할 뿐만 아니라, 인터넷과 연결되어 날씨, 달력 및 주요 뉴스 등의 다양한 정보를 출력해주는 기능을 수행할 수 있는 거울이다. 하지만, 지금까지 사용되고 있는 스마트미러는 그날의 날씨, 주요 뉴스 등의 일반적인 정보를 일방적으로 제공하는 데 그치고 있을 뿐, 사용자의 감정을 고려하여, 사용자의 감정에 따라 그에 적합한 맞춤형 정보를 제공하지는 못하고 있다.Meanwhile, research on smart mirrors has been actively conducted recently, and people's interest in smart mirrors is also increasing. Smart mirror is a mirror that reflects the shape of an object by reflecting light, as well as performing a function that can connect to the Internet and output various information such as weather, calendar, and major news. It is a mirror. However, the smart mirrors used so far are only unilaterally providing general information such as the weather of the day and main news, and are not able to provide customized information suitable for the user's emotions in consideration of the user's emotions. .
또한, 고령화 사회의 가속화에 따라 노인에 대한 관리의 필요성이 크게 증가하고 있고, 특히 홀로 거주하는 노인의 경우, 긴급상황이 발생하게 되면 별다른 조치를 취하지 못하는 경우에 큰 위험에 처할 수 있고, 이는 사회적으로 크게 문제되고 있다. 이러한 문제를 해결하기 위하여, 노인들이 일반 스마트기기 보다 간편하게 사용할 수 있는 스마트미러를 이용하여 사용자의 감정을 고려한 대화를 제공하고, 사용자의 영상 혹은 음성을 수집하여, 사용자의 상태를 분석하여 관리할 수 있는 기술이 필요하나 이러한 종래의 기술은 전무하다.In addition, as the aging society accelerates, the need for management of the elderly is greatly increased, and especially in the case of an elderly person living alone, when an emergency occurs, it can be in great danger if no special measures can be taken. As is the big problem. In order to solve this problem, a smart mirror that can be used more easily than a general smart device by an elderly person provides a conversation considering the user's emotion, collects the user's video or voice, and analyzes and manages the user's condition. There is a need for an existing technology, but there is no such conventional technology.
본 발명은 스마트미러에 디스플레이 되는 캐릭터를 통해 사용자와 대화를 수행하고, 수행한 대화의 내용 및 스마트미러의 카메라를 통해 수집된 사용자의 영상정보에 기초하여 사용자의 경도인지장애정도 및 감정을 분석하고, 분석한 감정에 따른 사용자의 상태정보를 보호자에게 송신할 수 있는, 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention conducts a conversation with a user through a character displayed on a smart mirror, analyzes the user's degree of mild cognitive impairment and emotion based on the content of the conversation performed and the user's video information collected through the camera of the smart mirror, It is an object of the present invention to provide a smart mirror chatbot system and method for senior care, which can transmit the user's status information according to the analyzed emotion to the guardian.
상기와 같은 과제를 해결하기 위하여, 보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 구현되는 시니어 케어를 위한 스마트미러 챗봇 시스템으로서, 상기 스마트미러장치는, 사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고, 상기 제어부는, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별부; 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부; 및 보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부;를 포함하고, 상기 서비스서버는, 사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부; 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부;를 포함하는 사용자상태진단부; 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부;를 포함하는, 스마트미러 챗봇 시스템을 제공한다.In order to solve the above problems, as a smart mirror chatbot system for senior care implemented by a service server that can be accessed by a guardian's terminal and a smart mirror device, the smart mirror device is made of a transparent material that illuminates the user's appearance. mirror; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit controlling an operation of the smart mirror device through communication with the service server, wherein the control unit identifies the user based on voice information and video information of a user who wants to operate the smart mirror device. A user identification unit for operating the smart mirror device; A chatbot interface unit for performing a conversation with a user through a character displayed on the display unit; And a call mode providing unit for performing a video call through communication with a terminal of the guardian, wherein the service server is a mild cognitive impairment that derives mild cognitive impairment information based on the user's voice information and the video information. Information elicitation unit; And an emotion information deriving unit that derives emotion information based on the image information of the user. And a user status notification unit that transmits the user's status information derived based on the mild cognitive impairment information and the emotion information to a guardian's terminal.
본 발명의 일 실시예에서는, 상기 사용자식별부는, 얼굴식별부; 및 음성식별부;를 포함하고, 상기 얼굴식별부는, 사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계; 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계; 및 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하고, 상기 음성식별부는, 수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계; 및 사용자의 음성으로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행할 수 있다.In one embodiment of the present invention, the user identification unit, face identification unit; And a voice identification unit, wherein the face identification unit extracts a user's face image based on the image information of the user; Determining a user's face by comparing the pre-stored user's face image with the face image extracted from the image information; And if it is determined as the user's face, operating the smart mirror device; and the voice identification unit determines the user's voice by comparing the received user's voice information with the pre-stored user's voice information. step; And when it is determined by the user's voice, operating the smart mirror device.
본 발명의 일 실시예에서는, 상기 챗봇인터페이싱부는, 정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부의 표시화면에 해당 정보를 디스플레이하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러의 영역과 겹치지 않는 디스플레이부의 영역에 디스플레이 될 수 있다.In one embodiment of the present invention, the chatbot interfacing unit comprises a chatbot that displays smart mirror providing information including one or more of weather, schedule, and news requested by the user in the form of a character according to the user's voice information for the information request. Provided through voice, and displays the corresponding information on the display screen of the display unit, and the character can be displayed in an area of the display unit that does not overlap the area of the mirror on which the user's appearance is projected based on the image information of the user. have.
본 발명의 일 실시예에서는, 상기 챗봇인터페이싱부는, 상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계; 상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계; 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및 상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 수행하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러의 영역과 겹치지 않는 디스플레이부의 영역에 디스플레이 될 수 있다.In one embodiment of the present invention, the chatbot interface unit, performing one or more questions related to the diagnosis of mild cognitive impairment through a character displayed on the display unit; Receiving voice information of a user in response to the question through the microphone unit; Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And providing the feedback voice information through the character; and the character may be displayed on an area of the display unit that does not overlap the area of the mirror on which the user's appearance is projected based on the image information of the user. have.
본 발명의 일 실시예에서는, 상기 통화모드제공부는, 사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치로 송신하여 영상통화를 실행할 수 있다.In one embodiment of the present invention, the call mode providing unit transmits the user's voice information and video information to the guardian's terminal, and transmits the guardian voice information and the guardian's video information received from the guardian's terminal to the smart mirror device. To make a video call.
본 발명의 일 실시예에서는, 상기 사용자상태진단부는, 특징정보도출부;를 더 포함하고, 상기 특징정보도출부는, 상기 사용자의 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고, 상기 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출할 수 있다.In an embodiment of the present invention, the user state diagnosis unit further includes a feature information extractor; the feature information extractor derives voice feature information according to the amplitude, length and pattern of the user's voice information, A face image may be extracted based on the user's image information, and face feature information may be derived based on the extracted face image.
본 발명의 일 실시예에서는, 상기 경도인지장애정보도출부는, 사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계; 사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및 상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 수행할 수 있다.In one embodiment of the present invention, the hardness cognitive impairment information extracting unit is a first artificial person analyzing the degree of hardness cognitive impairment based on voice characteristic information including amplitude, length and pattern derived based on the user's voice information. Deriving a first analysis result by the neural network; Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.
본 발명의 일 실시예에서는, 상기 감정정보도출부는, 상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출할 수 있다.In one embodiment of the present invention, the emotion information deriving unit may derive the emotion information by a third artificial neural network analyzing the user's emotion based on the facial feature information derived from the image information of the user.
본 발명의 일 실시예에서는, 상기 사용자상태알림부는, 사용자의 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신할 수 있다.In one embodiment of the present invention, the user status notification unit derives the user's status information according to a preset criterion based on the user's longitude cognitive impairment information and the emotion information, and the derived user's status information is preset. If the criteria are met, the user's status information may be transmitted to the guardian's terminal.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 보호자의 단말기 및 스마트미러장치가 접속할 수 있는 서비스서버에 의하여 수행되는 시니어 케어를 위한 스마트미러 챗봇 서비스를 제공하는 방법으로서, 상기 스마트미러장치는, 사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고, 상기 서비스서버는, 사용자식별부; 챗봇인터페이싱부; 통화모드제공부; 경도인지장애정보도출부; 및 감정정보도출부;를 포함하는 사용자상태진단부; 및 사용자상태알림부;를 포함하고, 상기 사용자식별부에 의하여, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별단계; 상기 챗봇인터페이싱부에 의하여, 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱단계; 상기 통화모드제공부에 의하여, 보호자의 단말기와 통신을 통해 음성통화 혹은 영상통화를 제공하는, 통화모드제공단계; 상기 경도인지장애정보도출부에 의하여, 상기 사용자의 음성정보에 대한 특징정보 및 상기 영상정보에 대한 특징정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출단계; 및 상기 감정정보도출부에 의하여, 상기 사용자의 영상정보에 대한 특징정보에 기초하여 감정정보를 도출하는 감정정보도출단계;를 포함하는 사용자상태진단단계; 및 상기 사용자상태알림부에 의하여, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는, 사용자상태알림단계;를 포함하는, 스마트미러 챗봇 서비스를 제공하는 방법을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a method of providing a smart mirror chatbot service for senior care performed by a service server to which a terminal of a guardian and a smart mirror device can access, the smart The mirror device includes a mirror made of a transparent material that illuminates a user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server, wherein the service server comprises: a user identification unit; Chatbot interface unit; A call mode providing unit; Mild Cognitive Disability Information Derivation Unit; And an emotional information deriving unit; And a user status notifying unit, comprising: a user identification step of operating the smart mirror device by identifying the user based on voice information and video information of a user to operate the smart mirror device by the user identification unit; A chatbot interfacing step of performing a conversation with a user through a character displayed on the display unit by the chatbot interfacing unit; A call mode providing step of providing a voice call or a video call through communication with a terminal of the guardian by the call mode providing unit; A long-term cognitive disability information deriving step of deriving long-term cognitive disability information based on the feature information on the user's voice information and the feature information on the image information; And an emotion information deriving step of deriving emotion information based on feature information on the user's image information by the emotion information deriving unit. And a user status notification step of transmitting, by the user status notification unit, the user's status information derived based on the mild cognitive impairment information and the emotion information to a guardian's terminal. How to do it.
본 발명의 일 실시예에 따르면, 스마트미러장치에 디스플레이되는 캐릭터를 통해 사용자에게 대화상대를 제공하여 감성에 대한 결핍을 충족시켜 줄 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to provide an interactive partner to a user through a character displayed on a smart mirror device, thereby exerting an effect of satisfying a lack of emotion.
본 발명의 일 실시예에 따르면, 스마트미러장치를 통해 대화형으로 정보를 제공하고, 수집한 사용자의 음성정보 및 영상정보에 기초하여 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 사용자의 상태에 따른 보호자의 효과적인 조치를 취할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, information is provided interactively through a smart mirror device, and a result of analyzing a user's state based on the collected voice and video information is delivered to a guardian, and the user's state It can exert the effect of taking effective measures by the guardian.
본 발명의 일 실시예에 따르면, 캐릭터와 실제 대화를 하는 것 같은 상황을 연출함으로써, 사용자의 음성정보로부터 사용자의 표정, 목소리 패턴, 사용하는 단어의 키워드 등을 분석하여 현재 사용자의 감정 및 건강상태에 대한 분석을 할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by generating a situation such as having a real conversation with a character, the user's voice information is analyzed from the user's facial expression, voice pattern, keywords of words used, and the current user's emotion and health status It can exert an effect that can be analyzed for.
본 발명의 일 실시예에 따르면, 사용자의 영상정보에 기초하여 학습된 인공신경망 모델을 이용하여 사용자의 영상정보에 담긴 감정을 인식할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to exert the effect of recognizing the emotion contained in the user's image information using an artificial neural network model learned based on the user's image information.
본 발명의 일 실시예에 따르면, 독거 노인들에게 편의성 및 대화상대를 제공하여 감성에 대한 충족감과 건강상태를 실시간으로 측정 및 분석하여 보호자에게 전달할 수 있다.According to an embodiment of the present invention, it is possible to provide convenience and conversational counterparts to the elderly living alone to measure and analyze the feeling of satisfaction and health in real time and deliver it to the guardian.
본 발명의 일 실시예에 따르면, 도출된 사용자의 상태정보를 기설정된 기준에 따라 판단하여, 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 독거하는 시니어 계층의 사용자의 보호자는 함께 거주하지 않더라도 사용자의 상태를 수신할 수 있음으로써, 사용자의 상태에 따라 적절한 조치를 취할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the derived user's status information is determined according to a predetermined criterion, and the result of analyzing the user's status is transmitted to the guardian, even if the guardian of the user of the senior class who is living alone does not live together By receiving the user's status, it is possible to exert the effect of taking appropriate measures according to the user's status.
도 1은 본 발명의 일 실시예에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템의 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 스마트미러장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제어부의 내부 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 서비스서버의 내부 구성을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 사용자식별부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 챗봇인터페이싱부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 챗봇인터페이싱부의 수행단계를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 챗봇인터페이싱부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 통화모드제공부에 의하여 제공되는 스마트미러장치의 화면을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 특징정보도출부의 동작을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 특징정보도출부의 동작을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 경도인지장애정보도출부의 동작을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 감정정보도출부의 동작을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치를 예시적으로 도시한다.1 schematically illustrates a form of a smart mirror chatbot system for senior care according to an embodiment of the present invention.
2 schematically shows a configuration of a smart mirror device according to an embodiment of the present invention.
Figure 3 schematically shows the internal configuration of the control unit according to an embodiment of the present invention.
4 schematically shows an internal configuration of a service server according to an embodiment of the present invention.
5 schematically illustrates a screen of a smart mirror device provided by a user identification unit according to an embodiment of the present invention.
6 schematically illustrates a screen of a smart mirror device provided by a chatbot interface unit according to an embodiment of the present invention.
7 schematically illustrates a step of performing a chatbot interface unit according to an embodiment of the present invention.
8 schematically shows a screen of a smart mirror device provided by a chatbot interface unit according to an embodiment of the present invention.
9 schematically illustrates a screen of a smart mirror device provided by a call mode providing unit according to an embodiment of the present invention.
10 schematically illustrates the operation of the feature information extracting unit according to an embodiment of the present invention.
11 schematically illustrates the operation of the feature information extractor according to an embodiment of the present invention.
12 schematically illustrates the operation of the longitudinal cognitive impairment information extracting unit according to an embodiment of the present invention.
13 schematically illustrates the operation of the emotion information extracting unit according to an embodiment of the present invention.
14 exemplarily illustrates a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part “includes” a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise specified.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Further, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and/or includes a combination of a plurality of related described items or any one of a plurality of related described items.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware. Meanwhile,'~unit' is not limited to software or hardware, and'~unit' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided within components and'~units' may be combined into a smaller number of components and'~units' or further separated into additional components and'~units'. In addition, the components and'~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.
이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" mentioned below may be implemented as a computer or a portable terminal capable of accessing a server or another terminal through a network. Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop (desktop), a laptop (laptop), and the like, and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code It may include all kinds of handheld-based wireless communication devices such as Division Multiple Access (2000), W-Code Division Multiple Access (W-CDMA), and Wireless Broadband Internet (Wibro) terminals. In addition, the "network" is a wired network or a mobile radio communication network or satellite, such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN). It can be implemented with any kind of wireless network, such as a communication network.
도 1은 본 발명의 일 실시예에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템의 형태를 개략적으로 도시한다.1 schematically illustrates a form of a smart mirror chatbot system for senior care according to an embodiment of the present invention.
도 1의 보호자의 단말기는 전술한 사용자 단말에 해당할 수 있고, 서비스서버(2000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The terminal of the guardian of FIG. 1 may correspond to the aforementioned user terminal, and the
스마트미러(100)장치(1000)는, 상기 서비스서버(2000)와 통신할 수 있고, 상기 스마트미러(100)장치(1000)의 제어부(500)는 서비스서버(2000)와의 통신으로 스마트미러(100)장치(1000)의 동작을 제어할 수 있다. 상기 제어부(500)는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에 해당한다.The
상기 스마트미러장치(1000)는 사용자의 모습을 비추는 미러(100)를 포함하고, 상기 미러(100)는 사용자의 모습을 비출 뿐만 아니라 투과성 재질로 구성되어 미러(100)를 통해 후면에 있는 물체 혹은 환경을 미러(100)를 투과하여 시각적으로 볼 수 있다. 본 발명의 스마트미러장치(1000)는 상기와 같은 미러(100)의 후면에는 영상 혹은 정보를 디스플레이하는 디스플레이부(600)가 설치된다. 또한, 상기 스마트미러장치(1000)는, 사운드를 출력하는 스피커부(400); 사용자의 음성정보를 수집하는 마이크부(300); 상기 서비스서버(2000) 및 상기 보호자의 단말기와 무선적으로 통신하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부(200)를 더 포함할 수 있다.The
이와 같은, 상기 스마트미러장치(1000)는, 사용자를 식별하여 스마트미러장치(1000)를 동작시키고, 상기 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행할 수 있다. 또한, 보호자의 단말기와 통신을 통해 영상통화를 실행할 수 있다.The
이하에서는, 상기 스마트미러장치(1000)의 구성에 대하여 더욱 자세하게 설명하도록 한다.Hereinafter, the configuration of the
도 2는 본 발명의 일 실시예에 따른 스마트미러장치(1000)의 구성을 개략적으로 도시한다.2 schematically shows a configuration of a
구체적으로, 도 2의 (a)는 본 발명의 스마트미러장치(1000)를 정면에서 바라본 형태를 도시한다. 상기 스마트미러장치(1000)는 투과성 재질의 미러(100)를 포함하여, 사용자 및 주변환경을 비출 수 있고, 스마트미러장치(1000)의 상단에는 사용자의 영상정보를 수집하는 카메라부(200); 및 사용자의 음성정보를 수집하는 마이크부(300);가 장착된다.Specifically, Figure 2 (a) shows a form viewed from the front of the
도 2의 (b)는 본 발명의 스마트미러장치(1000)를 측면에서 바라본 형태를 도시한다. 도 2의 (b)에 도시된 바와 같이, 전방에는 사용자의 모습을 비추는 투과성재질의 미러(100)가 구비되고, 미러(100)의 상단에는 사용자의 영상정보를 수집하는 카메라부(200)가 장착된다. 이러한 미러(100)의 후면에는 정보 혹은 영상을 디스플레이하는 디스플레이부(600)가 설치된다. 또한, 디스플레이부(600)의 후면에는 사운드를 출력하는 스피커부(400) 및 스마트미러장치(1000)의 동작을 제어하는 제어부(500)가 구비된다. 상기 스피커부(400)는 꼭 디스플레이부(600)의 후면이 아니더라도 스마트미러장치(1000)의 다른 영역에 구비될 수도 있다.Figure 2 (b) shows a form viewed from the side of the
이하에서는, 본 발명의 스마트미러장치(1000)의 상기 제어부(500)의 구성에 대하여 더욱 자세하게 설명하도록 한다.Hereinafter, the configuration of the
도 3은 본 발명의 일 실시예에 따른 제어부(500)의 내부 구성을 개략적으로 도시한다.3 schematically shows an internal configuration of the
도 3에 도시된 바와 같이, 상기 스마트미러장치(1000)의 상기 제어부(500)는, 상기 스마트미러장치(1000)를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치(1000)를 동작시키는 사용자식별부(510); 상기 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부(520); 및 보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부(530);를 포함한다.As illustrated in FIG. 3, the
구체적으로, 상기 사용자식별부(510)는, 얼굴식별부(511) 및 음성식별부(512)를 포함하고, 상기 얼굴식별부(511)는, 스마트미러장치(1000)의 카메라부(200)에 의하여 수집된 사용자의 영상정보에 기초하여 사용자의 얼굴을 판별하고, 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치(1000)를 동작시킬 수 있다. 상기 음성식별부(512)는, 스마트미러장치(1000)의 마이크부(300)에 의하여 수집된 사용자의 음성정보에 기초하여 사용자의 음성을 판별하고, 수집된 음성정보가 사용자의 음성으로 판별된 경우, 상기 스마트미러장치(1000)를 동작시킬 수 있다.Specifically, the
상기 챗봇인터페이싱부(520)는, 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행한다. 정보 요청에 대한 사용자의 음성정보를 수신하고, 수신한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부(600)의 표시화면 해당 정보를 디스플레이 한다. 또한, 챗봇인터페이싱부(520)는, 사용자의 경도인지장애정도를 진단하기 위해 상기 캐릭터를 통해 경도인지장애진단과 관련된 1 이상의 질문을 수행하고, 스마트미러장치(1000)의 마이크부(300)를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보에 따라 상기 응답에 대한 피드백음성정보를 제공할 수 있다.The
상기 통화모드제공부(530)는, 사용자의 음성정보 및 영상정보를 보호자의 단말기로 송신하고 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치(1000)로 송신하여 영상통화를 실행한다. 통화모드제공부(530)의 동작으로 스마트미러장치(1000)를 통해 사용자는 보호자와 영상통화를 할 수 있다.The call
도 3에 도시된 제어부(500)는 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 시니어 케어를 위한 스마트미러 챗봇 시스템과 관련된 구성요소들만을 표시하였다.The
도 4는 본 발명의 일 실시예에 따른 서비스서버(2000)의 내부구성을 개략적으로 도시한다.4 schematically shows the internal configuration of a
도 4에 도시된 바와 같이, 상기 서비스서버(2000)는, 사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부(2120); 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부(2130);를 포함하는 사용자상태진단부(2100); 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부(2200); 및 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치를 설정하는 스마트미러장치설정부(2300);를 포함할 수 있다.As shown in FIG. 4, the
구체적으로, 상기 사용자상태진단부(2100)는, 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보 및 감정정보를 도출하여 사용자의 상태정보를 도출할 수 있다. 이러한 사용자상태진단부(2100)는, 특징정보도출부(2110), 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)를 포함한다.Specifically, the user
상기 특징정보도출부(2110)는, 스마트미러장치(1000)의 카메라부(200)로부터 수집된 사용자의 영상정보 및 마이크부(300)로부터 수집된 사용자의 음성정보에 기초하여 얼굴특징정보 및 음성특징정보를 도출할 수 있다. 구체적으로, 상기 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고, 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다.The feature
본 발명의 일 실시예에서는, 상기 특징정보도출부(2110)는 기본적으로 사용자의 영상정보 및 음성정보를 수신하여 딥러닝과 같은 기계학습기술을 통한 학습된 모델을 통하여 얼굴특징정보 및 음성특징정보를 도출할 수 있다.In one embodiment of the present invention, the feature
상기 특징정보도출부(2110)에 포함된 특징정보를 도출하는 모듈은 상기 영상정보에 포함된 얼굴이미지를 별도로 추출하고 RNN, LSTM, GRU와 같은 시간적 개념이 포함된 인공신경망 기술을 이용하여 경도인지장애정도를 분석하고, 경도인지장애점수를 도출할 수 있다. 또한, 이에 추가적으로, 상기 특징정보도출부(2110)는, 기계학습이 아닌 기설정된 규칙에 따라 영상을 분석할 수도 있다.The module for deriving the feature information included in the feature
상기 경도인지장애정보도출부(2120)는, 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보를 도출한다. 구체적으로, 경도인지장애정보도출부(2120)는, 제1인공신경망(2121), 제2인공신경망(2122) 및 종합진단모듈(2123)을 포함한다. 상기 제1인공신경망(2121)은 음성특징정보에 기초하여 경도인지장애정도를 분석한 제1분석결과를 도출하고, 상기 제2인공신경망(2122)은 얼굴특징정보에 기초하여 경도인지장애정도를 분석한 제2분석결과를 도출한다. 이후, 상기 종합진단모듈(2123)은 제1분석결과 및 제2분석결과에 기초하여 경도인지장애정보를 도출할 수 있다. 바람직하게는, 상기 경도인지장애정보는, 사용자의 경도인지장애정도에 따른 레벨 혹은 점수의 형태로 도출될 수 있다.The mild cognitive disability
상기 감정정보도출부(2130)는, 사용자의 영상정보에 기초하여 감정정보를 도출한다. 구체적으로, 감정정보도출부(2130)는, 제3인공신경망(2131)을 포함하고, 상기 제3인공신경망(2131)은 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 감정정보를 분석한다. 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망(2131)에 의하여 감정정보를 도출한다. 바람직하게는, 상기 감정정보는, 사용자의 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 등의 감정에 따른 벡터형태의 데이터 일 수 있다.The emotion
상기 사용자상태알림부(2200)는, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신한다. 구체적으로, 사용자상태알림부(2200)는, 경도인지장애정보 및 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신한다.The user
상기 스마트미러장치설정부(2300)는, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치(1000)를 설정한다. 도 3의 설명에서 언급한 바와 같이 스마트미러장치(1000)는 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하고, 스마트미러장치설정부(2300)는 스마트미러장치(1000)로부터 수신한 사용자의 음성정보에 따라 상기 응답에 대한 피드백음성정보를 도출하고, 상기 스마트미러장치(1000)로 도출한 피드백음성정보를 송신할 수 있다. 또한, 스마트미러장치설정부(2300)는 사용자상태진단부(2100)로부터 도출된 상기 경도인지장애정보 및 상기 감정정보에 기초하여 스마트미러장치(1000)의 챗봇인터페이싱부(520)를 설정하여 디스플레이부(600)에 디스플레이 되는 캐릭터의 음성 및 음성의 속도를 다르게 제공하도록 설정할 수도 있다.The smart mirror
한편, 상기 서비스서버(2000)의 DB(2400)에는 스마트미러장치(1000)의 제어부(500)에 송신하여 제공하는 경도인지장애 진단과 관련된 1 이상의 질문정보, 스마트미러장치(1000)에서 수집된 사용자의 음성정보 및 영상정보, 사용자상태진단부(2100)에 의하여 도출된 사용자의 경도인지장애정보, 감정정보 및 상태정보를 포함하는 진단정보, 사용자의 보호자의 단말기에 대한 정보, 주소, 이메일 및 전화번호 등을 포함하는 보호자정보가 저장되어 있을 수 있다.On the other hand, the DB (2400) of the
도 4에 도시된 서비스서버(2000)는 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 시니어케어를 위한 스마트미러 챗봇 시스템과 관련된 구성요소들만을 표시하였다.The
도 5는 본 발명의 일 실시예에 따른 사용자식별부(510)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.5 schematically illustrates a screen of the
상기 스마트미러장치(1000)의 제어부(500)는 사용자식별부(510)를 포함하고, 상기 사용자식별부(510)는, 사용자의 영상정보 및 음성정보에 기초하여 스마트미러장치(1000)에 접근하거나 혹은 스마트미러장치(1000)를 동작시키고자 하는 사용자를 식별할 수 있다.The
바람직하게는, 상기 사용자식별부(510)는, 얼굴식별부(511) 및 음성식별부(512)를 포함하고, 상기 얼굴식별부(511)는, 사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계(S100); 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계(S110); 및 사용자의 얼굴로 판별된 경우, 상기 스마트미러장치(1000)를 동작시키는 단계(S120);를 수행하고, 상기 음성식별부(512)는, 수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계(S200); 및 사용자의 음성으로 판별된 경우, 상기 스마트미러장치(1000)를 동작시키는 단계(S210);를 수행한다.Preferably, the
S100단계에서는, 상기 얼굴식별부(511)는, 사용자의 영상정보에 기초하여 사용자의 얼굴이미지를 추출한다.In step S100, the
S110단계에서는, S110단계에서 추출한 얼굴이미지 및 기저장된 사용자의 얼굴이미지를 비교하여 사용자의 얼굴을 판별한다. 스마트미러장치(1000)에는 사용자를 판별하기 위해 사용자의 얼굴이미지를 기저장하여 사용자 인식을 위해 설정할 수 있다. 얼굴식별부(511)는 기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 같은 사람의 얼굴이미지인 경우, 사용자의 얼굴로 판별하고, 같은 사람의 얼굴이미지가 아니라고 판별된 경우에는 스마트미러장치(1000)에 접근한 사람이 기설정된 사용자가 아닌 것으로 판별한다.In step S110, the user's face is determined by comparing the face image extracted in step S110 and the previously stored face image. The
S120단계에서는, S110단계에서 사용자의 얼굴로 판별된 경우, 스마트미러장치(1000)를 동작시킨다. 사용자가 식별되어 동작된 스마트미러장치(1000)는 도 5의 (b)에 도시된 바와 같이 해당 날짜, 시간, 및 날씨 등을 포함하는 스마트미러제공정보가 디스플레이 되며, 스마트미러장치(1000)가 동작될 수 있다.In step S120, when it is determined as the user's face in step S110, the
바람직하게는, 사용자식별부(510)는, 근접센서를 더 포함하여 스마트미러장치(1000)에 사용자가 접근하는 경우, 사용자접근신호를 카메라부(200)로 송신하여 카메라부(200)의 동작으로 사용자의 영상정보를 수집할 수 있도록 할 수도 있다.Preferably, the
한편, S200단계에서는, 음성식별부(512)는, 수신한 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별한다. 스마트미러장치(1000)에는 사용자를 판별하기 위해 사용자의 음성정보를 기저장하여 사용자 인식을 위해 설정할 수 있다. 음성식별부(512)는 기저장된 사용자의 음성정보 및 수신한 사용자의 음성정보를 비교하여 각각의 음성정보가 같은 사람의 음성정보인 경우, 사용자의 음성으로 판별하고, 같은 사람의 음성정보가 아닌 경우에는 스마트미러장치(1000)를 동작시키려는 사람이 설정된 사용자가 아닌 것으로 판별한다.Meanwhile, in step S200, the
S210단계에서는, S200단계에서 사용자의 음성으로 판별된 경우, 스마트미러장치(1000)를 동작시킨다. 사용자가 식별되어 동작된 스마트미러장치(1000)는 사용자의 음성에 따라 사용자가 얻고자 하는 스마트미러제공정보를 제공하거나, 영상통화를 실행하거나, 캐릭터와 대화하는 등의 형태로 동작될 수 있다.In step S210, when it is determined by the user's voice in step S200, the
도 5의 (a)는 스마트미러장치(1000)가 동작하지 않는 상태를 도시한다. 사용자가 접근하지 않은 형태의 스마트미러장치(1000)는 일반 거울과 같이 거울의 전방에 있는 사람 혹은 사물 등을 비추는 거울의 기능만을 할 수 있다.5A shows a state in which the
한편, 도 5의 (b)는 사용자가 접근함으로써 스마트미러장치(1000)가 동작되고 있는 상태를 개략적으로 도시한다. 사용자가 스마트미러장치(1000)에 접근하는 경우 사용자의 모습을 비추게 되고, 스마트미러장치(1000)의 카메라부(200)는, 사용자의 영상정보를 수집한다. 또한, 본 발명의 스마트미러장치(1000)에 포함된 미러(100)는, 투과성 재질로 이루어져 미러(100) 후면에 설치된 디스플레이부(600)의 표시화면이 투과될 수 있다. 도 5의 (b)는 디스플레이부(600)의 표시화면에 해당 날짜, 시간 및 날씨와 같은 정보가 디스플레이 된 것이 도시되었다. 본 발명의 다른 실시예에서는, 스마트미러장치(1000)는 근접센서를 포함하여, 상기 근접센서에서 사용자를 인식하는 경우, 스마트미러장치(1000)를 작동시킬 수도 있다. 해당일의 날짜, 시간, 날씨 등과 같은 정보가 디스플레이부(600)의 표시화면에 표시되고, 스마트미러장치(1000)를 동작시킨 사용자는 스마트미러장치(1000)에서 제공되는 정보를 확인할 수 있다.Meanwhile, FIG. 5B schematically illustrates a state in which the
이와 같은 방식으로, 사용자식별부(510)는 사용자를 식별하여 스마트미러장치(1000)를 동작시킴으로써, 스마트미러장치(1000)를 사용하지 않는 경우에는, 전력의 불필요한 낭비를 예방할 수 있고, 기설정된 사용자만이 스마트미러장치(1000)를 사용할 수 있도록 할 수 있는 효과를 발휘할 수 있다.In this way, the
도 6은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.6 schematically shows a screen of the
스마트미러장치(1000)의 제어부(500)는 챗봇인터페이싱부(520)를 포함하고, 상기 챗봇인터페이싱부(520)는, 스마트미러장치(1000)의 디스플레이부(600)에 표시되는 캐릭터를 통해 사용자와 대화를 수행하고 정보를 제공할 수 있다.The
바람직하게는, 상기 챗봇인터페이싱부(520)는, 정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부(600)의 표시화면에 해당 정보를 디스플레이하고, 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 상기 미러(100)의 영역과 겹치지 않는 디스플레이부(600)의 영역에 디스플레이 된다.Preferably, the
도 6은, 스마트미러장치(1000)는 사용자의 날씨에 대한 정보의 요청에 대한 음성정보를 사용자로부터 수신하여 사용자가 요청한 날씨에 대한 정보를 제공하는 상태를 개략적으로 도시한다. 도 6에 도시된 바에 따르면, 사용자는 “오늘 날씨 알려줘!” 라고 말하여 스마트미러장치(1000)에 정보 요청을 하고, 스마트미러장치(1000)는 이러한 사용자의 음성정보를 수신하여 사용자가 요청한 날씨에 대한 스마트미러제공정보를 스마트미러장치(1000)의 디스플레이부(600)의 표시화면에 디스플레이 한다. 또한, “오늘 날씨는 맑고 어제보다 3°낮으며~~"와 같이 캐릭터의 형상으로 디스플레이되는 챗봇을 통해 날씨에 대한 정보를 음성으로 제공한다. 본 발명은 시니어 계층의 케어를 위한 스마트미러 챗봇 시스템에 관한 발명으로서, 스마트미러장치(1000)의 사용자는 시니어계층이 주를 이룰 수 있다. 상대적으로, 스마트폰 및 컴퓨터를 조작하기 힘든 시니어들은 도 6에 도시된 바와 같이, 음성을 통해 자신이 얻고자 하는 정보를 스마트미러장치(1000)에 요청할 수 있고, 챗봇인터페이싱부(520)의 동작으로 스마트미러장치(1000)는 사용자가 요청한 정보를 제공할 수 있다.FIG. 6 schematically illustrates a state in which the
한편, 스마트미러제공정보를 음성으로 제공할 수 있는 상기 캐릭터는, 사용자의 상기 영상정보에 기초하여 사용자의 모습이 비춰지는 미러(100)의 영역과 겹치지 않는 디스플레이부(600)의 영역에 디스플레이된다. 투과성재질의 미러(100) 및 미러(100)의 후면에 설치되는 디스플레이부(600)를 포함한 스마트미러장치(1000)는, 스마트미러장치(1000)에 접근한 사용자를 비추고, 상기 디스플레이부(600)를 통해 캐릭터를 디스플레이 한다. 본 발명의 스마트미러장치(1000)는 미러(100)에 비춰진 사용자의 모습과 겹치지 않는 디스플레이부(600)의 영역에 캐릭터를 디스플레이한다. 도 6에 도시된 바에 따르면, 사용자가 미러(100)상에서 비춰지는 영역(L1) 및 디스플레이부(600)의 캐릭터표시영역(L2)을 볼 때, 사용자의 모습과 캐릭터가 겹치지 않도록 디스플레이 된 것이 도시된다. 이와 같이, 챗봇인터페이싱부(520)는, 거울의 비춰지는 사용자의 모습과 디스플레이되는 캐릭터가 겹치지 않도록 디스플레이 한다. 구체적으로, 상기 챗봇인터페이싱부(520)는, 상기 영상정보에 기초하여 상기 미러(100)상에서 사용자가 비춰지는 영역을 도출하는 단계(S300); 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부(600)의 캐릭터표시영역을 도출하는 단계(S310); 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계(S320);를 수행한다.On the other hand, the character capable of providing the smart mirror providing information by voice is displayed on the area of the
S300단계에서는, 상기 영상정보에 기초하여 사용자가 미러(100)상에서 비춰지는 영역(L1)을 도출한다.In step S300, based on the image information, the user derives an area L1 that is illuminated on the
S310단계에서는, S300단계에서 도출한 사용자가 미러(100)상에서 비춰지는 영역(L1)에 기초하여 미러(100) 후면에 설치된 디스플레이부(600)와 사용자가 비춰지는 영역 겹치지 않는 상기 디스플레이부(600)의 캐릭터표시영역(L2)을 도출한다.In step S310, the
S320단계에서는, S310단계에서 도출한 캐릭터표시영역(L2)에 캐릭터를 디스플레이 한다.In step S320, the character is displayed in the character display area L2 derived in step S310.
이와 같은 방식으로, 캐릭터를 디스플레이하여 사용자가 요청한 정보를 제공함으로써, 혼자 거주하며 외로움을 느낄수 있는 시니어 계층의 사용자가 캐릭터와 실제로 대화하는 느낌을 받음으로써, 감성적인 충족감을 느낄 수 있는 효과를 발휘할 수 있다.In this way, by displaying the character and providing the information requested by the user, the user of the senior class who can live alone and feel loneliness can actually exert the effect of feeling emotional satisfaction by receiving the feeling of actually interacting with the character. have.
도 7은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)의 수행단계를 개략적으로 도시하고, 도 8은 본 발명의 일 실시예에 따른 챗봇인터페이싱부(520)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.Figure 7 schematically shows the execution steps of the
도 7에 도시된 바에 따르면, 상기 챗봇인터페이싱부(520)는, 상기 디스플레이부(600)에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계(S1000); 상기 마이크부(300)를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계(S1100); 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버(2000)로부터 수신하는 단계(S1200); 및 상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계(S1300);를 수행한다.As illustrated in FIG. 7, the
구체적으로, S1000단계에서는, 상기 챗봇인터페이싱부(520)는, 상기 디스플레이부(600)에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행한다. 상기 질문은 예를 들어, 도 8에 도시된 바와 같은 “오늘 하루는 어떠셨나요?” 혹은 “어제 했던 ooo에 대한 결과는 어떻게 되었나요?” 등과 같이, 일상생활을 묻는 질문이지만 해당 질문을 통해 해당 질문에 대응하는 사용자의 응답에 따라 사용자의 기억력에 대한 상태, 현재 감정에 대한 상태를 진단할 수 있는 질문일 수 있다. 이러한 질문정보는 스마트미러장치(1000)에 저장되어 있을 수도 있고, 서비스서버(2000)로부터 수신하여 업데이트 될 수도 있다.Specifically, in step S1000, the
S1100단계에서는, S1000단계에서 수행한 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신한다. 수신한 음성정보는 서비스서버(2000)에 송신된다.In step S1100, the user's voice information is received in response to the question performed in step S1000. The received voice information is transmitted to the
S1200단계에서는, 응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 서비스서버(2000)로부터 수신한다. 바람직하게는, 서비스서버(2000)는 질문에 대한 사용자의 응답에 포함된 키워드 혹은 사용자의 음성정보의 진폭, 길이, 및 패턴에 따라 사용자의 감정을 판단하는 제1인공신경망(2121)에 의하여 도출된 사용자의 감정정보에 기초하여 기설정된 기준에 따라 사용자에게 제공될 피드백음성정보가 결정될 수 있다. 이러한 피드백음성정보는 서비스서버(2000)의 질문정보에 포함되어 저장되어 있을 수 있고, 질문에 응답한 사용자의 음성정보에 기초하여 기설정된 기준에 따라 저장되어 있는 피드백음성정보 중 해당 응답에 대한 피드백음성정보가 결정될 수도 있다.In step S1200, feedback voice information corresponding to the corresponding response is received from the
S1300단계에서는, 챗봇인터페이싱부(520)는, S1200단계에서 서비스서버(2000)로부터 수신한 피드백음성정보를 상기 캐릭터를 통해 제공한다. 상기 캐릭터는 피드백음성정보에 따라 실제 말하는 듯한 표정 및 입모양이 조절되어 디스플레이부(600)에 디스플레이되고, 스피커를 통해 서비스서버(2000)로부터 수신한 피드백음성정보를 출력한다.In step S1300, the
한편, 본 발명의 서비스서버(2000)는 사용자의 음성정보 및 영상정보에 기초하여 경도인지장애정보 및 감정정보를 도출하고, 도출한 경도인지장애정보 및 감정정보를 스마트미러장치(1000)로 송신할 수 있다. 이에 따라, 바람직하게는, 상기 챗봇인터페이싱부(520)는 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환할 수 있다.On the other hand, the
본 발명의 일 실시예에서, 사용자의 감정정보가 슬픔으로 판단된 경우, 상기 감정정보를 수신한 챗봇인터페이싱부(520)는 보다 다정하고 나긋나긋한 음성모드로 변환할 수 있다. 이러한 음성모드는 감정정보에 따라 복수개의 음성모드를 가질 수 있고, 기설정된 기준에 따라 음성이 변환될 수 있다. 또한, 경도인지장애정보 및 감정정보에 기초하여 사용자가 피드백음성정보를 잘 이해하지 못한다고 판단되는 경우, 제공하는 음성의 속도를 변환시켜 조금 더 느린 속도로 피드백음성정보를 제공할 수 있다. 또한, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터를 변경할 수도 있다.In one embodiment of the present invention, when the user's emotion information is determined to be sad, the
도 8에 도시된 바에 따르면, 스마트미러장치(1000)의 챗봇인터페이싱부(520)에 의하여, 스마트미러장치(1000)의 디스플레이부(600)에 캐릭터가 디스플레이되고, 상기 캐릭터를 통해 사용자에게 질문을 수행한다. 상기 캐릭터는 "오늘 하루는 어떠셨나요?"라고 질문하였고, 사용자는 해당 질문에 대하여 "오늘은 ?일이 있었는데, 그래서 기분이 좀 별로야"라고 대답하고 있다. 이와 같이, 챗봇인터페이싱부(520)는, 이러한 질문에 대한 사용자의 응답을 수신하여 서비스서버(2000)로 송신하고, 서비스서버(2000)로부터 피드백음성정보를 수신하여 사용자에게 피드백음성정보를 제공할 수 있다. 이후, 서비스서버(2000)로 송신된 음성정보는 이후, 후술하는 서비스서버(2000)의 동작에 의하여 사용자의 상태정보를 도출할 수 있다.According to FIG. 8, a character is displayed on the
이와 같은 방식으로 사용자는 스마트미러장치(1000)에 디스플레이되는 캐릭터와 실제로 대화하는 것 같은 느낌을 받음으로써, 외로움과 같은 감정의 결핍이 충족될 수 있고, 스마트미러장치(1000)는 사용자로부터 수집한 사용자의 음성정보를 서비스서버(2000)로 송신하여 사용자의 경도인지장애정보 및 감정정보를 분석할 수 있는 효과를 발휘할 수 있다.In this way, the user can feel the deficiency of emotion, such as loneliness, by receiving the feeling of actually communicating with the character displayed on the
도 9는 본 발명의 일 실시예에 따른 통화모드제공부(530)에 의하여 제공되는 스마트미러장치(1000)의 화면을 개략적으로 도시한다.9 schematically illustrates a screen of the
본 발명의 일 실시예에 따르면 스마트미러장치(1000)의 제어부(500)는, 통화모드제공부(530)를 포함하고, 상기 통화모드제공부(530)는, 사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치(1000)로 송신하여 영상통화를 실행한다. 또한, 보호자의 단말기뿐만 아니라 다른 외부의 단말기와도 같은 방식으로 영상통화를 실행할 수 있다. 사용자가 영상통화에 대한 요청을 하는 경우 혹은 보호자의 단말기로부터 영상통화가 걸려온 경우, 도 9에 도시된 바와 같이, 사용자가 미러(100)에 비추는 영역(L1)과 사용자가 미러(100)에 비추는 영역(L1)과 겹치지 않는 디스플레이부(600)의 영역(L3)에 영상통화를 하는 대상의 모습이 디스플레이되고, 스마트미러장치(1000)가 영상통화모드로 실행될 수 있다. 이와 같이, 사용자는 스마트미러장치(1000)를 통해 영상통화를 할 수 있고, 가족들과 영상통화를 통해 소통할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the
도 10은 본 발명의 일 실시예에 따른 특징정보도출부(2110)의 동작을 개략적으로 도시한다.10 schematically illustrates the operation of the
본 발명의 스마트미러장치(1000)와 통신하는 서비스서버(2000)는, 사용자상태진단부(2100)를 포함하고, 사용자상태진단부(2100)는, 특징정보도출부(2110) 및 경도인지장애정보도출부(2120)를 포함한다. 스마트미러장치(1000)의 마이크부(300)로부터 수신된 사용자의 음성정보는 도 10에 도시된 바와 같이, 특징정보도출부(2110)는, 상기 사용자의 음성정보의 진폭, 길이 및 패턴을 포함하는 음성특징정보를 도출한다. 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보는 경도인지장애정보도출부(2120)로 송신되고, 경도인지장애정보도출부(2120)는 송신된 음성특징정보에 기초하여 경도인지장애정보를 도출할 수 있다. 도출된 경도인지장애정보는 후술하는 사용자상태알림부(2200)에 의하여 기설정된 기준에 따라 사용자의 경도인지장애정보가 보호자의 단말기로 송신될 수 있다.The
도 11은 본 발명의 일 실시예에 따른 특징정보도출부(2110)의 동작을 개략적으로 도시한다.11 schematically illustrates the operation of the
본 발명의 스마트미러장치(1000)와 통신하는 서비스서버(2000)는, 사용자상태진단부(2100)를 포함하고, 사용자상태진단부(2100)는, 특징정보도출부(2110), 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)를 포함한다. 스마트미러장치(1000)의 카메라부(200)로부터 수신된 사용자의 영상정보는 도 11에 도시된 바와 같이, 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다. 상기 영상정보는 사용자의 감정을 인식할 수 있는 안면의 표정변화를 포함하는 사용자에 대한 동적영상 혹은 일정한 주기로 연속되어 기록한 사용자에 대한 복수의 정적영상일 수 있다. 영상정보는 2 이상의 이미지 프레임을 갖는 것을 포함하는 최광의로 해석되어야 할 것이다. 이에 따라, 특징정보도출부(2110)는, 수신한 영상정보를 복수의 프레임으로 분류하고, 각각의 프레임에서 얼굴이미지를 추출한다. 이후, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출한다. 얼굴특징정보는 눈의 기울기, 눈썹의 기울기, 입모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 의미할 수 있고, 이와 같이 도출된 얼굴특징정보들은 경도인지장애정보도출부(2120) 및 감정정보도출부(2130)로 송신되고, 경도인지장애정보도출부(2120)는 송신된 얼굴특징정보에 기초하여 경도인지장애정보를 도출하고, 감정정보도출부(2130)는 송신된 얼굴특징정보에 기초하여 감정정보를 도출한다. 도출된 경도인지장애정보 및 감정정보는 이후, 사용자상태알림부(2200)에 의하여, 기설정된 기준에 따라 보호자의 단말기로 송신될 수 있다.The
도 12는 본 발명의 일 실시예에 따른 경도인지장애정보도출부(2120)의 동작을 개략적으로 도시한다.12 schematically illustrates the operation of the longitudinal cognitive impairment
본 발명의 서비스서버(2000)는 사용자상태진단부(2100)에 포함되는 경도인지장애정보도출부(2120)를 포함하고, 상기 경도인지장애정보도출부(2120)는, 도 12에 도시된 바와 같이 제1인공신경망(2121), 제2인공신경망(2122) 및 종합진단모듈(2123)을 포함하고, 상기 경도인지장애정보도출부(2120)는, 사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망(2121)에 의하여 제1분석결과를 도출하는 단계(S400); 사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망(2122)에 의하여 제2분석결과를 도출하는 단계(S410); 및 상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계(S420);를 수행한다.The
S400단계에서는, 특징정보도출부(2110)로부터 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망(2121)에 의하여 제1분석결과를 도출한다. 상기 진폭, 길이 및 패턴에 기초하여 사용자의 말투를 분석하고, 사용자가 사용한 키워드에 기초하여 사용자의 언어구사능력 등을 분석하여 상기 제1분석결과를 도출할 수 있다.In step S400, the first analysis result is derived by the first artificial
S410단계에서는, 특징정보도출부(2110)로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망(2122)에 의하여 제2분석결과를 도출한다. 사용자의 영상정보에 기초하여 추출된 얼굴이미지로부터 도출된 얼굴특징정보는 눈의 기울기, 눈썹의 기울기, 입모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 의미할 수 있고, 이러한 특징정보에 기초하여 사용자의 표정에 따른 경도인지장애정도를 분석한 상기 제2분석결과를 도출할 수 있다.In step S410, the second analysis result is derived by the second artificial
S420단계에서는, 상기 종합진단모듈(2123)은 상기 S400단계에서 제1인공신경망(2121)에 의하여 음성특징정보에 기초하여 경도인지장애정도를 분석한 제1분석결과 및 상기 S410단계에서 제2인공신경망(2122)에 의하여 얼굴특징정보에 기초하여 경도인지장애정도를 분석한 제2분석결과에 기초하여 경도인지장애정보를 도출한다. 상기 경도인지장애정보는, 예를 들어, 사용자의 경도인지장애정도가 가장 낮을 때를 1로하고, 사용자의 경도인지장애정도가 가장 높을 때를 10으로 하는 것과 같이 점수 혹은 레벨로 도출될 수 있다. 바람직하게는, 종합진단모듈(2123)은, 상기 영상정보 및 상기 음성정보에 대해 어느 정도로 가중치로 경도인지장애정보를 도출할 것인지를 자동으로 조절할 수 있도록 구성할 수도 있고, 이와 같은 가중치에 대해서도 학습하도록 모델을 구성할 수 있다. 즉, 이와 같은 구성에서 스마트미러장치(1000)로부터 수신한 영상정보에서 입모양과 같은 얼굴특징정보를 통해 사용자가 말하는 상태가 아닌 경우 자동으로 영상정보를 좀 더 중요하게 처리하고, 음성정보를 덜 중요하게 처리할 수 있다. 이와 같은 방식으로, 상기 경도인지장애정보도출부(2120)는, 사용자의 음성특징정보 및 얼굴특징정보에 기초하여 경도인지장애정보를 도출할 수 있다.In step S420, the
도 13은 본 발명의 일 실시예에 따른 감정정보도출부(2130)의 동작을 개략적으로 도시한다.13 schematically illustrates the operation of the emotion
본 발명의 서비스서버(2000)는 사용자상태진단부(2100)를 포함되는 감정정보도출부(2130)를 포함하고, 상기 감정정보도출부(2130)는, 도 13의 (a)에 도시된 바와 같이 제3인공신경망(2131)을 포함한다. 상기 감정정보도출부(2130)는, 상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망(2131)에 의하여 감정정보를 도출할 수 있다. 상기 제3인공신경망(2131)은, 얼굴특징정보에 기초하여 사용자의 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 중 1 이상을 포함하는 사용자의 감정정보를 도출한다. 상기 감정정보는 도 13의 (b)에 도시된 바와 같이 상기 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립과 같은 감정에 따른 벡터형태의 데이터 일 수 있다. 도 13의 (b)에 도시된 감정정보는, 분노 0.01, 불쾌 0.00, 두려움 0.00, 행복 72.00, 중립 24.09, 슬픔 0.00, 놀람 3.9로서, 감정정보가 도출되었고, 이러한 감정정보에 기초하여 사용자는 해당 시간의 영상정보에서 행복한 감정을 느끼고 있다고 판단될 수 있다.The
한편, 상기 서비스서버(2000)는 사용자상태알림부(2200)를 포함하고, 상기 사용자상태알림부(2200)는, 상기 경도인지장애정보도출부(2120)가 도출한 경도인지장애정보 및 상기 감정정보도출부(2130)가 도출한 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하는 단계(S500); 도출된 사용자의 상태정보가 기설정된 기준에 해당하는지 여부를 판별하는 단계(S510); 및 상기 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신하는 단계(S520);를 수행한다.On the other hand, the
S500단계에서는, 상기 경도인지장애정보 및 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출한다. 본 발명의 일 실시예에서, 사용자의 경도인지장애정보가 7로 도출되었고, 상기 기설정된 기준은 상기 경도인지장애정보가 5 이상인 경우 혹은 과거의 도출된 경도인지장애정보보다 3 이상의 차이가 나는 경우, 경도인지장애위험상태로 판단하는 것으로 가정할 때, 사용자는 경도인지장애위험상태인 것으로 판단된다. 또한, 상기 감정정보에 포함되는 기쁨, 놀람, 슬픔, 분노, 두려움, 흥미, 스트레스 받음, 공포, 지루함, 쾌적함, 불쾌함, 초조함 및 중립 중 1 이상을 포함하는 감정세부항목 중 해당 벡터값이 가장 큰 감정세부항목을 해당 감정상태로 도출하거나 혹은, 해당 벡터값이 0.5이상인 경우, 해당 감정세부항목을 감정상태로 도출한다고 가정할 때, 도 13의 (b)와 같은 감정정보가 도출된 사용자는 행복의 감정을 느끼고 있다고 판단될 수 있다. 이와 같은 방식으로 사용자의 상태정보가 도출된다.In step S500, the user's status information is derived according to a predetermined criterion based on the mild cognitive impairment information and emotion information. In one embodiment of the present invention, the user's longitudinal cognitive impairment information was derived as 7, and the preset criterion is when the longitudinal cognitive impairment information is 5 or more or when there is a difference of 3 or more than the past derived cognitive impairment information. , Assuming that it is judged as a mild cognitive disability risk condition, the user is judged to be a mild cognitive disability risk condition. In addition, among the emotion details including one or more of joy, surprise, sadness, anger, fear, interest, stress, fear, boredom, comfort, discomfort, anxiety, and neutrality included in the emotion information, the corresponding vector value is the most When it is assumed that a large emotional detail item is derived into the corresponding emotional state, or when the corresponding vector value is 0.5 or more, assuming that the corresponding emotional detail item is derived into an emotional state, the user from whom the emotional information as shown in FIG. 13(b) is derived It can be judged that you are feeling happiness. In this way, the user's status information is derived.
S510단계에서는, S500단계에서 도출된 사용자의 상태정보에 기초하여 사용자의 상태정보가 기설정된 기준에 해당하는지 여부를 판별한다. 본 발명의 일 실시예에서, 상기 기설정된 기준은 사용자의 상태정보가 경도인지장애위험상태이면서, 우울 혹은 슬픔과 같은 감정상태인 경우에는, 보호자의 단말기로 상태정보를 송신하고, 사용자의 상태정보가 경도인지장애위험상태이지만, 행복 혹은 기쁨과 같은 감정상태인 경우에는, 보호자의 단말기로 상태정보를 송신하지 않는다고 가정할 때, 이와 같은 기설정된 기준에 사용자의 상태정보가 해당하는지 여부를 판별한다.In step S510, it is determined whether the user's status information corresponds to a predetermined criterion based on the user's status information derived in step S500. In one embodiment of the present invention, the preset criterion is that when the user's status information is a mild or disability risk condition and an emotional state such as depression or sadness, the status information is transmitted to the guardian's terminal, and the user's status information Is a mild cognitive disability risk condition, but in the case of an emotional state such as happiness or joy, it is determined whether the user's status information corresponds to the predetermined criteria, assuming that the status information is not transmitted to the terminal of the guardian. .
S520단계에서는, 상기 S510단계에서, 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 사용자의 보호자의 단말기로 사용자의 상태정보를 송신한다. 본 발명의 일 실시예에서, 상기 S510단계에서 설명한 기설정된 기준을 적용하면, 사용자의 상태정보가 경도인지장애안전상태 및 슬픔에 해당하는 감정상태인 경우에는, 보호자의 단말기로 사용자의 상태정보가 송신되지 않을 수 있다.In step S520, in step S510, when the user's status information corresponds to a preset criterion, the user's status information is transmitted to the terminal of the user's guardian. In one embodiment of the present invention, when the preset criteria described in step S510 is applied, the user's status information is sent to the terminal of the guardian when the user's status information is a mild cognitive disorder safety state and an emotional state corresponding to sadness. It may not be transmitted.
이와 같은 방식으로, 도출된 사용자의 상태정보를 기설정된 기준에 따라 판단하여, 사용자의 상태를 분석한 결과를 보호자에게 전달하여, 독거하는 시니어 계층의 사용자의 보호자는 함께 거주하지 않더라도 사용자의 상태를 알림 받음으로써, 사용자의 상태에 따라 적절한 조치를 취할 수 있는 효과를 발휘할 수 있다.In this way, the derived user's status information is judged according to a predetermined criterion, and the result of analyzing the user's status is transmitted to the guardian, so that the guardian of the senior senior user who lives alone does not live with the user's status. By receiving the notification, it is possible to exert the effect of taking appropriate action according to the user's condition.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.14 exemplarily shows an internal configuration of a computing device according to an embodiment of the present invention.
도 14에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 스마트미러장치(1000)에 연결된 서비스서버(2000) 혹은 전술한 사용자 단말에 해당될 수 있다.As shown in FIG. 14, the
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 학습된 임베딩모델에 포함하는 그밖에 다양한 데이터를 포함할 수 있다.The
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the
주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 can couple various input/output peripherals to the
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Or, as described above, if necessary, the
이러한 도 14의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 14에 도시된 일부 컴포넌트가 생략되거나, 도 14에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 14에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 14 is only an example of the
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be recorded in a computer readable medium by being implemented in the form of program instructions that can be performed through various computing devices. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed on a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable gate arrays (FPGAs). , A programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configures the processing device to operate as desired, or processes independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if substituted or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (10)
상기 스마트미러장치는,
사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고,
상기 제어부는,
상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별부;
상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱부; 및
보호자의 단말기와 통신을 통해 영상통화를 실행하는, 통화모드제공부;를 포함하고,
상기 서비스서버는,
사용자의 상기 음성정보 및 상기 영상정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출부; 및 사용자의 상기 영상정보에 기초하여 감정정보를 도출하는 감정정보도출부;를 포함하는 사용자상태진단부; 및
상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는 사용자상태알림부;를 포함하고,
상기 챗봇인터페이싱부는,
상기 영상정보에 기초하여 상기 미러상에서 사용자가 비춰지는 영역을 도출하는 단계; 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부의 캐릭터표시영역을 도출하는 단계; 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계;를 수행하고,
상기 챗봇인터페이싱부는,
상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계;
상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계;
응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및
상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 더 수행하고,
상기 경도인지장애정보도출부는,
사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계;
사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및
상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 수행하고,
상기 감정정보도출부는,
상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출하고,
상기 챗봇인터페이싱부는,
상기 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환하는, 스마트미러 챗봇 시스템.
As a smart mirror chatbot system for senior care implemented by a service server that can be accessed by a guardian's terminal and a smart mirror device,
The smart mirror device,
A mirror made of a transparent material that illuminates the user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server.
The control unit,
A user identification unit for operating the smart mirror device by identifying the user based on voice information and video information of a user who intends to operate the smart mirror device;
A chatbot interface unit for performing a conversation with a user through a character displayed on the display unit; And
Includes a call mode providing unit for executing a video call through communication with the guardian's terminal;
The service server,
A longitudinal cognitive disability information deriving unit for deriving longitudinal cognitive disability information based on the user's voice information and the image information; And an emotion information deriving unit that derives emotion information based on the image information of the user. And
It includes; a user status notification unit for transmitting the user's status information derived based on the hardness cognitive impairment information and the emotion information to the terminal of the guardian
The chatbot interface unit,
Deriving an area where a user is projected on the mirror based on the image information; Deriving a character display area of the display unit that does not overlap the area where the user is projected; And displaying the character in the character display area.
The chatbot interface unit,
Performing one or more questions related to diagnosis of mild cognitive impairment through a character displayed on the display unit;
Receiving voice information of a user in response to the question through the microphone unit;
Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And
And providing the feedback voice information through the character.
The longitudinal cognitive disability information extraction unit,
Deriving a first analysis result by a first artificial neural network analyzing a degree of mild cognitive impairment based on voice feature information including amplitude, length and pattern derived based on the user's voice information;
Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And
And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.
The emotion information deriving unit,
Emotion information is derived by a third artificial neural network that analyzes the user's emotion based on the facial feature information derived from the user's image information,
The chatbot interface unit,
Voice and voice of a character that receives the user's mild cognitive impairment information and the emotion information from the service server and provides the feedback voice information according to a preset criterion based on the received mild cognitive impairment information and the emotional information Smart mirror chatbot system to convert the speed of the.
상기 사용자식별부는, 얼굴식별부; 및 음성식별부;를 포함하고,
상기 얼굴식별부는,
사용자의 상기 영상정보에 기초하여 사용자의 얼굴이미지를 추출하는 단계;
기저장된 사용자의 얼굴이미지 및 상기 영상정보로부터 추출한 얼굴이미지를 비교하여 사용자의 얼굴을 판별하는 단계; 및
사용자의 얼굴로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하고,
상기 음성식별부는,
수신한 상기 사용자의 음성정보 및 기저장된 사용자의 음성정보를 비교하여 사용자의 음성을 판별하는 단계; 및
사용자의 음성으로 판별된 경우, 상기 스마트미러장치를 동작시키는 단계;를 수행하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user identification unit, a face identification unit; And a voice identification unit;
The face identification unit,
Extracting a user's face image based on the user's image information;
Determining a user's face by comparing the user's previously stored face image with the face image extracted from the image information; And
If it is determined as the user's face, operating the smart mirror device;
The voice identification unit,
Determining a user's voice by comparing the received user's voice information with a pre-stored user's voice information; And
If it is determined by the user's voice, operating the smart mirror device; performing, smart mirror chatbot system.
상기 챗봇인터페이싱부는,
정보 요청에 대한 사용자의 음성정보에 따라 사용자가 요청한 날씨, 일정 및 뉴스 중 1 이상을 포함하는 스마트미러제공정보를 캐릭터의 형상으로 디스플레이 되는 챗봇을 통해 음성으로 제공하고, 상기 디스플레이부의 표시화면에 해당 정보를 디스플레이하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The chatbot interface unit,
According to the user's voice information for the information request, smart mirror providing information including one or more of the weather, schedule, and news requested by the user is provided by voice through a chatbot displayed in the form of a character, and corresponds to the display screen of the display unit A smart mirror chatbot system that displays information.
상기 통화모드제공부는,
사용자의 음성정보 및 영상정보를 상기 보호자의 단말기로 송신하고, 보호자의 단말기로부터 수신한 보호자음성정보 및 보호자영상정보를 상기 스마트미러장치로 송신하여 영상통화를 실행하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The call mode providing unit,
A smart mirror chatbot system that transmits a user's voice information and video information to the guardian's terminal, and transmits the guardian voice information and the guardian's video information received from the guardian's terminal to the smart mirror device to perform a video call.
상기 사용자상태진단부는, 특징정보도출부;를 더 포함하고,
상기 특징정보도출부는,
상기 사용자의 음성정보의 진폭, 길이 및 패턴에 따라 음성특징정보를 도출하고,
상기 사용자의 영상정보에 기초하여 얼굴이미지를 추출하고, 추출된 얼굴이미지에 기초하여 얼굴특징정보를 도출하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user state diagnosis unit further includes a feature information deriving unit;
The feature information introduction unit,
Deriving voice feature information according to the amplitude, length and pattern of the user's voice information,
A smart mirror chatbot system that extracts a face image based on the user's video information and derives facial feature information based on the extracted face image.
상기 사용자상태알림부는,
사용자의 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 사용자의 상태정보를 도출하고, 도출된 사용자의 상태정보가 기설정된 기준에 해당하는 경우, 상기 보호자의 단말기로 사용자의 상태정보를 송신하는, 스마트미러 챗봇 시스템.
The method according to claim 1,
The user status notification unit,
Based on the user's long-term cognitive impairment information and the emotion information, the user's status information is derived according to a preset criterion, and when the derived user's status information corresponds to a preset criterion, the user's status is transferred to the guardian's terminal A smart mirror chatbot system that transmits information.
상기 스마트미러장치는,
사용자의 모습을 비추는 투과성 재질의 미러; 영상 혹은 정보를 디스플레이하고 상기 미러 후면에 설치되는 디스플레이부; 사운드를 출력하는 스피커부; 사용자의 음성정보를 수집하는 마이크부; 상기 서비스서버 및 상기 보호자의 단말기와 무선적으로 통신을 수행하는 무선통신부; 사용자의 영상정보를 수집하는 카메라부; 및 상기 서비스서버와의 통신을 통해 스마트미러장치의 동작을 제어하는 제어부;를 포함하고,
상기 서비스서버는, 사용자식별부; 챗봇인터페이싱부; 통화모드제공부; 경도인지장애정보도출부; 및 감정정보도출부;를 포함하는 사용자상태진단부; 및 사용자상태알림부;를 포함하고,
상기 사용자식별부에 의하여, 상기 스마트미러장치를 동작시키려는 사용자의 음성정보 및 영상정보에 기초하여 상기 사용자를 식별하여 상기 스마트미러장치를 동작시키는 사용자식별단계;
상기 챗봇인터페이싱부에 의하여, 상기 디스플레이부에 표시되는 캐릭터를 통해 사용자와 대화를 수행하는 챗봇인터페이싱단계;
상기 통화모드제공부에 의하여, 보호자의 단말기와 통신을 통해 음성통화 혹은 영상통화를 제공하는, 통화모드제공단계;
상기 경도인지장애정보도출부에 의하여, 상기 사용자의 음성정보에 대한 특징정보 및 상기 영상정보에 대한 특징정보에 기초하여 경도인지장애정보를 도출하는 경도인지장애정보도출단계; 및 상기 감정정보도출부에 의하여, 상기 사용자의 영상정보에 대한 특징정보에 기초하여 감정정보를 도출하는 감정정보도출단계;를 포함하는 사용자상태진단단계; 및
상기 사용자상태알림부에 의하여, 상기 경도인지장애정보 및 상기 감정정보에 기초하여 도출된 사용자의 상태정보를 보호자의 단말기로 송신하는, 사용자상태알림단계;를 포함하고,
상기 챗봇인터페이싱단계는,
상기 영상정보에 기초하여 상기 미러상에서 사용자가 비춰지는 영역을 도출하는 단계; 상기 사용자가 비춰지는 영역에 겹치지 않는 상기 디스플레이부의 캐릭터표시영역을 도출하는 단계; 및 상기 캐릭터표시영역에 상기 캐릭터를 디스플레이하는 단계;를 포함하고,
상기 챗봇인터페이싱단계는,
상기 디스플레이부에 디스플레이 되는 캐릭터를 통해 경도인지장애 진단과 관련된 1 이상의 질문을 수행하는 단계;
상기 마이크부를 통해 상기 질문에 대응하는 응답에 대한 사용자의 음성정보를 수신하는 단계;
응답에 대한 사용자의 음성정보에 기초하여 해당 응답에 대응되는 피드백음성정보를 상기 서비스서버로부터 수신하는 단계; 및
상기 피드백음성정보를 상기 캐릭터를 통해 제공하는 단계;를 더 포함하고,
상기 경도인지장애정보도출단계는,
사용자의 상기 음성정보에 기초하여 도출된 진폭, 길이 및 패턴을 포함하는 음성특징정보에 기초하여 경도인지장애정도를 분석하는 제1인공신경망에 의하여 제1분석결과를 도출하는 단계;
사용자의 상기 영상정보로부터 도출된 얼굴특징정보에 기초하여 경도인지장애정도를 분석하는 제2인공신경망에 의하여 제2분석결과를 도출하는 단계; 및
상기 제1분석결과 및 상기 제2분석결과에 기초하여 경도인지장애정보를 도출하는 단계;를 포함하고,
상기 감정정보도출단계는,
상기 사용자의 영상정보로부터 도출된 얼굴특징정보에 기초하여 사용자의 감정을 분석하는 제3인공신경망에 의하여 감정정보를 도출하고,
상기 챗봇인터페이싱단계는,
상기 서비스서버로부터 사용자의 상기 경도인지장애정보 및 상기 감정정보를 수신하고, 수신한 상기 경도인지장애정보 및 상기 감정정보에 기초하여 기설정된 기준에 따라 상기 피드백음성정보를 제공하는 캐릭터의 음성 및 음성의 속도를 변환하는, 스마트미러 챗봇 서비스를 제공하는 방법.As a method of providing a smart mirror chatbot service for senior care performed by a service server that can be accessed by the guardian's terminal and the smart mirror device,
The smart mirror device,
A mirror made of a transparent material that illuminates the user's appearance; A display unit that displays an image or information and is installed on the rear side of the mirror; A speaker unit for outputting sound; A microphone unit for collecting voice information of the user; A wireless communication unit wirelessly communicating with the service server and the guardian's terminal; Camera unit for collecting the user's video information; And a control unit for controlling the operation of the smart mirror device through communication with the service server.
The service server includes a user identification unit; Chatbot interface unit; A call mode providing unit; Mild Cognitive Disability Information Derivation Unit And an emotion information deriving unit; And a user status notification unit;
A user identification step of identifying the user based on voice information and video information of a user who wants to operate the smart mirror device by the user identification unit and operating the smart mirror device;
A chatbot interfacing step of performing a conversation with the user through a character displayed on the display unit by the chatbot interfacing unit;
A call mode providing step of providing a voice call or a video call through communication with a terminal of the guardian by the call mode providing unit;
A long-term cognitive disability information deriving step of deriving long-term cognitive disability information based on feature information on the user's voice information and feature information on the video information by the long-term cognitive disability information deriving unit; And an emotion information deriving step of deriving emotion information based on the feature information on the user's image information by the emotion information deriving unit. And
Including, by the user status notification unit, the user status notification step of transmitting the user's status information derived on the basis of the hardness cognitive impairment information and the emotion information to the terminal of the guardian,
The chatbot interfacing step,
Deriving an area in which the user is projected on the mirror based on the image information; Deriving a character display area of the display unit that does not overlap the area where the user is projected; And displaying the character in the character display area.
The chatbot interfacing step,
Performing one or more questions related to diagnosis of mild cognitive impairment through a character displayed on the display unit;
Receiving voice information of a user in response to the question through the microphone unit;
Receiving feedback voice information corresponding to the corresponding response from the service server based on the user's voice information for the response; And
And providing the feedback voice information through the character.
The longitudinal cognitive disability information extraction step,
Deriving a first analysis result by a first artificial neural network analyzing a degree of mild cognitive impairment based on voice feature information including amplitude, length and pattern derived based on the user's voice information;
Deriving a second analysis result by a second artificial neural network analyzing the degree of mild cognitive impairment based on the facial feature information derived from the image information of the user; And
And deriving longitudinal cognitive impairment information based on the first analysis result and the second analysis result.
The emotion information deriving step,
Emotion information is derived by a third artificial neural network that analyzes the user's emotion based on the facial feature information derived from the user's image information,
The chatbot interfacing step,
Voice and voice of a character that receives the user's mild cognitive impairment information and the emotion information from the service server and provides the feedback voice information according to a preset criterion based on the received mild cognitive impairment information and the emotional information How to provide a smart mirror chatbot service, to transform the speed of the.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190166549A KR102118585B1 (en) | 2019-12-13 | 2019-12-13 | Smart Mirror Chatbot System and Method for Senior Care |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190166549A KR102118585B1 (en) | 2019-12-13 | 2019-12-13 | Smart Mirror Chatbot System and Method for Senior Care |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102118585B1 true KR102118585B1 (en) | 2020-06-03 |
Family
ID=71087604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190166549A KR102118585B1 (en) | 2019-12-13 | 2019-12-13 | Smart Mirror Chatbot System and Method for Senior Care |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102118585B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102230493B1 (en) * | 2020-08-20 | 2021-03-23 | 주식회사 씨디에스 | O2O-based no-no care system and Operation method of the Same |
KR102331335B1 (en) * | 2021-07-13 | 2021-12-01 | 주식회사 로퓨라 | Vulnerable person care robot and its control method |
KR20220050302A (en) * | 2020-10-15 | 2022-04-25 | (주)에픽랩 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
KR20220055311A (en) * | 2020-10-26 | 2022-05-03 | (주)신라시스템 | Measurement system for non-contact body and recognition condition with kiosk |
KR102399304B1 (en) | 2022-03-08 | 2022-05-19 | 주식회사 삼마아이씨티 | 3D Image-Based Gait And Motion Imaging Inspection System Through smart Mirror |
WO2022158689A1 (en) * | 2021-01-22 | 2022-07-28 | 가톨릭대학교 산학협력단 | System for analyzing clinical connection of subjective pain through voice analysis for preliminary questionnaire |
KR102432250B1 (en) * | 2021-12-16 | 2022-08-12 | 가천대학교 산학협력단 | The System that Provides Care Chatbot |
KR20220122870A (en) * | 2021-02-26 | 2022-09-05 | 한국광기술원 | Smart mirror |
KR102551617B1 (en) | 2022-09-26 | 2023-07-06 | 주식회사 에스엠메이커스 | Smart mirror system capable of extracting and reproducing people without background |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101849955B1 (en) * | 2016-10-11 | 2018-04-19 | (주)유미테크 | Convalescence care system using smart mirror |
JP2018152810A (en) * | 2017-03-15 | 2018-09-27 | 株式会社日立製作所 | Communication system and communication control device |
KR20180111197A (en) * | 2017-03-31 | 2018-10-11 | 삼성전자주식회사 | Information providing method and electronic device supporting the same |
KR20190073118A (en) * | 2017-12-18 | 2019-06-26 | (주)휴레이포지티브 | Monitoring Robot for health care of user |
KR101998881B1 (en) * | 2018-05-03 | 2019-07-10 | 주식회사 에프티에치코리아 | Old man dementia prevention and safety management system |
-
2019
- 2019-12-13 KR KR1020190166549A patent/KR102118585B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101849955B1 (en) * | 2016-10-11 | 2018-04-19 | (주)유미테크 | Convalescence care system using smart mirror |
JP2018152810A (en) * | 2017-03-15 | 2018-09-27 | 株式会社日立製作所 | Communication system and communication control device |
KR20180111197A (en) * | 2017-03-31 | 2018-10-11 | 삼성전자주식회사 | Information providing method and electronic device supporting the same |
KR20190073118A (en) * | 2017-12-18 | 2019-06-26 | (주)휴레이포지티브 | Monitoring Robot for health care of user |
KR101998881B1 (en) * | 2018-05-03 | 2019-07-10 | 주식회사 에프티에치코리아 | Old man dementia prevention and safety management system |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102230493B1 (en) * | 2020-08-20 | 2021-03-23 | 주식회사 씨디에스 | O2O-based no-no care system and Operation method of the Same |
KR102493280B1 (en) * | 2020-10-15 | 2023-02-01 | (주)에픽랩 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
KR20220050302A (en) * | 2020-10-15 | 2022-04-25 | (주)에픽랩 | Server and method for generating artificial intelligence character using user data, and healthcare method using the same |
KR20220055311A (en) * | 2020-10-26 | 2022-05-03 | (주)신라시스템 | Measurement system for non-contact body and recognition condition with kiosk |
KR102496971B1 (en) * | 2020-10-26 | 2023-02-08 | (주)신라시스템 | Measurement system for non-contact body and recognition condition with kiosk |
WO2022158689A1 (en) * | 2021-01-22 | 2022-07-28 | 가톨릭대학교 산학협력단 | System for analyzing clinical connection of subjective pain through voice analysis for preliminary questionnaire |
KR20220106574A (en) * | 2021-01-22 | 2022-07-29 | 가톨릭대학교 산학협력단 | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview |
KR102522172B1 (en) * | 2021-01-22 | 2023-04-14 | 가톨릭대학교 산학협력단 | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview |
KR20220122870A (en) * | 2021-02-26 | 2022-09-05 | 한국광기술원 | Smart mirror |
KR102513289B1 (en) * | 2021-02-26 | 2023-03-24 | 한국광기술원 | Smart mirror |
KR102331335B1 (en) * | 2021-07-13 | 2021-12-01 | 주식회사 로퓨라 | Vulnerable person care robot and its control method |
KR102432250B1 (en) * | 2021-12-16 | 2022-08-12 | 가천대학교 산학협력단 | The System that Provides Care Chatbot |
KR102399304B1 (en) | 2022-03-08 | 2022-05-19 | 주식회사 삼마아이씨티 | 3D Image-Based Gait And Motion Imaging Inspection System Through smart Mirror |
KR102551617B1 (en) | 2022-09-26 | 2023-07-06 | 주식회사 에스엠메이커스 | Smart mirror system capable of extracting and reproducing people without background |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102118585B1 (en) | Smart Mirror Chatbot System and Method for Senior Care | |
CN111788621B (en) | Personal virtual digital assistant | |
CN107894833B (en) | Multi-modal interaction processing method and system based on virtual human | |
Xu | First encounter with robot Alpha: How individual differences interact with vocal and kinetic cues in users’ social responses | |
KR102363794B1 (en) | Information providing method and electronic device supporting the same | |
JP6992870B2 (en) | Information processing systems, control methods, and programs | |
JP2021529382A (en) | Systems and methods for mental health assessment | |
CN116312526A (en) | Natural assistant interaction | |
KR102448382B1 (en) | Electronic device for providing image related with text and operation method thereof | |
US20070074114A1 (en) | Automated dialogue interface | |
US10813584B2 (en) | Assessing adherence fidelity to behavioral interventions using interactivity and natural language processing | |
JP2021514514A (en) | Affective computing Sensitive interaction systems, devices and methods based on user interfaces | |
WO2016080553A1 (en) | Learning robot, learning robot system, and learning robot program | |
Griol et al. | Mobile conversational agents for context-aware care applications | |
CN109272994A (en) | Speech data processing method and the electronic device for supporting the speech data processing method | |
JP2018024058A (en) | Customer service device, customer service method, and customer service system | |
KR102200816B1 (en) | Method and system for provding mental health self-management using face image | |
Furey et al. | Alexa, emotions, privacy and GDPR | |
Griol et al. | Modeling the user state for context-aware spoken interaction in ambient assisted living | |
EP3699811A1 (en) | Machine-implemented beauty assistant for predicting face aging | |
KR20220126658A (en) | AI(artificial intelligence) chatbot smart mirror | |
WO2020175969A1 (en) | Emotion recognition apparatus and emotion recognition method | |
Patil et al. | Artificial intelligence chat bot for counselling therapy | |
KR20210150988A (en) | Apparatus and method for acquiring of vitality quotient | |
Schultz et al. | Acceptance of Digital Voice Assistants for Grocery Shopping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |