KR102009844B1 - Facial expression recognition device and management service server for dementia patient using the same - Google Patents

Facial expression recognition device and management service server for dementia patient using the same Download PDF

Info

Publication number
KR102009844B1
KR102009844B1 KR1020180014724A KR20180014724A KR102009844B1 KR 102009844 B1 KR102009844 B1 KR 102009844B1 KR 1020180014724 A KR1020180014724 A KR 1020180014724A KR 20180014724 A KR20180014724 A KR 20180014724A KR 102009844 B1 KR102009844 B1 KR 102009844B1
Authority
KR
South Korea
Prior art keywords
user
information
data
image
content
Prior art date
Application number
KR1020180014724A
Other languages
Korean (ko)
Inventor
박섭형
김병정
탁민호
이종준
김희준
김보균
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020180014724A priority Critical patent/KR102009844B1/en
Application granted granted Critical
Publication of KR102009844B1 publication Critical patent/KR102009844B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G06K9/00268
    • G06K9/00302
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2800/00Detection or diagnosis of diseases
    • G01N2800/28Neurological disorders
    • G01N2800/2814Dementia; Cognitive disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

A server for providing a management service for a dementia patient according to an embodiment of the present invention may include: a communication part which receives terminal state information and the facial image of a user from a user terminal, and transmits a login result performed based on the received facial image to the user terminal; a storage part which stores a result of processing the information received from the user terminal, an image analysis program for analyzing the face image of the user, and user identification information; and a control part which performs user the log-in determination of the user and emotion determination based on the received facial image of the user, and determines at least one of an emergency situation and a necessity of function limitation based on the received terminal state information, and controls the specific function of the user terminal according to the determination result. The availability of a mobile device can be improved by providing contents which the dementia patient prefers.

Description

표정 인식 장치 및 이를 이용한 치매환자 관리서비스 서버{FACIAL EXPRESSION RECOGNITION DEVICE AND MANAGEMENT SERVICE SERVER FOR DEMENTIA PATIENT USING THE SAME}Facial expression recognition device and dementia patient management service server using the same {{FACIAL EXPRESSION RECOGNITION DEVICE AND MANAGEMENT SERVICE SERVER FOR DEMENTIA PATIENT USING THE SAME}

본 발명은 표정 인식 장치 및 이를 이용한 치매환자용 관리서비스 서버에 관한 것이다. 보다 상세하게는 본 발명은 치매 환자가 사용하는 단말기로부터 수신되는 안면 촬영 정보를 기반으로 치매환자의 감정을 판단하며, 위험 상황을 관리하고 치매환자의 재활을 돕는 시스템에 관한 것이다. The present invention relates to a facial recognition apparatus and a management service server for dementia patients using the same. More specifically, the present invention relates to a system for determining the feelings of dementia patients based on facial imaging information received from a terminal used by a dementia patient, managing a risk situation, and helping rehabilitation of dementia patients.

최근 의료 기술이 발달하면서 인류의 수명이 연장되고 노령 인구의 수가 급증하고 있다. 다가오는 미래에는 더욱 노령인구가 급증할 것으로 예상되며, 고령자 증가에 대한 대비가 절실한 상황이다. Recent advances in medical technology have prolonged the life span of humankind and rapidly increasing the number of older people. The elderly population is expected to increase more rapidly in the coming future, and it is urgently prepared for the increase in the elderly.

노인 인구의 비중이 급속히 증가하면서 노인층에서 발생하는 만성 질환도 증가하고 있다. 특히 치매는 인지 능력의 감소를 동반하는 질환으로 일상생활이나 사회생활에 커다란 장애 요인이 되고 있어 중요한 사회 문제로 등장하고 있다. As the proportion of the elderly population rises rapidly, chronic diseases in the elderly also increase. In particular, dementia is a disease accompanied by a decrease in cognitive ability, which is a major obstacle to daily life and social life, and has emerged as an important social problem.

집에서 거주가 가능한 초기 치매 환자는 어느 정도 일상생활이 가능하지만, 때때로 밖에 있는 가족에게 전화를 거는 방법을 잊어 불편을 호소하는 경우가 있다. 이와 같이 치매 환자들에게 기본적인 일상생활을 도와주는 기기가 큰 도움이 될 수 있다. 또한 치매 환자들을 대항으로 한 음악 치료, 회상 치료, 인지 훈련 등과 같은 집에서도 가능한 비약물적 치료 기법에 대한 관심이 많아지면서, 가정 또는 요양 시설에서 개인별 비약물 치료를 시행하는 경우도 증가하고 있다. 그러나 여전히 치매 환자들을 돌볼 수 있는 시설이나 인력이 부족한 것은 물론이고 이에 소요되는 예산도 매우 부족한 형편이다. 아울러, 비약물 치료를 지원하는 콘텐츠 제공과 함께 치매환자의 일상 생활을 도와주는 모바일 지원 시스템 또한 매우 부족하다. Early dementia patients who can live at home can have some daily life, but sometimes they forget to call their family outside to complain. In this way, devices that help people with dementia basic daily life can be a great help. In addition, as interest in non-pharmaceutical treatment techniques such as music therapy, recall therapy, and cognitive training against dementia patients is increasing, there is an increasing number of individual non-drug treatments in homes or nursing homes. However, there is still a lack of facilities and manpower to care for people with dementia as well as a very low budget. In addition, there is also a lack of a mobile support system that provides content to support non-drug treatments and help people with dementia daily lives.

한편 치매와 관련된 데이터 처리 시스템에 대한 선행기술로는 공개특허공보 10-2016-0001164(치매 예방을 위한 데이터 처리 장치 및 이를 이용한 데이터 처리 방법)이 있다. Meanwhile, the prior art of the data processing system related to dementia is disclosed in Korean Patent Laid-Open Publication No. 10-2016-0001164 (a data processing apparatus for preventing dementia and a data processing method using the same).

본 발명은 치매환자의 표정을 인식함을 통해 치매환자의 선호도를 파악하여, 치매환자가 선호하는 콘텐츠를 제공하는 방식으로 모바일 디바이스 활용성을 높이고, 그와 동시에 치매환자의 비약물적 치료를 지원하기 위해 고안되었다. The present invention is to identify the dementia patient's preferences by recognizing the facial expression of the dementia patient, to increase the usability of the mobile device by providing the content preferred by the dementia patient, and at the same time to support the non-drug treatment of dementia patients Designed for

본 발명의 실시 예에 따른 치매환자 관리 서비스를 제공하는 서버는 사용자 단말기로부터 단말기 상태 정보 및 사용자의 안면 촬영 영상을 수신하고, 상기 수신한 안면 촬영 영상을 기반으로 수행된 로그인 결과를 사용자 단말기로 전송하는 통신부, 사용자 단말기로부터 수신한 정보를 처리한 결과와, 사용자 안면 촬영 영상을 분석하기 위한 영상 분석 프로그램 및 사용자 식별용 정보를 저장하는 저장부 및 상기 수신한 사용자의 안면 촬영 영상을 기반으로 해당 사용자의 로그인 결정 및 감정 판단을 수행하고, 상기 수신한 단말기 상태 정보에 기반하여 비상 상황 여부 또는 기능 제한 필요성 중 적어도 하나를 판단하고, 판단 결과에 따라 사용자 단말기의 특정 기능을 제어하는 제어부를 포함할 수 있다. The server for providing a dementia patient management service according to an embodiment of the present invention receives terminal state information and a facial image of a user from a user terminal, and transmits a login result performed based on the received facial image to a user terminal. The user based on the communication unit, a result of processing the information received from the user terminal, an image analysis program for analyzing the user's face photographed image, a storage unit for storing user identification information, and a face photographed image of the user. The controller may perform a log-in decision and an emotional determination of the terminal, determine at least one of an emergency situation or a necessity of function limitation based on the received terminal state information, and control a specific function of the user terminal according to the determination result. have.

본 발명의 다양한 실시 예는 치매환자가 모바일 디바이스를 보다 용이하게 사용할 수 있도록 도울 수 있다. 특히 본 발명은 치매환자가 모바일 디바이스에서 직접 아이디와 패스워드를 입력하지 않더라도 안면 영상을 촬영하는 것만으로도 로그인이 되도록 지원할 수 있다. Various embodiments of the present disclosure may help dementia patients to use mobile devices more easily. In particular, the present invention can support a dementia patient to log in just by photographing a facial image even without inputting an ID and password directly on the mobile device.

또한 본 발명의 다양한 실시 예는 치매환자가 모바일 디바이스에서 본인의 가족 사진을 기반으로 한 퀴즈를 이용하여 인지 훈련을 수행할 수 있게 한다In addition, various embodiments of the present invention allows dementia patients to perform cognitive training using a quiz based on their family photo on a mobile device.

또한 본 발명의 다양한 실시 예는 치매환자의 얼굴 영상을 분석하여 치매환자가 시청하는 멀티미디어 콘텐츠 각각에 대한 선호 정보를 자동으로 분석하고 판단하여 치매 환자가 선호하는 콘텐츠 위주로 재생할 수 있도록 돕는다. In addition, various embodiments of the present invention analyze the face image of the dementia patient to automatically analyze and determine preference information for each multimedia content viewed by the dementia patient, so that the dementia patient can play the content prefered.

도 1은 본 발명의 실시 예에 따른 치매환자 관리서비스를 제공하는 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 치매환자 관리서비스를 제공하는 서버 100의 구성을 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 사용자 단말기에서 사용자의 안면을 이용한 로그인 과정을 도시한 순서도이다.
도 5는 본 발명의 실시 예에 따른 사용자 안면 정보를 기반으로 선호도 정보를 산출하는 과정에 대한 순서도이다.
도 6은 본 발명의 실시 예에 따른 훈련용 콘텐츠의 예를 도시한 도면이다.
도 7 내지 도 8은 본 발명의 실시 예에 따른 비상 상황에서의 신호 흐름 체계를 도시한 도면이다.
도 9는 본 발명의 실시 예에 따른 알림 서비스의 예를 도시하는 도면이다.
도 10은 본 발명의 실시 예에 따른 안면 영상 분석을 위한 전처리 단계의 순서를 도시한 도면이다.
도 11는 본 발명의 실시 예에 따른 사용자 영상 분석부의 영상 분석 과정에 제안된 AlexNet 모델의 구조를 설명하기 위한 도면이다.
도 12는 본 발명의 실시 예에 따른 Facial Action Coding System의 예시를 도시하는 도면이다.
도 13은 본 발명의 실시 예에 따라, pre-trained model을 이용하여 fixed feature를 추출하는 과정을 도시하고 있다.
도 14은 본 발명의 실시 예에 따른 특징별 AU 인식 정확도를 도시하고 있다.
도 15은 본 발명의 실시 예에 따른 imageNet Data를 이용해 사전훈련(pre-trained)된 모델에서의 transfer learning 에 대하여 도시한 도면이다.
도 16 은 본 발명의 실시 예에 따른 Bvlc alexnet 모델의 구조를 도시한 도면이다.
도 17은 본 발명의 실시 예에 따른 Android tensorflow inference library 개발현황을 도시하는 도면이다.
도 18는 본 발명의 실시 예에 따른 Android tensorflow inference library 의 구조에 대하여 도시한 도면이다.
도 19은 본 발명의 실시 예에 따라 Python에서 개발한 얼굴 표정 인식 모델을 안드로이드에 적용시키는 과정을 도시한 도면이다.
도 20는 본 발명의 실시 예에 따라 특정 사용자 이미지 정보를 통해 표정을 인식하는 동작의 예시를 도시하는 도면이다.
1 is a view showing a schematic configuration of a system for providing a dementia patient management service according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a server 100 that provides a dementia patient management service according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a user terminal according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a login process using a face of a user in a user terminal according to an exemplary embodiment of the present invention.
5 is a flowchart illustrating a process of calculating preference information based on user facial information according to an exemplary embodiment of the present invention.
6 is a diagram illustrating an example of training content according to an embodiment of the present invention.
7 to 8 are diagrams illustrating a signal flow system in an emergency according to an embodiment of the present invention.
9 is a diagram illustrating an example of a notification service according to an embodiment of the present invention.
10 is a diagram illustrating a sequence of preprocessing steps for facial image analysis according to an exemplary embodiment of the present invention.
11 is a view for explaining the structure of the AlexNet model proposed in the image analysis process of the user image analysis unit according to an embodiment of the present invention.
12 is a diagram illustrating an example of a Facial Action Coding System according to an embodiment of the present invention.
13 illustrates a process of extracting a fixed feature using a pre-trained model according to an embodiment of the present invention.
14 illustrates AU recognition accuracy for each feature according to an embodiment of the present invention.
FIG. 15 illustrates transfer learning in a model that is pre-trained using imageNet Data according to an embodiment of the present invention.
16 is a diagram illustrating a structure of a Bvlc alexnet model according to an embodiment of the present invention.
17 is a diagram illustrating the development status of the Android tensorflow inference library according to an embodiment of the present invention.
18 is a diagram illustrating the structure of an Android tensorflow inference library according to an embodiment of the present invention.
19 is a diagram illustrating a process of applying a facial expression recognition model developed in Python to Android according to an embodiment of the present invention.
20 is a diagram illustrating an example of an operation of recognizing an expression through specific user image information according to an exemplary embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

또한, 본 명세서에서, 디바이스는 게이트웨이(gateway)에 연결되어 IoT(Internet of Things)에 적용되는 일반적인 장치(또는 사물)일 수 있다. 예를 들어, 디바이스는, 무선 호출기, 스마트폰, 태블릿 PC, 컴퓨터, 온도 센서, 습도 센서, 음향 센서, 모션 센서, 근접 센서, 가스 감지 센서, 열 감지 센서, 냉장고, CCTV, TV, 세탁기, 제습기, 전등, 화재 경보기 등을 포함할 수 있다. 그러나, 이에 제한되지 않는다.Also, in the present specification, the device may be a general apparatus (or thing) connected to a gateway and applied to the Internet of Things (IoT). For example, the device may be a wireless pager, smartphone, tablet PC, computer, temperature sensor, humidity sensor, acoustic sensor, motion sensor, proximity sensor, gas sensor, heat sensor, refrigerator, CCTV, TV, washing machine, dehumidifier , Lights, fire alarms, and the like. However, this is not limitative.

또한, 본 명세서에서 디바이스(device)는 기기 또는 장치와 혼용될 수 있으며, 디바이스, 기기 및 장치는 동일한 표현으로 기재되어 있을 수 있다.In addition, a device may be used interchangeably with a device or a device in the present specification, and the device, the device, and the device may be described in the same expression.

또한, 본 명세서에서, 서비스(service)는 디바이스에서 수행할 수 있는 다양한 서비스를 포함할 수 있다. 서비스는 서버 또는 타 디바이스와의 통신에 기초한 서비스, 디바이스 내에서 동작 가능한 서비스를 포함할 수 있다. 본 개시에 적용되는 서비스는 본 개시에 예로서 기재된 서비스 이외에도 디바이스에서 수행할 수 있는 다양한 서비스들을 포함하는 넓은 개념으로 이해함이 바람직하다.Also, in the present specification, a service may include various services that can be performed by a device. The service may include a service based on communication with a server or another device, and a service operable in the device. The service applied to the present disclosure is preferably understood as a broad concept including various services that can be performed in the device in addition to the services described as examples in the present disclosure.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 실시 예에 따른 치매환자 관리서비스를 제공하는 시스템의 개략적인 구성을 도시한 도면이다. 1 is a view showing a schematic configuration of a system for providing a dementia patient management service according to an embodiment of the present invention.

치매환자 관리서비스 어플리케이션을 지원하는 서버 100는 상기 어플리케이션을 사용하는 사용자 단말기 200와 통신하고 사용자 단말기 200로부터 필요한 상태 정보를 수신할 수 있다. 그리고 상기 서버 100는 연산 결과에 대한 정보를 상기 사용자 단말기 200에 제공하여 일부 기능을 제어할 수 있다. 그리고 상기 사용자 단말기는 보호자 단말기 400 및 주거 공간 300 내 사물인터넷이 가능한 주변 장치 301와 통신할 수 있다. 상기 서버 100는 위급한 상황이라고 판단되는 때에, 의료기관 501측에 호출하는 기능을 수행할 수 있다.  The server 100 supporting the dementia patient management service application may communicate with the user terminal 200 using the application and receive necessary state information from the user terminal 200. In addition, the server 100 may provide some information on the operation result to the user terminal 200 to control some functions. The user terminal may communicate with the guardian terminal 400 and the peripheral device 301 capable of the IoT in the living space 300. When it is determined that the server 100 is in an emergency situation, the server 100 may perform a function of calling the medical institution 501.

도 2는 본 발명의 실시 예에 따른 치매환자 관리서비스를 제공하는 서버 100의 구성을 도시한 블록도이다. 2 is a block diagram illustrating a configuration of a server 100 that provides a dementia patient management service according to an exemplary embodiment of the present invention.

상기 서버 100는 통신부 110, 저장부 120, 제어부 130를 포함하여 구성될 수 있다. 상기 저장부 120는 기본 제공 콘텐츠 121, 콘텐츠 선호 정보 122, 재활 콘텐츠 123, 기관 연락처 124, 영상 분석 프로그램 및 데이터 125를 저장할 수 있다. 그리고 상기 제어부 130는 음성인식 처리부 131, 사용자 영상 분석부 132, 상황 정보 분석부 133, 맞춤 콘텐츠 정보 제공부 134, 비상 판단부 135 및 재활 훈련부 136을 포함하여 구성될 수 있다. The server 100 may include a communication unit 110, a storage unit 120, and a controller 130. The storage unit 120 may store basic content 121, content preference information 122, rehabilitation content 123, institution contact 124, image analysis program, and data 125. The controller 130 may include a voice recognition processor 131, a user image analyzer 132, a situation information analyzer 133, a customized content information provider 134, an emergency determiner 135, and a rehabilitation trainer 136.

먼저, 상기 통신부 110는 사용자 디바이스와 서버 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.First, the communication unit 110 may use a network for data transmission and reception between a user device and a server, and the type of the network is not particularly limited. The network may be, for example, an IP (Internet Protocol) network providing a transmission / reception service of a large amount of data through an Internet protocol (IP), or an All IP network integrating different IP networks. The network may include a wired network, a wireless broadband network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network, and a long term evolution (LTE) network, LTE advanced (LTE-A). ), Or one of a mobile communication network including 5G (Five Generation), a satellite communication network, and a Wi-Fi network, or a combination of at least one of them.

본 발명의 실시 예에 따른 상기 통신부 110는 사용자 단말기에서 전송하는 사용자 정보 및 사용자 단말기의 상태 정보를 수신할 수 있다. 또한 상기 통신부 110는 본 발명의 실시 예에 따라 사용자의 회원 정보를 판단하기 위해 ID와 비밀번호를 대신하여 사용될 사용자의 안면 촬영 영상을 수신할 수 있다. 또한 상기 통신부 110는 본 발명의 실시 예에 따라 사용자의 거주 장소에 설치된 사물인터넷 기능을 지원하는 주변장치로부터 각 장치의 상태 정보(예, 오픈 유무, 사용량, 동작 시간 등)를 수신할 수 있고 각 장치를 직접 제어하기 위한 신호를 전송할 수도 있다. 또한 상기 통신부 110는 본 발명의 실시 예에 따라 사용자(치매 환자)가 비상 상황에 노출되어 있다는 제어부의 판단하에 의료기관 또는 보호자를 호출하기 위한 통신 기능을 수행할 수 있다. 그 외에도 상기 통신부 110는 인터넷을 통하여 웹 서버로부터 필요한 자료(멀티미디어 콘텐츠, 재활 콘텐츠, 의료기관 연락처, 의료기관의 지리정보 등)를 수신할 수 있다. The communication unit 110 according to an embodiment of the present invention may receive user information transmitted from a user terminal and state information of the user terminal. In addition, the communication unit 110 may receive a face-photographed image of the user to be used in place of the ID and password in order to determine the member information of the user according to an embodiment of the present invention. In addition, the communication unit 110 may receive the state information of each device (eg, whether there is open, usage, operating time, etc.) from the peripheral device supporting the IoT function installed in the user's living place according to an embodiment of the present invention. It is also possible to send signals for direct control of the device. In addition, the communication unit 110 may perform a communication function for calling a medical institution or a guardian under the judgment of the controller that the user (dementia patient) is exposed to an emergency situation. In addition, the communication unit 110 may receive necessary materials (multimedia content, rehabilitation content, medical institution contact information, geographic information of a medical institution, etc.) from a web server through the Internet.

상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.The storage unit 120 may include, for example, an internal memory or an external memory. The internal memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (for example, OTPROM (one). time programmable ROM (PROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash), hard drives, Or it may include at least one of a solid state drive (SSD).

외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory may be a flash drive such as compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (XD), It may further include a multi-media card (MMC) or a memory stick. The external memory may be functionally and / or physically connected to the electronic device through various interfaces.

본 발명의 실시 예에 따른 상기 저장부 120는 기본 제공 콘텐츠 121, 콘텐츠 선호 정보 122, 재활 콘텐츠 123, 기관 연락처 124, 영상 분석 프로그램 및 데이터 125를 포함하여 저장할 수 있다. 먼저 상기 기본 제공 콘텐츠 121는 치매환자 관리서비스를 제공하는 어플리케이션에 기본적으로 제공되는 멀티미디어 콘텐츠를 의미할 수 있다. 상기 기본 제공 콘텐츠 121는 예컨대, 간병인이 사용자(치매환자)의 주의를 집중시키기 위한 목적으로 재생될 수 있다. 이에 따라 치매환자를 돌보는 간병인은 환자의 주의를 일시적으로 콘텐츠 시청에 집중시키고 별도의 필요 용무를 수행할 수 있게 된다. 상기 기본 제공 콘텐츠 121는 TV프로그램, 뮤직비디오, 영화, 애니메이션, 음악 등으로 구성될 수 있다. 그러나 본 발명의 다양한 실시 예에 따라 사용자에게 제공되는 멀티미디어 콘텐츠는 상기 기본 제공 콘텐츠 121에 제한되지 않으며, 사용자 단말기 200에 기 저장된 멀티미디어 콘텐츠가 어플리케이션 상에서 선택 및 실행될 수 있다. According to an embodiment of the present disclosure, the storage unit 120 may store basic content 121, content preference information 122, rehabilitation content 123, institution contact 124, image analysis program, and data 125. First, the basic content 121 may refer to multimedia content basically provided to an application for providing a management service for dementia patients. The basic content 121 may be reproduced for the purpose of focusing attention of a user (dementia patient), for example. As a result, caregivers caring for dementia patients will be able to temporarily focus their attention on viewing content and perform separate tasks. The basic content 121 may be composed of a TV program, a music video, a movie, animation, music, and the like. However, according to various embodiments of the present disclosure, the multimedia content provided to the user is not limited to the basic content 121, and the multimedia content previously stored in the user terminal 200 may be selected and executed on the application.

상기 콘텐츠 선호 정보 122는 사용자 단말기로부터 수신된 사용자 안면 촬영 영상에 기반하여 재생중인 콘텐츠에 대한 사용자의 감정 상태를 평가한 결과에 대한 정보를 의미한다. 이에 따라 상기 콘텐츠 선호 정보 122는 사용자의 콘텐츠 별 선호도 및 콘텐츠의 장르, 주제별 선호도에 관한 정보를 포함할 수 있다. 추후 상기 콘텐츠 선호 정보 122는 사용자 단말기에 실행 가능한 콘텐츠 리스트를 제공할 시, 사용자의 선호도 순서에 따라 콘텐츠를 정렬하기 위해 사용될 수 있다.  The content preference information 122 refers to information on a result of evaluating the emotional state of the user with respect to the content being played based on the user's facial image received from the user terminal. Accordingly, the content preference information 122 may include information about a preference of each user, a genre of the content, and a preference of each topic. The content preference information 122 may be used to sort the contents according to the preference order of the user when providing a list of executable contents to the user terminal.

상기 재활 콘텐츠 123는 사용자(치매환자)의 재활을 목적으로 마련된 콘텐츠를 의미할 수 있다. 상기 재활 콘텐츠 123는 예컨대, 사용자의 인지 능력을 훈련시키기 위한 학습자료 및 게임(예, 기억력 게임) 등이 포함될 수 있다. 또한 상기 재활 콘텐츠 123에는 주변 인물들에 대한 사진으로 구성된 퀴즈자료가 포함될 수 있다. 주변 인물 사진은 예컨대, 보호자에 의해 사용자 단말기로부터 업로드될 수 있다. The rehabilitation content 123 may refer to content prepared for rehabilitation of a user (dementia patient). The rehabilitation content 123 may include, for example, learning materials and games (eg, memory games) for training the cognitive ability of the user. In addition, the rehabilitation content 123 may include a quiz material consisting of a picture of the surrounding people. Nearby portraits may be uploaded from the user terminal, for example, by a guardian.

기관 연락처 124는 사용자의 상태가 위급하다고 판단되어 의료기관을 호출할 경우 참조될 수 있다. 상기 기관 연락처 124는 의료기관의 연락처 뿐 아니라, 의료기관의 주소 정보를 포함할 수도 있다. 또한 상기 기관 연락처 124는 의료기관 뿐 아니라, 경찰서, 소방서 등의 각종 기관에 대한 연락처를 포함할 수 있다. 이에 따라 비상 상황이 발생되면 관련 기관으로 자동으로 비상 상황에 대한 정보 및 치매환자가 휴대하고 있는 사용자 단말기 200의 위치 정보 및 이동 경로 정보를 제공할 수 있다. 다양한 실시 예에 따라 상기 기관 연락처 124 중 경찰서 연락처로 긴급 상황에 대한 호출이 수행되면(예, 사용자 실종 판단에 의한 경찰서 도움 요청), 경찰서 측으로부터 실종자를 촬영할만한 CCTV 위치 정보 또는 CCTV 촬영 정보를 상기 통신부 110를 통해 수신할 수 있다. The institution contact 124 may be referred to when calling the medical institution because it is determined that the user's condition is an emergency. The institution contact 124 may include the address of the medical institution as well as the contact information of the medical institution. In addition, the institution contact 124 may include contact information for various organizations such as a police station and a fire station, as well as a medical institution. Accordingly, when an emergency situation occurs, information on the emergency situation and location information and movement path information of the user terminal 200 carried by the dementia patient may be automatically provided to the relevant institution. According to various embodiments of the present disclosure, when a call to an emergency situation is made to a police station contact of the agency contact 124 (eg, requesting help of a police station based on a user's disappearance determination), the police station is reminded of CCTV location information or CCTV photographing information for shooting a missing person. It may receive through the communication unit 110.

본 발명의 실시 예에 따른 상기 영상 분석 프로그램 및 데이터 125는 인공지능에 기반하여, 사용자의 안면 촬영 영상으로부터 사용자를 식별(로그인 정보 판단) 및 사용자의 표정 및 감정 식별을 수행할 수 있다. 상기 영상 분석 프로그램은예컨대, 구글의 TensorFlow와 합성곱 신경망(Convolutional Neural Network, CNN), extended Cohn-Kanade(CK+) dataset을 이용하여 사용자의 표정을 판단할 수 있다. 상기 CK+ dataset는 'Image, Emotion, labels, Facial Action Coding System(FACS) labels, Landmarks'의 4가지 데이터군으로 분류되며, 본 발명의 실시 예에 따른 표정 인식 기능에는 얼굴 영상이 포함된 Image 데이터와 영상의 감정 라벨이 포함된 Emotion labels, 해부학적으로 가능한 모든 얼굴 표정의 변화를 코드화시킨 FACS labels 데이터가 사용될 수 있다. Image 데이터는 123명의 사람으로부터 593개의 표정 영상을 촬영하여 프레임 단위로 추출, 제공하는 이미지 데이터이며 각 표정 데이터는 평소의 자연스러운 표정으로부터 특정한 표정을 짓는 순간까지 포함될 수 있다. The image analysis program and the data 125 according to an embodiment of the present invention may identify the user (determining login information) and facial expression and emotion of the user based on artificial intelligence based on artificial intelligence. The image analysis program may determine, for example, the expression of the user using Google's TensorFlow, Convolutional Neural Network (CNN), and extended Cohn-Kanade (CK +) dataset. The CK + dataset is classified into four data groups: 'Image, Emotion, labels, Facial Action Coding System (FACS) labels, Landmarks', and the facial recognition function according to an embodiment of the present invention includes image data including a face image. Emotion labels containing the image's emotional labels, and FACS labels data encoding all anatomically possible facial expression changes can be used. Image data is image data that is taken and provided in units of frames by capturing 593 facial expression images from 123 people. Each facial expression data may be included from a normal natural expression to a moment of making a specific facial expression.

Emotion labels 데이터는 총 593개의 표정 영상 중 327개의 표정 영상에 대해 어떠한 표정을 지은 것인지 분류한 데이터일 수 있다. 감정 연구원의 육안 검사로 확인된 FACS investigators Guide를 참고하여 유효성이 입증된 327개의 영상을 선별하고, 각 영상에 해당하는 images 데이터의 마지막 피크 프레임으로부터 emotion 이 분류될 수 있는데, 분류 결과는 하나의 텍스트 파일 안에 분류된 emotion 에 해당하는 0부터 7사이의 숫자(i.e. 0=nuetral, 1=anger, 2=contempt, 3=disgust, 4=fear, 5=happy, 6=sadness, 7=surprise)의 형태를 취할 수 있다. 그러나 분류 결과는 상기 7가지로 제한되지 않으며, 보다 더 다양한 항목으로 분류될 수 있다. Emotion labels data may be data that classifies what expressions are made on 327 facial expression images out of a total of 593 facial expression images. Based on the FACS investigators Guide confirmed by the visual inspection of the emotion researcher, 327 images that have been validated can be selected and emotion can be classified from the last peak frame of the image data corresponding to each image. A number between 0 and 7 (ie 0 = nuetral, 1 = anger, 2 = contempt, 3 = disgust, 4 = fear, 5 = happy, 6 = sadness, 7 = surprise) corresponding to an emotion classified in the file Can be taken. However, the classification result is not limited to the above seven and may be classified into more various items.

사용자의 얼굴 표정을 인식하는 동작과 관련하여서 사용자 영상 분석부 132 설명에서 보다 자세히 후술하기로 한다. The operation of recognizing a facial expression of a user will be described later in more detail with reference to the user image analyzer 132.

상기 제어부 130는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. The controller 130 may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, or the like. On the other hand, the control unit may be implemented by hardware (hardware) or firmware (firmware), software, or a combination thereof.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above. The software code may be stored in a memory and driven by the controller. The memory may be located inside or outside the user terminal and the server, and may exchange data with the controller by various known means.

본 발명의 실시 예에 따른 상기 제어부 130는 음성 인식 처리부 131, 사용자 영상 분석부 132, 상황 정보 분석부 133, 맞춤 콘텐츠 정보 제공부 134, 비상 판단부 135, 재활 훈련부 136를 포함할 수 있다. According to an embodiment of the present disclosure, the controller 130 may include a voice recognition processor 131, a user image analyzer 132, a context information analyzer 133, a customized content information provider 134, an emergency determiner 135, and a rehabilitation trainer 136.

먼저 음성인식 처리부 131는 어플리케이션이 실행된 상태에서 입력되는 사용자 음성을 인식하고 관련 기능을 처리할 수 있다. 예컨대, 사용자가 치매환자 관리서비스 어플리케이션 상에서 특정 멀티미디어 콘텐츠를 재생해달라는 요청을 음성으로 입력하면 상기 음성 인식 처리부 131는 해당 음성 명령을 인식하고 음성 명령 내 콘텐츠 명을 추출할 수 있다. 이후 상기 제어부 130는 상기 음성인식 처리부 131에서 번역한 명령을 기반으로 사용자에게 제공할 기능을 판단하고 해당 기능을 제공하도록 제어할 수 있다. First, the voice recognition processor 131 may recognize a user voice input while an application is executed and process a related function. For example, when a user inputs a request to play a specific multimedia content on a dementia patient management service application by voice, the voice recognition processor 131 may recognize a corresponding voice command and extract a content name in the voice command. Thereafter, the controller 130 may determine a function to be provided to the user based on the command translated by the voice recognition processor 131 and control to provide the corresponding function.

다양한 실시 예에 따라 상기 제어부 130는 상기 음성인식 처리부 131에서 처리된 결과를 기반으로 하여, 사용자가 기 설정된 횟수 이상 빈번하게 요청하는 음성 명령을 키워드 중심으로 지정하고 관리할 수 있다. 상기 제어부 130는 사용자로부터 빈번하게 요청되는 콘텐츠 또는 특정 기능(예, 일기예보 요청, DMB 재생 등)에 대한 정보를 저장하고, 자주 실행되는 콘텐츠에 대하여 가점을 매겨 콘텐츠 선호 정보 122를 업데이트할 수 있다. 또한 제어부 130는 자주 실행되는 특정 기능에 대하여 추후 실행 여부를 자동으로 묻는 서비스를 제공할 수 있다. 예컨대, 최근 1주일동안 기 설정된 횟수 이상 실행된 특정 기능에 대하여, 제어부 130는 해당 기능을 사용자 관심 기능으로 분류할 수 있다. 그리고 상기 제어부 130는, 사용자 관심 기능이 주로 실행되는 시간 정보를 분석하여, 일정 시간대에 해당 기능이 재생된 이력이 있으면, 동일 시간대에, 음성으로 'OO 기능을 실행할까요'와 같이 사용자에게 음성 안내를 제공할 수 있다. According to various embodiments of the present disclosure, the controller 130 may designate and manage a voice command frequently requested by a user more than a predetermined number of times based on a result processed by the voice recognition processor 131. The controller 130 may store information on a content or a specific function (eg, a weather forecast request, DMB playback, etc.) frequently requested by a user, and update the content preference information 122 by adding points to frequently executed content. . In addition, the controller 130 may provide a service for automatically asking whether to execute a specific function that is frequently executed. For example, for a specific function executed more than a preset number of times in the last week, the controller 130 may classify the function as a user interest function. The controller 130 analyzes time information on which the user's interest function is mainly executed, and if there is a history of playing the corresponding function at a predetermined time period, the controller 130 provides voice guidance to the user, such as 'will execute the OO function' by voice in the same time zone. Can be provided.

상기 사용자 영상 분석부 132는 표정 인식 장치로서, 상기 영상 분석 프로그램 125를 이용하여 사용자 안면 촬영 영상으로부터 사용자 표정 및 감정 상태에 대한 정보를 얻어낼 수 있다. 상기 사용자 영상 분석부 132는 수집된 사용자 얼굴 영상 정보를 평가하는 것에 대하여 주로 기술하나, 상기 사용자 영상 분석부 132는 사용자 얼굴 영상 정보로부터 원하는 정보를 추출하기 위해 필요한 학습과정 또한 수행할 수 있다. The user image analyzer 132 may use the image analysis program 125 to obtain information about a user's facial expression and emotion state from the user's facial image by using the image analysis program 125. Although the user image analyzer 132 mainly describes evaluating collected user face image information, the user image analyzer 132 may also perform a learning process necessary to extract desired information from the user face image information.

본 발명의 실시 예에 다른 상기 사용자 영상 분석부 132는 사용자 안면 촬영 영상이 멀티미디어 콘텐츠 재생 중에 촬영된 영상인 경우, 실행중인 멀티미디어 콘텐츠의 정보(장르, 주제, 제목 등)과 해당 콘텐츠를 시청하는 동안의 사용자의 감정 상태에 대하여 판단할 수 있고 이를 기반으로 사용자의 특정 콘텐츠에 대한 선호도 정보를 산출할 수 있다. 이와 같은 방식으로 산출된 콘텐츠 선호 정보는 저장부 120에 저장되고, 추후 사용자 감정 상태가 추가 분석됨에 따라 업데이트될 수 있다.According to an embodiment of the present disclosure, the user image analyzer 132 may be configured to view information (genre, subject, title, etc.) of the multimedia content being executed and the corresponding content when the user's face photographed image is a video captured while playing the multimedia content. It is possible to determine the emotional state of the user of the user can be calculated based on the preference information for the specific content of the user. The content preference information calculated in this manner may be stored in the storage 120 and updated as the user emotional state is further analyzed.

상기 사용자 영상 분석부 132에서 사용자의 얼굴 표정을 인식하는 동작은 대략 다음과 같이 수행될 수 있다. 상기 사용자 영상 분석부 132는 사용자의 얼굴 표정을 인식하기 위해, 수신되는 사용자 안면 촬영 영상을 TensorFlow와 CNN 모델에 맞게 변형하는 전처리 동작을 수행할 수 있다. 데이터 전처리 동작은 도 10에서 도시되는 순서에 의해 수행될 수 있다. The operation of recognizing the facial expression of the user in the user image analyzer 132 may be performed as follows. The user image analyzer 132 may perform a preprocessing operation of transforming a received face image of a user according to a TensorFlow and a CNN model to recognize a facial expression of a user. The data preprocessing operation may be performed in the order shown in FIG. 10.

도 10은 본 발명의 실시 예에 따른 안면 영상 분석을 위한 전처리 단계의 순서를 도시한 도면이다. 10 is a diagram illustrating a sequence of preprocessing steps for facial image analysis according to an exemplary embodiment of the present invention.

사용자 영상 분석부 132는 데이터를 관리하고 처리하기 쉽도록 emotion label이 있는 이미지 데이터 327개를 선별, 표정이 변하기 전인 첫 번째 프레임을 neutral로, 표정이 확실하게 드러난 마지막 세 프레임을 emotion label에 맞는 표정으로 구분한 후, 표정별로 이미지 데이터를 나누는 동작을 수행할 수 있다. 이후 상기 사용자 영상 분석부 132는 데이터의 쓸모없는 부분을 제거하고 인식률을 높이기 위해 RGB 영상을 gray 영상으로 변환하고, OpenCV의 haarcascade face detection을 이용하여, 사람의 얼굴 부분을 찾아 적당한 크기(255x255)로 영상을 고정하여 저장할 수 있다. 이 때, 상기 사용자 영상 분석부 132는 부족한 데이터를 양을 늘리기 위해 영상을 좌우로 반전시켜 데이터를 늘리고, 영상을 임의로 섞는 동작을 수행할 수 있다. 이에 따라 훈련과정에서 과적합이 일찍 발생하지 않도록 예방할 수 있다. 또한 상기 사용자 영상 분석부 132는 훈련용 데이터와 평가용 데이터를 따로 분리, 저장하는데, 이는 인식 성능을 객관적으로 평가할 수 있도록 하기 위함이다. The user image analysis unit 132 selects 327 image data with an emotion label for easy management and processing of data, and neutralizes the first frame before the expression changes, and expresses the last three frames where the expression is clearly expressed according to the emotion label. After dividing into, the image data may be divided by facial expressions. The user image analyzer 132 then converts the RGB image to a gray image to remove useless portions of the data and improves the recognition rate, and finds a human face using an haarcascade face detection of OpenCV to a suitable size (255x255). You can freeze and save the video. In this case, the user image analyzer 132 may invert the image left and right to increase the amount of data and increase the data and randomly mix the images. This prevents overfitting early in the training process. In addition, the user image analyzer 132 separates and stores training data and evaluation data separately, so that the recognition performance can be objectively evaluated.

저장된 이미지의 데이터 형식은 TensorFlow에서 제공되는 high level api 'tensorflow.contrib.learn'의 요구에 맞게 변형되며, 그 형식은 다음의 표와 같이 구성될 수 있다. The data format of the saved image is modified to meet the requirements of the high level api 'tensorflow.contrib.learn' provided by TensorFlow, and the format can be configured as the following table.

데이터 종류Data type 데이터 형식Data format training datatraining data float32float32 eval dataeval data float32float32 training labelstraining labels int32int32 eval labelseval labels int32int32

그리고 상기 사용자 영상 분석부 132는 모델을 훈련시키고 평가하기 전에 저장된 데이터를 불러와 마지막 전처리 과정을 거치게 되는데, 이 때 예컨대, 데이터를 0에서 1 사이로 정규화 시켜주고, 부족한 데이터양을 더욱 늘리기 위해 255x255 크기의 영상에서 224x224 크기의 영상을 중복되지 않게 무작위로 추출하는 selective random 기법이 적용될 수 있다. 이후 상기 사용자 영상 분석부 132는 데이터를 1차원 배열로 펼쳐 설계가 끝난 모델에 입력하고, 훈련 및 평가를 시작할 수 있다. The user image analyzer 132 loads the stored data before training and evaluating the model and performs a final preprocessing process. At this time, for example, the data is normalized from 0 to 1, and the size of the data is 255x255 to further increase the amount of data. A selective random technique may be applied to randomly extract a 224x224 size image from a non-overlapping image. Thereafter, the user image analyzer 132 may unfold the data into a one-dimensional array, input the data into a model for designing, and start training and evaluation.

상기 사용자 영상 분석부 132는 전처리 과정 이후 모델링(예, AlexNet 모델 구조 기반)과정을 거쳐 입력된 데이터들의 특징을 추출할 수 있다. The user image analyzer 132 may extract features of the input data after a preprocessing process and modeling (eg, based on AlexNet model structure).

도 11는 본 발명의 실시 예에 따른 사용자 영상 분석부의 영상 분석 과정에 제안된 AlexNet 모델의 구조를 설명하기 위한 도면이다. 11 is a view for explaining the structure of the AlexNet model proposed in the image analysis process of the user image analysis unit according to an embodiment of the present invention.

도 11를 참조하여, AlexNet 모델의 연산 과정은 크게 두 가지로 나눠 설명할 수 있다. 첫 번째는 입력 데이터로부터 5번의 convolution 연산 과정을 거쳐 256개의 특징을 추출하는 과정이고, 두 번째는 추출된 특징을 이용하여 full connect 연산 과정을 거쳐 데이터를 분류하는 과정이다.Referring to FIG. 11, the calculation process of the AlexNet model can be divided into two types. The first is to extract 256 features from the input data through five convolution operations, and the second is to classify the data through the full connect operation using the extracted features.

모델에 전처리 과정을 거쳐 1차원 배열로 펼쳐진 224x224 크기의 이미지가 데이터로 입력되면, 11x11의 크기와 4의 stride를 가진 96개 커널과 합성곱 연산을 거칠 수 있다. 이렇게 첫 번째 합성곱 층을 지나게 되면 55x55x96 크기의 영상이 출력되고, 이는 다시 5x5의 크기와 1의 stride를 가진 256개 커널과 합성곱 연산을 하게 된다. 사용자 영상 분석부 132는 이를 반복하여 마지막 다섯 번째 합성곱 층과 max-pooling 층을 지나는 동작 이후 6x6 크기의 256가지 특징을 얻을 수 있다. If a 224x224 sized image is pre-processed into a model and the image is expanded into a one-dimensional array, 96 kernels of size 11x11 and stride of 4 can be combined with the composite product. After passing the first convolutional layer, the 55x55x96 image is output, which is then combined with 256 kernels of 5x5 size and 1 stride. The user image analyzer 132 may repeat this operation to obtain 256 features of 6x6 size after the operation of passing the last fifth composite product layer and the max-pooling layer.

사용자 영상 분석부 132는 추출된 특징은 세 번의 dense 층과 두 번의 dropout 층을 거쳐 데이터를 분류할 수 있다. 이 때 모델을 훈련시키는 경우엔 softmax cross entropy를 통해 에러를 수정하고, 평가하는 경우엔 softmax 함수과 argmax 함수를 통해 분류된 (예측)값을 확인할 수 있다.The user image analyzer 132 may classify the extracted data through three dense layers and two dropout layers. In the case of training the model, the error can be corrected through softmax cross entropy, and in the case of evaluation, the classified (predicted) values can be checked through the softmax and argmax functions.

본 발명의 실시 예에 따라 모델 설계 과정에는 총 세 가지 부류의 모델이 사용될 수 있다. 첫 번째는 CK+ dataset을 이용하여 직접 훈련시킨 모델이고, 두 번째는 Action Unit Selective 기법을 적용시킨 모델, 마지막은 방대한 양의 ImageNet data를 통해 사전 훈련된 pre-trained 모델이다.According to an embodiment of the present invention, three kinds of models may be used in the model design process. The first is a model trained directly using the CK + dataset, the second is the model using the Action Unit Selective technique, and the last is a pre-trained model pre-trained with a large amount of ImageNet data.

첫 번째로, CK+ dataset을 이용하여 직접 훈련시킨 모델은 모델의 성능을 확인하기 위해 8가지 얼굴 표정(neutral, angry, contempt, disgust, fear, happy, sadness, surprise)을 인식하는 경우와 6가지 얼굴 표정(angry, disgust, fear, happy, sadness, surprise)을 인식하는 경우로 나누어 진행될 수 있다. 본 발명의 실시 예에 따라 사용자 영상 분석부 132는 모델의 성능을 높이기 위해 데이터 세트나 패치 설정을 변경하는 등 훈련 방식에 변화를 주면서 추가의 실험 동작을 행할 수 있다. 8가지 얼굴 표정을 인식하는 모델에 대해 훈련 방식의 변화에 따른 평가 정확도를 체크한 결과는 다음의 표 2에서 제시되는 바와 같이 산출될 수 있다.First, the model trained directly using the CK + dataset recognizes eight facial expressions (neutral, angry, contempt, disgust, fear, happy, sadness, surprise) and six faces to verify the performance of the model. It can be divided into cases of recognizing facial expressions (angry, disgust, fear, happy, sadness, surprise). According to an exemplary embodiment of the present invention, the user image analyzer 132 may perform an additional experimental operation while changing a training method such as changing a data set or a patch setting in order to improve the performance of the model. The result of checking the evaluation accuracy according to the change of the training method for the model for recognizing the eight facial expressions may be calculated as shown in Table 2 below.

input
size
input
size
reversereverse random
opt
random
opt
batch
size
batch
size
stepssteps total
step
total
step
stopping
step
stopping
step
accuracyaccuracy lossloss overfitoverfit
224x224224 x 224 xx normalnormal 2020 58x15058 x 150 58x150x1658 x 150 x 16 25.00k25.00k 0.75370.7537 1.321.32 10.00k10.00k 224x224224 x 224 xx normalnormal 2020 58x15058 x 150 58x150x1658 x 150 x 16 35.00k35.00k 0.75370.7537 1.231.23 9.00k9.00k 224x224224 x 224 xx normalnormal 2020 58x15058 x 150 58x150x1658 x 150 x 16 22.00k22.00k 0.76110.7611 1.071.07 10.00k10.00k 224x224224 x 224 oo normalnormal 2020 117x50117 x 50 117x50x16117 x 50 x 16 24.00k24.00k 0.71260.7126 1.181.18 10.00k10.00k 224x224224 x 224 oo normalnormal 2020 117117 117x16x10117 x 16 x 10 18.72k18.72k 0.77980.7798 0.690.69 16.00k16.00k 224x224224 x 224 oo normalnormal 2020 117117 117x36x56117 x 36 x 56 235.87k235.87k 0.82080.8208 1.561.56 10.00k10.00k 224x224224 x 224 oo fullfull 2020 117117 117x160117 x 160 18.72k18.72k 0.77610.7761 0.510.51 xx 224x224224 x 224 oo selectiveselective 2020 117117 117x160117 x 160 18.72k18.72k 0.79470.7947 0.440.44 xx 224x224224 x 224 oo selectiveselective 2020 117117 117x300117 x 300 35.10k35.10k 0.81340.8134 0.830.83 16.00k16.00k 224x224224 x 224 oo selectiveselective 2020 117117 117x200117 x 200 23.40k23.40k 0.80220.8022 0.650.65 16.00k16.00k 224x224224 x 224 oo selectiveselective 2020 117117 117x276117 x 276 32.29k32.29k 0.81340.8134 0.750.75 20.00k20.00k 224x224224 x 224 oo selectiveselective 2020 117117 117x200117 x 200 23.40k23.40k 0.80970.8097 0.510.51 xx 224x224224 x 224 oo selectiveselective 2020 117117 117x200117 x 200 23.40k23.40k 0.80590.8059 0.450.45 xx 224x224224 x 224 oo selectiveselective 2020 117117 117x200117 x 200 23.40k23.40k 0.79850.7985 0.520.52 xx

본 발명의 실시 예에 따른 사용자 영상 분석부 132는 입력 데이터에 reverse 데이터를 추가하고 selective random 기법을 적용하여 데이터의 양을 수배로 늘려 정확도를 높일 수 있다. The user image analyzer 132 according to an embodiment of the present invention may increase the accuracy by adding reverse data to the input data and applying a selective random technique to increase the amount of data by several times.

입력 데이터에 reverse 데이터를 추가하고 selective random 기법을 적용하였을 때의 8가지 얼굴 표정을 인식하는 모델과 6가지 얼굴 표정을 인식하는 모델을 평가하여 그 결과를 confusion table로 작성, 각 표정별 정확도를 확인한 결과는 다음과 같다. By adding reverse data to the input data and evaluating the models that recognize the eight facial expressions and the six facial expressions when the selective random technique is applied, the results are written in a confusion table and the accuracy of each facial expression is verified. The result is as follows.

NeutralNeutral AngryAngry ContemptContempt DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise NeutralNeutral 0.92420.9242 00 00 00 0.01510.0151 0.06060.0606 00 00 AngryAngry 0.35710.3571 0.42850.4285 00 00 00 00 0.21420.2142 00 ContemptContempt 0.33330.3333 00 0.16660.1666 00 00 0.16660.1666 00 0.33330.3333 DisgustDisgust 0.13880.1388 00 00 0.86110.8611 00 00 00 00 FearFear 00 00 0.250.25 00 0.750.75 00 00 00 HappyHappy 00 00 00 00 00 1One 00 00 SadnessSadness 0.33330.3333 0.33330.3333 0.11110.1111 00 00 00 0.22220.2222 00 SurpriseSurprise 00 00 00 00 00 00 00 1One

상기 [표 3]은 8가지 얼굴 표정 인식 모델의 confusion table을 나타낸다. (입력 이미지 크기 224x224)Table 3 shows a confusion table of eight facial expression recognition models. (Input image size 224x224)

AngryAngry DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise AngryAngry 0.78570.7857 00 00 00 0.21420.2142 00 DisgustDisgust 00 1One 00 00 00 00 FearFear 00 00 1One 00 00 00 HappyHappy 00 00 00 1One 00 00 SadnessSadness 0.72220.7222 00 00 00 0.27770.2777 00 SurpriseSurprise 00 00 00 00 00 1One

상기 [표 4]는 6가지 얼굴 표정 인식 모델의 confusion table를 나타낸다. (입력 이미지 크기 224x224)Table 4 shows a confusion table of six facial expression recognition models. (Input image size 224x224)

NeutralNeutral AngryAngry ContemptContempt DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise NeutralNeutral 0.92420.9242 00 00 0.03030.0303 0.04540.0454 00 00 00 AngryAngry 0.64280.6428 0.28570.2857 00 00 00 00 0.07140.0714 00 ContemptContempt 0.33330.3333 00 0.50.5 00 0.16660.1666 00 00 00 DisgustDisgust 0.38880.3888 00 00 0.61110.6111 00 00 00 00 FearFear 00 00 0.250.25 00 0.750.75 00 00 00 HappyHappy 00 00 00 00 00 1One 00 00 SadnessSadness 0.50.5 00 0.05550.0555 00 00 00 0.44440.4444 00 SurpriseSurprise 00 00 00 00 00 00 00 1One

상기 [표 5]는 8가지 얼굴 표정 인식 모델의 confusion table를 나타낸다. (입력 이미지 크기 112x112)Table 5 shows a confusion table of eight facial expression recognition models. (Input image size 112x112)

AngryAngry DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise AngryAngry 0.60710.6071 0.07140.0714 0.10710.1071 00 0.21420.2142 00 DisgustDisgust 00 1One 00 00 00 00 FearFear 00 00 1One 00 00 00 HappyHappy 00 00 00 1One 00 00 SadnessSadness 0.27770.2777 00 00 00 0.72220.7222 00 SurpriseSurprise 00 00 00 00 00 1One

상기 [표 6]은 6가지 얼굴 표정 인식 모델의 confusion table 을 나타낸다. (입력 이미지 크기 112x112)Table 6 shows a confusion table of six facial expression recognition models. (Input image size 112x112)

제시한 confusion table에 따르면, 본 발명의 실시 예에 따른 사용자 영상 분석부 132는 8가지 얼굴 표정의 경우 약 80%의 정확도를, 6가지 얼굴 표정의 경우 약 90%의 정확도를 산출할 수 있다. According to the presented confusion table, the user image analyzer 132 according to an embodiment of the present invention may calculate about 80% accuracy for eight facial expressions and about 90% accuracy for six facial expressions.

두 번째로, 본 발명의 실시 예에 따른 사용자 영상 분석부 132는 Action unit selective(AUS) 기법을 적용시킨 모델을 활용할 수 있다. Second, the user image analyzer 132 according to an embodiment of the present invention may utilize a model to which an action unit selective (AUS) technique is applied.

Action unit(AU)은 Paul Ekman과 Wallace V. Friesen이 개발한 Facial Action Coding System(FACS)에서 등장하는 개념이다. FACS은 해부학적으로 가능한 모든 얼굴 근육의 움직임을 AU으로 코드화하여 분류한 시스템으로, 얼굴 표정으로부터 감정을 읽어내는 수많은 연구에 기반이 되고 있다. Action unit (AU) is a concept in the Facial Action Coding System (FACS) developed by Paul Ekman and Wallace V. Friesen. FACS is a system that encodes and classifies all anatomically possible facial muscle movements into AUs, and is based on numerous studies that read emotions from facial expressions.

도 12는 본 발명의 실시 예에 따른 Facial Action Coding System의 예시를 도시하는 도면이다. 12 is a diagram illustrating an example of a Facial Action Coding System according to an embodiment of the present invention.

AUS 기법의 개발 순서는 다음과 같다. 먼저 CK+ dataset에서 emotion label이 포함된 images 데이터와 FACS labels 데이터를 뽑아내고 FACS labels 데이터를 모두 확인하여 AU별 등장 횟수를 카운팅, 가장 많은 등장 횟수를 지닌 AU 9개를 선별한다.The development sequence of the AUS technique is as follows. First, images data including emotion labels and FACS labels data are extracted from the CK + dataset, and all FACS labels data is checked.

AngryAngry ContemptContempt DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise TotalTotal AU0AU0 00 00 00 00 00 00 00 00 AU1AU1 00 1One 1One 2222 00 2626 8181 131131 AU2AU2 00 1One 00 1010 00 77 8181 9999 AU3AU3 00 00 00 00 00 00 00 00 AU4AU4 4040 1One 3636 2121 00 2323 1One 122122 AU5AU5 66 00 00 1616 00 00 7070 9292 AU6AU6 88 00 1818 33 6666 00 00 9595 AU7AU7 3232 00 3333 66 77 1One 00 7979 AU8AU8 00 00 00 00 00 00 00 00 AU9AU9 33 00 5858 00 00 00 00 6161 AU10AU10 22 00 77 44 00 00 22 1515 AU11AU11 00 00 00 22 00 00 00 22 AU12AU12 1One 55 22 22 6767 00 33 8080 AU13AU13 00 00 00 00 22 00 00 22 AU14AU14 77 1717 22 55 00 00 1One 3232 AU15AU15 33 44 22 00 00 2323 1One 3333 AU16AU16 1One 00 00 44 44 00 33 1212 AU17AU17 3939 55 4040 33 00 2727 00 114114 AU18AU18 44 00 00 00 00 22 00 66 AU19AU19 00 00 00 00 00 00 00 00 AU20AU20 00 00 00 2525 1One 00 1One 2727 AU21AU21 00 00 00 1One 00 00 00 1One AU22AU22 00 00 00 00 00 00 00 00 AU23AU23 3636 1One 22 00 00 33 1One 4343 AU24AU24 3333 22 77 00 00 1One 00 4343 AU25AU25 00 00 99 2323 6767 00 8282 181181 ......

상기 표 7은 9가지 AU 선별 테이블이며, 각 표정별 AU 등장 회수를 도시하고 있다. Table 7 shows nine AU screening tables and shows the number of appearances of AU for each facial expression.

사용자 영상 분석부 132는 AU 선별이 끝나면 선별된 AU별로 AU이 포함된 이미지와 포함되지 않은 이미지로 데이터(emtion labeled image)를 분류하고 pre-trained model을 이용하여 AU 이진 분류기를 구성할 수 있다. pre-trained model은 많은 양의 데이터를 이용하여 사전 훈련된 model로 부족한 데이터양을 보완하고 고정된 특징을 추출할 수 있어 얼굴 표정의 특징과 AU을 이용하는 AUS 방법에 적합하다. After the AU screening is finished, the user image analyzer 132 may classify the data into images including AUs and images not including the AUs for each of the selected AUs, and configure the AU binary classifier using a pre-trained model. The pre-trained model is a pre-trained model that uses a large amount of data to compensate for the lack of data and extract fixed features, which is suitable for facial features and AUS method using AU.

도 13은 본 발명의 실시 예에 따라, pre-trained model을 이용하여 fixed feature를 추출하는 과정을 도시하고 있다. 13 illustrates a process of extracting a fixed feature using a pre-trained model according to an embodiment of the present invention.

본 발명의 실시 예에 따른 사용자 영상 분석부 132는 구성한 AU 이진 분류기에 pre-trained model을 이용하여 추출한 256개의 특징을 번갈아가며 대입하고, 각 특징별 AU 이진 분류기의 정확도를 확인할 수 있다. 사용자 영상 분석부 132는 AUS 기법 수행 시, 얼굴 근육의 변화, 즉, 공간 정보를 활용하는 것으로 fully-connected layer 전 6x6 크기의 256개 feature maps 정보를 feature로 활용할 수 있다. 다음의 표 8은 AU 선별이 끝난 후 처리 과정을 유사 코드로 작성한 것이다.The user image analyzer 132 according to an embodiment of the present invention alternately substitutes 256 features extracted by using a pre-trained model into the configured AU binary classifier and checks the accuracy of the AU binary classifier for each feature. When performing the AUS technique, the user image analyzer 132 utilizes changes in facial muscles, that is, spatial information, and may utilize 256 feature maps of 6x6 size before the fully-connected layer as a feature. Table 8 below shows the process after pseudo AU screening with pseudo code.

# Initialize
Images, AU_labels = CK_plus.load() # images and image's action unit labels array
AUs = [AU1, AU2, AU4, AU5, AU6, AU7, AU12, AU17, AU25]
result = [ ] [ ] # 2-D array

# each action unit
for AU in AUs:
# separate AU images and non AU images
labels = [ ]
for i in range(length(AU_labels)):
if AU in AU_labels[i]:
labels.append(1) # true
else:
labels.append(0) # false

# extract 256-features
features = pre-trained_AlexNet_model(Images)

# train model
original_model.train(features, labels)

# evaluate each feature
for feature in features:
eval_score = original_model.evaluate(feature)
index = AUs.getIndex(AU) # 0, 1, 2, ...
result[index].append(eval_score)
# Initialize
Images, AU_labels = CK_plus.load () # images and image's action unit labels array
AUs = [AU1, AU2, AU4, AU5, AU6, AU7, AU12, AU17, AU25]
result = [] [] # 2-D array

# each action unit
for AU in AUs:
# separate AU images and non AU images
labels = []
for i in range (length (AU_labels)):
if AU in AU_labels [i]:
labels.append (1) # true
else:
labels.append (0) # false

# extract 256-features
features = pre-trained_AlexNet_model (Images)

# train model
original_model.train (features, labels)

# evaluate each feature
for feature in features:
eval_score = original_model.evaluate (feature)
index = AUs.getIndex (AU) # 0, 1, 2, ...
result [index] .append (eval_score)

이후 사용자 영상 분석부 132는 각 특징별로 가장 잘 찾는 AU을 하나씩 선별하고 정확도를 비교하여 가장 높은 정확도를 지닌 특징 순으로 index를 저장할 수 있다. 이는 어떤 AU이든 상관없이 AU을 잘 찾는 feature을 이용하여 모델을 구성하기 위함이다. 특징별 AU 인식 정확도는 도 15에 도시된 바와 같이 산출될 수 있다. Thereafter, the user image analyzer 132 may select one of the AUs best found for each feature, compare the accuracy, and store the index in order of the feature having the highest accuracy. This is to construct a model using the feature that finds AU well regardless of any AU. Feature-specific AU recognition accuracy may be calculated as shown in FIG. 15.

도 14는 본 발명의 실시 예에 따른 특징별 AU 인식 정확도를 도시하고 있다. 14 illustrates AU recognition accuracy for each feature according to an embodiment of the present invention.

본 발명의 실시 예에 따른 상기 사용자 영상 분석부 132는 AUS 기법을 적용시킨 얼굴표정 인식 모델에서 240개의 특징만을 사용(실험 결과 256개 의 특징 중 240개의 특징만을 사용했을 때 가장 인식률이 좋은 결과를 반영)하도록 설정될 수 있다. According to an embodiment of the present invention, the user image analyzer 132 uses only 240 features in the facial expression recognition model to which the AUS technique is applied. Reflection).

Model에 AUS 기법을 적용시키는 방법은 다음과 같다. pre-trained model을 사용하여 추출된 256개의 feature 데이터를 선별하여 240개의 feature를 가진 데이터로 재배열하고, 재배열된 데이터를 이용하여 마지막 fully-connected layer에 연결하여 모델을 재구성한다. 다음 반복 훈련 및 평가 과정을 거치면 AUS 기법을 적용한 얼굴 표정 인식 모델이 완성된다.The AUS method is applied to the model as follows. The 256 feature data extracted using the pre-trained model are selected and rearranged to 240 feature data, and the rearranged data is connected to the last fully-connected layer to reconstruct the model. The following iterative training and evaluation process completes the facial expression recognition model using the AUS technique.

AUS 기법을 적용시킨 얼굴 표정 인식 모델 역시 8가지 얼굴 표정 인식 모델과 6가지 얼굴 표정 인식 모델의 성능을 모두 확인하였으며, 각 표정별 정확도는 다음과 같이 산출될 수 있다. The facial expression recognition model to which the AUS technique is applied also confirmed the performance of all eight facial expression recognition models and six facial expression recognition models, and the accuracy of each facial expression can be calculated as follows.

NeutralNeutral AngryAngry ContemptContempt DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise NeutralNeutral 0.80340.8034 0.21190.2119 0.23560.2356 0.19720.1972 00 00 0.0830.083 0.02310.0231 AngryAngry 0.11570.1157 0.78740.7874 00 0.04980.0498 00 00 0.010.01 00 ContemptContempt 0.00360.0036 00 0.71440.7144 00 00 00 0.11930.1193 00 DisgustDisgust 0.00150.0015 00 0.00060.0006 0.75240.7524 0.00290.0029 0.00170.0017 00 00 FearFear 0.0360.036 00 0.00560.0056 0.00020.0002 0.99710.9971 0.00480.0048 0.02670.0267 0.00370.0037 HappyHappy 0.0240.024 00 0.00670.0067 00 00 0.9930.993 00 00 SadnessSadness 0.01370.0137 0.00070.0007 0.00220.0022 0.00040.0004 00 00 0.760.76 00 SurpriseSurprise 0.0020.002 00 0.0350.035 00 00 0.00050.0005 0.00110.0011 0.97320.9732

상기 표 [9]는 8가지 얼굴 표정 인식 모델의 confusion table을 도시하고 있다. Table 9 shows confusion tables of eight facial expression recognition models.

AngryAngry DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise AngryAngry 0.99670.9967 0.06960.0696 00 0.00020.0002 0.10810.1081 00 DisgustDisgust 00 0.92540.9254 0.00130.0013 0.00050.0005 0.00070.0007 00 FearFear 00 00 0.99880.9988 0.00160.0016 0.04520.0452 0.02960.0296 HappyHappy 00 00 00 0.99780.9978 00 00 SadnessSadness 0.00330.0033 0.0050.005 00 00 0.84560.8456 00 SurpriseSurprise 00 00 00 00 0.00040.0004 0.97040.9704

상기 [표 10]은 6가지 얼굴 표정 인식 모델의 confusion table을 도시하고 있다. Table 10 shows a confusion table of six facial expression recognition models.

세번째로, 사용자 영상 분석부 132는 ImageNet data를 통해 사전 훈련된 모델을 이용할 수 있다. Third, the user image analyzer 132 may use a pre-trained model through ImageNet data.

Deep learning에서는 충분한 데이터 세트를 가지고 실험을 할 수 있는 여건을 가진 사람이 많지 않기 때문에 처음부터 끝까지 CNN 모델을 학습시키는 경우는 흔치 않으며, 이에 따라 transfer learning 개념이 등장하였다. 상기 Transfer learning에 대하여 도 15를 참조할 수 있다. In deep learning, there are not many people who can experiment with enough data sets, so it is rare to train the CNN model from beginning to end. Accordingly, the concept of transfer learning emerged. Refer to FIG. 15 for the transfer learning.

도 15는 본 발명의 실시 예에 따른 imageNet Data를 이용해 사전훈련(pre-trained)된 모델에서의 transfer learning 에 대하여 도시한 도면이다. FIG. 15 illustrates transfer learning in a model that is pre-trained using imageNet Data according to an embodiment of the present invention.

Transfer learning은 어떠한 문제를 해결하면서 얻어지는 정보를 이용하여 연관된 다른 문제를 해결하는데 사용하는 개념을 말한다. 상기 pre-trained 모델은 이러한 transfer learning을 이용하여 실험에 사용될 model에 특정한 정보를 전달하는데 사용될 수 있다. CNN 모델을 학습시키는 경우 성능이 입증되었으며 사전에 미리 훈련된 pre-trained CNN model을 사용하며, ImageNet과 같은 매우 큰 데이터 세트를 사용하여 모델을 훈련시키면 특정한 knowledge(영상 인식에 필요한 일반적인 특징 추출 방법; model's weights)를 얻을 수 있다.Transfer learning is a concept used to solve other related problems by using information obtained while solving a problem. The pre-trained model can be used to transfer specific information to the model to be used in the experiment using this transfer learning. When training a CNN model, we use a proven, pre-trained, pre-trained CNN model, and training the model using a very large data set such as ImageNet can provide specific knowledge (eg, general feature extraction methods for image recognition; model's weights).

본 발명의 실시 예에 따른 상기 사용자 영상 분석부 132는 pre-trained AlexNet model로 bvlc_alexnet을 사용할 수 있다. 상기 bvlc_alexnet은 C++ 기반 deep learning framework인 Caffe에서 훈련된 모델을 TensorFlow에서 사용할 수 있도록 컨버팅한 모델이다.The user image analyzer 132 according to an embodiment of the present invention may use bvlc_alexnet as a pre-trained AlexNet model. The bvlc_alexnet is a model converted to use a model trained in Caffe, a C ++ based deep learning framework, in TensorFlow.

Bvlc alexnet 모델은 AlexNet의 모든 hidden layer에 대한 구조 정보와 각 노드의 weight 값과 bias 값을 가지고 있다. Conv1은 11 by 11 크기의 3-channel convolution 연산에 필요한 weight 값과 bias 값을, conv3은 3 by 3 크기의 256-channel convolution 연산에 필요한 weight 값과 bias 값을 가지고 있으며 각 출력은 96-channel과 384-chanel이다. Conv2, conv4, conv5는 앞선 layer의 절반에 해당하는 weight 값과 bias 값만을 가지고 있어 별도의 처리 과정을 통해 convolution 연산을 두 번하도록 했다. 마찬가지로 fc6, fc7, fc8은 마지막 full connect 연산에 필요한 weight 값과 bias 값을 가지고 있다.The Bvlc alexnet model contains the structure information of all hidden layers of AlexNet, and the weight and bias values of each node. Conv1 has weight value and bias value for 11 by 11 size 3-channel convolution operation, conv3 has weight value and bias value for 3 by 3 size 256-channel convolution operation, and each output has 96-channel and 384-chanel. Conv2, conv4, and conv5 have only weight and bias values that correspond to half of the previous layer, so that the convolution operation is executed twice through separate processing. Similarly, fc6, fc7, and fc8 have weight and bias values for the last full connect operation.

Bvlc alexnet 모델의 구조는 도 16에서 도시되는 바와 같다.The structure of the Bvlc alexnet model is as shown in FIG.

사용자는 bvlc alexnet 모델을 불러와 수동적인 연산 과정을 통해 입력 이미지로부터 원하는 출력 값을 얻을 수 있다. 본 발명의 실시 예에 따르면, conv1, conv2, conv3, conv4, conv5의 weight 값과 bias 값을 불러와 입력 이미지로부터 6 by 6 크기의 256-channel 특징을 추출하도록 했으며, 얼굴 표정 인식 성능에 큰 영향이 가지 않는 한에서 모델의 크기를 줄이고 연산 속도를 높이기 위해 별도의 fully-connected layer를 구성하는 방식으로 훈련되었다. The user can import the bvlc alexnet model and obtain the desired output value from the input image through manual operation. According to an exemplary embodiment of the present invention, a weight value and a bias value of conv1, conv2, conv3, conv4, and conv5 are called to extract a 6-by-sized 256-channel feature from an input image, and have a great effect on facial expression recognition performance. Unless this was done, we trained a separate fully-connected layer to reduce the size of the model and speed up computation.

pre-trained AlexNet model을 이용하여 구성한 8가지 얼굴 표정 인식 모델과 6가지 얼굴 표정 인식 모델의 각 표정별 정확도는 다음의 표에서 도시되는 바와 같이 산출될 수 있다. The accuracy of each facial expression of the eight facial expression recognition models and the six facial expression recognition models constructed using the pre-trained AlexNet model can be calculated as shown in the following table.

NeutralNeutral AngryAngry ContemptContempt DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise NeutralNeutral 0.87150.8715 0.21430.2143 0.06670.0667 0.17170.1717 0.00250.0025 0.00860.0086 0.030.03 0.06480.0648 AngryAngry 0.08730.0873 0.77930.7793 00 0.00890.0089 00 0.00050.0005 0.00330.0033 00 ContemptContempt 0.00390.0039 00 0.85330.8533 00 00 0.00330.0033 0.00110.0011 00 DisgustDisgust 0.00180.0018 00 0.00170.0017 0.81780.8178 00 0.06290.0629 00 00 FearFear 0.00480.0048 00 0.00670.0067 0.00110.0011 0.9950.995 0.00140.0014 0.00110.0011 0.00040.0004 HappyHappy 0.01970.0197 00 0.03830.0383 0.00060.0006 0.00130.0013 0.92330.9233 00 00 SadnessSadness 0.00970.0097 0.00640.0064 00 00 0.00130.0013 00 0.96440.9644 00 SurpriseSurprise 0.00120.0012 00 0.03330.0333 00 00 00 00 0.93480.9348

상기 [표 11]은 8가지 얼굴 표정 인식 모델의 confusion table이다. Table 11 shows a confusion table of eight facial expression recognition models.

AngryAngry DisgustDisgust FearFear HappyHappy SadnessSadness SurpriseSurprise AngryAngry 0.99570.9957 0.02390.0239 00 0.00330.0033 0.00440.0044 00 DisgustDisgust 00 0.9750.975 0.00880.0088 0.00430.0043 00 00 FearFear 00 00 0.97880.9788 0.00050.0005 0.00110.0011 0.00120.0012 HappyHappy 00 00 0.00130.0013 0.99190.9919 00 00 SadnessSadness 0.00430.0043 0.00110.0011 0.00250.0025 00 0.99440.9944 00 SurpriseSurprise 00 00 0.00880.0088 00 00 0.99880.9988

상기 표 12는 6가지 얼굴 표정 인식 모델의 confusion table이다. Table 12 is a confusion table of six facial expression recognition models.

도 17은 본 발명의 실시 예에 따른 Android tensorflow inference library 개발현황을 도시하는 도면이고, 도 18는 그 구조에 대하여 도시한 도면이다. 17 is a view showing the development status of the Android tensorflow inference library according to an embodiment of the present invention, Figure 18 is a view showing the structure thereof.

본 발명의 실시 예에 따른 상기 서버는 tensorFlow를 모바일에 적용하기 위해 도 17 및 도 18에서 도시되는 android inference library를 사용할 수 있다. Android inference library는 Java 언어로 쓰여진 android app과 핵심부가 C++ 언어로 쓰여진 TensorFlow를 연결해주는 interface 역할을 하여 graph를 불러오고 입력을 설정, 모델을 이용하여 특정한 출력을 계산하는 기능을 제공할 수 있다. The server according to an embodiment of the present invention may use the android inference library shown in FIGS. 17 and 18 to apply tensorFlow to a mobile. The Android inference library acts as an interface that connects Android apps written in the Java language with TensorFlow written in the C ++ language. It can provide functions to load graphs, set inputs, and calculate specific output using models.

도 19는 본 발명의 실시 예에 따라 Python에서 개발한 얼굴 표정 인식 모델을 안드로이드에 적용시키는 과정을 도시한 도면이다. 19 is a diagram illustrating a process of applying a facial expression recognition model developed in Python to Android according to an embodiment of the present invention.

도 19를 참조하여, Python에서 개발된 얼굴 표정 인식 모델이 적용되는 과정을 설명하기로 한다. TensorFlow를 이용하여 개발한 model을 android app에 적용시키는 과정은 다음과 같이 이루어질 수 있다. 먼저, 개발한 모델을 동결시켜 모델을 구성하는 각종 파일들을 하나의 파일로 통합하고 각 layer 정보를 하나의 graph 안에서 관리하도록 한다. 다음, 얼굴 표정 인식에 필요한 기능(입력, 출력)만을 사용하도록 모델을 최적화 시키고 최적화된 모델 파일을 android app으로 옮긴다. 그리고 모델 파일 경로와 입력, 출력 노드에 대한 설정을 완료한 후 android inference library에서 제공하는 기능을 이용하면 모델에 데이터를 입력하였을 때의 출력 값을 얻을 수 있다.Referring to FIG. 19, a process of applying a facial expression recognition model developed in Python will be described. The process of applying the model developed using TensorFlow to android app can be done as follows. First, we freeze the developed model to integrate various files composing the model into one file and manage each layer information in one graph. Next, optimize the model to use only the functions required for facial expression recognition (input and output) and move the optimized model file to the android app. And after setting the model file path, input and output node, you can get the output value when you input data into the model by using the function provided by android inference library.

도 20은 본 발명의 실시 예에 따라 특정 사용자 이미지 정보를 통해 표정을 인식하는 동작의 예시를 도시하는 도면이다. 20 is a diagram illustrating an example of an operation of recognizing an expression through specific user image information according to an exemplary embodiment of the present invention.

이에 따라 본 발명의 실시 예에 따른 사용자 영상 분석부 132는 도 20에서 도시되는 바와 같이 사용자 이미지 정보를 기반으로 표정을 인식하는 기능을 수행할 수 있게 된다. Accordingly, the user image analyzer 132 according to an exemplary embodiment of the present invention may perform a function of recognizing an expression based on user image information as shown in FIG. 20.

요컨대, 상기 사용자 영상 분석부 132는 학습 과정 및 사용자 안면 촬영 영상을 평가하기 위해 해당 정보를 전처리 및 모델링하는 동작을 수행할 수 있다. 상기 사용자 영상 분석부 132는 이에 따라 수신되는 사용자 안면 촬영 정보를 기반으로 사용자의 표정 및 감정 상태를 기 설정된 항목(예, 두려움, 기쁨, 놀람 등)으로 분류할 수 있다. In other words, the user image analyzer 132 may perform an operation of preprocessing and modeling corresponding information in order to evaluate a learning process and a user's facial image. The user image analyzer 132 may classify the facial expression and the emotional state of the user into predetermined items (eg, fear, joy, surprise, etc.) based on the received facial information of the user.

상기 상황 정보 분석부 133는 사용자 단말기로부터 수신된 사용자 단말기의 상태 정보를 기반으로 사용자의 배회 여부를 판단할 수 있다. 상기 사용자 단말기의 상태 정보는 사용자 단말기의 통신부 110(예, GPS 등)에 의해 측정되는 단말기 위치, 가속도 센서(미도시)등의 센서에 의해 감지되는 사용자 단말기의 이동 속도 등에 관한 정보를 의미할 수 있다. 이 외에도 상기 사용자 단말기의 상태 정보는 배터리 잔량 정보, 사용자 단말기에서 기 설정된 시간 기간 이상 실행중인 기능에 관한 정보를 더 포함할 수 있다. 상기 상황 정보 분석부 133는 사용자의 배회 여부를 판단한 결과, 사용자(치매 환자)가 실외를 배회하는 것으로 판단되면 즉시 사용자 단말기 200 화면에 현재 사용자의 위치로부터 사용자의 거주지까지 가는 길을 안내하는 정보를 표시하도록 할 수 있다. 다양한 실시 예에 따라 상기 상황 정보 분석부 133가 거주지로 돌아가는 길 안내를 수행하기 위해 사용자 정보(거주지 정보 포함)를 사용자 단말기 200로부터 수집할 수 있다. 또는 거주지나 보호자에 대한 정보는 서버 100측 저장부 120에 회원 정보(미도시)로서 저장되고 관리될 수 있다. The context information analyzer 133 may determine whether the user wanders based on the state information of the user terminal received from the user terminal. The state information of the user terminal may refer to information about a terminal position measured by a communication unit 110 (eg, GPS) of the user terminal, and a moving speed of the user terminal detected by a sensor such as an acceleration sensor (not shown). have. In addition, the state information of the user terminal may further include battery remaining information and information on a function that is being executed for a predetermined time period in the user terminal. The situation information analysis unit 133 determines whether the user roams, and if it is determined that the user (dementia patient) roams outdoors, the user terminal 200 immediately displays information on the screen of the user's location from the current user's location to the user's residence. Can be displayed. According to various embodiments of the present disclosure, the contextual information analyzing unit 133 may collect user information (including residence information) from the user terminal 200 to perform a guide to return to a residence. Alternatively, the information about the residence or the guardian may be stored and managed as member information (not shown) in the server 100 side storage unit 120.

상기 상황 정보 분석부 133는 사용자 단말기의 상태 정보뿐 아니라, 사용자 정보 및 스케줄 정보를 기반으로 상황 정보를 분석할 수 있다. 상기 서버 100는 사용자 단말기 200에 입력된 사용자의 스케줄러, 인스턴트 메신저를 포함하는 SNS 와 연동될 수 있다. 이에 따라 상기 상황 정보 분석부 133는 사용자의 스케줄을 파악할 수 있다. 다양한 실시 예에 따라 상기 치매환자 관리 어플리케이션에서 사용자의 스케줄(투약 일정 포함)에 대한 정보를 입력받고 이를 관리할 수 있다. 이 경우 상기 상황 정보 분석부 133는 사용자의 스케줄 정보를 서버 100측 저장부 120에 저장하여 관리하고, 일정 정보를 사용자 단말기 200측에 알림으로 제공할 수 있다. 알림의 형태는 푸시 알림 또는 사운드를 동반한 문자 메시지 알림 등이 포함될 수 있으며, 사용자가 이전에 체크한 스케줄의 중요도에 따라(사용자가 이전에 중요한 일정이라고 별도의 체크를 수행한 경우) 사용자뿐 아니라 보호자 측에도 추가로 해당 일정에 대한 알림이 제공될 수 있다. The context information analyzer 133 may analyze the context information based on the user information and the schedule information as well as the state information of the user terminal. The server 100 may be linked with an SNS including a scheduler and an instant messenger of a user input to the user terminal 200. Accordingly, the contextual information analysis unit 133 may grasp the schedule of the user. According to various embodiments of the present disclosure, information on a schedule of a user (including a medication schedule) may be received and managed in the dementia patient management application. In this case, the situation information analyzer 133 may store and manage the schedule information of the user in the storage unit 120 on the server 100 and provide the schedule information as a notification to the user terminal 200. Notifications may include push notifications or text message notifications with sound. Depending on the importance of the schedule you have previously checked (if the user has previously checked for an important event), The guardian may be further informed of the schedule.

상기 맞춤 콘텐츠 정보 제공부 134는 사용자 단말기로부터 서버 내 보유된 멀티미디어 콘텐츠 리스트가 요청되면 해당 사용자의 콘텐츠 선호 정보가 존재하는지 여부를 판단할 수 있다. 이후 상기 맞춤 콘텐츠 정보 제공부 134는 콘텐츠 선호 정보가 존재하는 경우, 상기 콘텐츠 선호 정보에 기반하여 콘텐츠 리스트를 제공할 수 있다. 이 때 콘텐츠 리스트는 사용자의 선호도가 높은 순서로 정렬될 수 있다. 이 외에도 다양한 방법에 의해 사용자의 선호도를 반영한 정보 제공이 가능하다. 예컨대, 상기 맞춤 콘텐츠 정보 제공부 134는 사용자 영상 분석부 133에서 생성한 사용자의 콘텐츠 선호 정보 외에, 사용자의 콘텐츠별 실행 주기, 특정 콘텐츠를 요청한 음성입력의 횟수, 콘텐츠별 누적 재생 횟수 등에 기반하여 콘텐츠 선호 정보 122를 생성할 수 있다. The personalized content information providing unit 134 may determine whether there is content preference information of the corresponding user when a list of multimedia contents held in the server is requested from the user terminal. Thereafter, if the content preference information exists, the personalized content information providing unit 134 may provide a content list based on the content preference information. At this time, the content list may be sorted in order of preference of the user. In addition, it is possible to provide information reflecting the user's preference by various methods. For example, the personalized content information providing unit 134 may add the content based on the user's content preference information generated by the user image analyzer 133, the execution cycle for each content, the number of voice inputs for requesting a specific content, and the cumulative playback count for each content. The preference information 122 may be generated.

또한 상기 맞춤 콘텐츠 정보 제공부 134는 콘텐츠 선호 정보 122에 기반하여 사용자가 가장 선호하는 콘텐츠를 자동 실행하거나, 콘텐츠 재생시 사용자의 실시간 반응 정보에 기반하여 제공되는 콘텐츠를 변경할 수 있다. 예컨대, 사용자의 요청이 '드라마 재생'에 관한 것이라면 드라마에 해당하는 다수의 멀티미디어 컨텐츠 중 사용자가 가장 선호하는 드라마의 새로운 에피소드를 재생할 수 있다. In addition, the personalized content information providing unit 134 may automatically execute the content most preferred by the user based on the content preference information 122 or change the content provided based on the real-time response information of the user when the content is played. For example, if the user's request is related to 'playing the drama', the user may play a new episode of the drama most preferred by the user among a plurality of multimedia contents corresponding to the drama.

상기 비상 판단부 135는 사용자 단말기 200 및 사물인터넷 기능을 지원하는 주변장치들로부터 수신된 상태정보들에 기반하여 사용자의 사고 위험도를 판단할 수 있다. 이때 상기 사고 위험도는 항목별로 분류될 수 있으며, 판단된 사고 위험도가 기 설정된 기준 이상이면, 항목에 따라 의료기관 호출, 보호자 호출, 사물 인터넷 기능을 지원하는 주변 장치 제어 중 적어도 하나를 수행할 수 있다. The emergency determination unit 135 may determine a risk of an accident of a user based on state information received from the user terminal 200 and peripheral devices supporting the IoT function. In this case, the accident risk may be classified by item, and if the determined accident risk is greater than or equal to a preset criterion, the controller may perform at least one of a peripheral device control supporting a medical institution call, a guardian call, and an IoT function according to the item.

상기 사고 위험도를 평가하는 항목은 예컨대, 특정 전열기구 사용, 가스 사용, 발작, 현관문 사용, 배터리 잔여 잔량 부족, 응답 없음 등이 있을 수 있다. The items for evaluating the risk of an accident may include, for example, the use of a specific heating device, the use of gas, the seizure, the use of a front door, the lack of remaining battery power, and no response.

상기 비상 판단부 135는 사고 위험도에 근거하여 의료기관 호출 시, 사용자의 위치 정보를 수신하여 해당 위치로부터 가장 근접한 위치의 의료기관을 호출하고, 의료 기관 호출이 수행된 경우, 의료기관 호출에 대한 알림(예, 문자 메시지)을 보호자 단말기측에 전달할 수 있다. The emergency determination unit 135 receives the location information of the user when calling the medical institution based on the accident risk, calls the medical institution of the nearest location from the corresponding location, and when the medical institution call is performed, a notification of the medical institution call (eg, Text message) can be delivered to the guardian terminal.

또한 상기 비상 판단부 135는 사고 위험도에 근거하여 보호자 호출 시, 사용자의 단말기와 보호자 단말기 간의 통화 연결을 수행하도록 사용자 단말기의 통신 기능을 제어할 수 있다. 이에 따라 상기 비상 판단부 135는 비상시에 사용자(치매 환자) 단말기에서 보호자 단말기로 자동 전화 연결을 수행하여, 보호자가 사용자(치매 환자)의 상태를 직접 체크해볼 수 있도록 지원할 수 있다. In addition, the emergency determination unit 135 may control the communication function of the user terminal to perform a call connection between the terminal of the user and the guardian terminal when the guardian calls based on the risk of an accident. Accordingly, the emergency determination unit 135 may support the guardian to directly check the status of the user (dementia patient) by performing an automatic telephone connection from the user (dementia patient) terminal to the guardian terminal in an emergency.

이외에도 상기 비상 판단부 135는 사용자(치매 환자)가 거주하는 집 내부에서 가스 사용, 현관문을 열고 외부로 외출하는 경우, 특정 전열기 사용(가스 밸브, 현관문, 전열기는 사물 인터넷이 지원되는 기기임을 가정 또는 스마트 콘센트에 연결됨을 가정) 등의 경우에 대하여 위험 요소로 판단할 수 있다. 예컨대, 사용자가 다리미 사용을 개시한 이후 일정 시간이 지나도록 지속적으로 전원이 켜져 있는 것으로 판단되는 경우, 상기 비상 판단부 135가 지속 시간 및 기타 사용자 단말기를 통해 촬영되거나 녹음되는 사용자의 음성 데이터, 또는 기타 주변 장치(예, 실내 CCTV) 등을 기반으로 위험도를 산출할 수 있다. 이를 위해, 1차 위험도가 감지되면 사용자 단말기의 카메라 및 녹음기능을 활성화시킬 수 있다. 1차 위험도 감지 및 특정 전열기의 사용 시간, 상기 1차 위험도 감지에 대응하여 활성화된 사용자 단말기의 카메라 및 녹음 기능을 이용해 수집된 정보를 기반으로 2차 위험도를 판단하고, 2차 위험도가 판단되는 경우, 해당 전열기의 전원을 자동으로 OFF시키도록 제어할 수 있다. 이 때 비상 판단부 135는 사용자 단말기 200의 주변 장치 제어부 275를 통해 사용자 단말기 200에 등록된 주변 기기를 제어하도록 신호를 보낼 수 있다. 또는 다양한 실시 예에 따라 서버 100가 사용자 별로 보유한 사물인터넷 주변기기에 대한 정보를 파악할 수 있으므로, 상기 비상 판단부 135는 문제가 되는 특정 주변기기의 사용을 직접 제한할 수 있다. In addition, the emergency determination unit 135 uses a specific heater when a user (dementia patient) uses a gas inside the house where the user lives, and goes out to the outside. It can be determined as a risk factor in the case of a home or a smart outlet). For example, when it is determined that the power is continuously turned on for a predetermined time after the user starts using the iron, the emergency determination unit 135 may record the voice data of the user that is photographed or recorded through the duration and other user terminals, or Risk can be calculated based on other peripherals (eg indoor CCTV). To this end, when the first risk is detected, the camera and the recording function of the user terminal may be activated. Determination of the second risk based on the information collected using the first risk detection and the use time of the specific heater, the camera and recording function of the user terminal activated in response to the detection of the first risk, the second risk is determined It can be controlled to automatically turn off the power of the heater. In this case, the emergency determination unit 135 may send a signal to control the peripheral device registered in the user terminal 200 through the peripheral device control unit 275 of the user terminal 200. Alternatively, according to various embodiments of the present disclosure, since the server 100 may grasp information about an IoT peripheral device held for each user, the emergency determination unit 135 may directly limit the use of a specific peripheral device in question.

상기 재활 훈련부 136은 사용자의 주변 인물의 사진을 바탕으로 사용자의 인지 훈련을 수행할 수 있다. 이 때 상기 재활 훈련부 136는 주변 인물의 사진을 기반으로 퀴즈를 생성하여 사용자에게 제공하여 기억력 학습을 수행할 수 있다.   The rehabilitation training unit 136 may perform cognitive training of the user based on the picture of the person around the user. At this time, the rehabilitation training unit 136 may generate a quiz based on a picture of a nearby person and provide the user with a memory to perform memory learning.

이 외에도 상기 재활 훈련부 136는 서버 100에서 제공하는 재활 콘텐츠 123를 실행할 수 있다. 상기 재활 콘텐츠 123는 게임, 영상 등의 기억력 훈련을 위한 다양한 방식의 콘텐츠를 포함할 수 있다. In addition, the rehabilitation training unit 136 may execute rehabilitation content 123 provided by the server 100. The rehabilitation content 123 may include various types of content for training memory, such as a game, an image.

도 3은 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다. 3 is a block diagram illustrating a configuration of a user terminal according to an exemplary embodiment of the present invention.

상기 사용자 단말기 200는 통신부 210, 저장부 220, 입력부 230, 표시부 240, 카메라부 250, 오디오 모듈 260, 제어부 270을 포함하여 구성될 수 있다. The user terminal 200 may include a communication unit 210, a storage unit 220, an input unit 230, a display unit 240, a camera unit 250, an audio module 260, and a controller 270.

상기 저장부 220는 사용자 정보 221, 스케줄 정보 222, 훈련기록 223, 사진 정보 224를 포함하여 저장할 수 있다. 그리고 상기 제어부 270는 음성인식 처리부 271, 상황정보 제공부 272, 비상 연락 수행부 273, 콘텐츠 실행부 274, 주변 장치 제어부 275를 포함하여 구성될 수 있다. The storage unit 220 may store the user information 221, the schedule information 222, the training record 223, and the photo information 224. The controller 270 may include a voice recognition processor 271, a situation information provider 272, an emergency contact unit 273, a content execution unit 274, and a peripheral device controller 275.

상기 통신부 210는 예를 들면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GPS 모듈(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈 및 RF(radio frequency) 모듈를 포함할 수 있다. The communication unit 210 may include, for example, a cellular module, a WiFi module, a Bluetooth module, a GPS module (eg, a GPS module, a Glonass module, a Beidou module, or a Galileo module), an NFC module, and a radio frequency (RF) module.

셀룰러 모듈은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈은 가입자 식별 모듈(예: SIM 카드)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈은 프로세서가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. The cellular module may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network. According to an embodiment of the present disclosure, the cellular module may perform identification and authentication of an electronic device in a communication network using a subscriber identification module (eg, a SIM card). According to an embodiment of the present disclosure, the cellular module may perform at least some of the functions that the processor may provide. According to an embodiment, the cellular module may include a communication processor (CP).

WiFi 모듈, 블루투스 모듈, GPS 모듈 또는 NFC 모듈 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GPS 모듈 또는 NFC 모듈 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.Each of the WiFi module, the Bluetooth module, the GPS module, or the NFC module may include, for example, a processor for processing data transmitted and received through the corresponding module. According to some embodiments, at least some (eg, two or more) of the cellular module, WiFi module, Bluetooth module, GPS module, or NFC module may be included in one integrated chip (IC) or IC package.

RF 모듈은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GPS 모듈 또는 NFC 모듈 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.The RF module may transmit / receive, for example, a communication signal (eg, an RF signal). The RF module may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like. According to another embodiment, at least one of the cellular module, the WiFi module, the Bluetooth module, the GPS module, or the NFC module may transmit and receive an RF signal through a separate RF module.

본 발명의 실시 예에 따른 상기 통신부 210는 근거리 통신 모듈 211을 포함하여 구성될 수 있고, 상기 근거리 통신 모듈 211은 예컨대, 비콘 송신을 수행하여 사용자 단말기의 실내 존재 유무를 판단하기 위해 사용될 수 있다. 그 밖에도 다양한 실시 예에 따라 상기 근거리 통신 모듈 211은 사용자 단말기의 주변장치와 사용자 단말기 간의 통신을 지원할 수 있다. The communication unit 210 according to an embodiment of the present invention may be configured to include a short range communication module 211, and the short range communication module 211 may be used to determine whether the user terminal is indoors by performing a beacon transmission, for example. In addition, according to various embodiments of the present disclosure, the short range communication module 211 may support communication between a peripheral device of the user terminal and the user terminal.

이외에도 본 발명의 실시 예에 따른 상기 통신부 210는 서버 100로부터 전송되는 데이터 및 명령을 수신하고 서버 100로 사용자 단말기에 저장되는 정보인 사용자 정보, 스케줄 정보, 사진 정보 등을 필요에 따라 송신할 수 있다. 또한 상기 통신부 210는 사용자 단말기의 상태 정보(예, 위치 정보, 이동 거리 정보 등)를 서버 100측에 전송할 수 있다. In addition, the communication unit 210 according to an embodiment of the present invention may receive data and commands transmitted from the server 100 and transmit user information, schedule information, and photo information, which are information stored in the user terminal, to the server 100 as necessary. . In addition, the communication unit 210 may transmit state information (eg, location information, moving distance information, etc.) of the user terminal to the server 100.

본 발명의 실시 예에 따른 상기 저장부 220는 사용자 정보 221, 스케줄 정보 222, 훈련 기록 223, 사진 정보 224를 포함하여 저장할 수 있다. 상기 사용자 정보 221는 사용자의 신상에 관한 정보를 모두 통칭할 수 있다. 예를 들어 상기 사용자 정보 221는 사용자의 주변 장치의 식별 정보, 사용자가 치료받는 의료기관 정보, 사용자의 연령, 사용자의 질병 정보(치매 단계, 또는 합병증 정보), 사용자의 거주지 주소, 사용자의 보호자 연락처 등을 포함할 수 있다. The storage unit 220 according to an embodiment of the present invention may store the user information 221, the schedule information 222, the training record 223, and the photo information 224. The user information 221 may collectively refer to all information about a user's personality. For example, the user information 221 may include identification information of a user's peripheral device, information of a medical institution treated by the user, age of the user, disease information (dementia, or complications) of the user, a user's residence address, and a user's guardian's contact information. It may include.

상기 스케줄 정보 222는 사용자의 투약 일정을 포함하는 일정 정보이다. 상기 스케줄 정보 222는 사용자의 인스턴트 메신저를 포함하는 연동 SNS로부터 불러와 업데이트 될 수 있다. 또한 상기 스케줄 정보 222는 사용자에 의해 스케줄 항목별로 중요도가 다르게 체크될 수 있다. 이에 따라 서버 100는 사용자의 중요한 스케줄에 대하여 별도의 추가 알림 서비스를 제공할 수 있다. The schedule information 222 is schedule information including a medication schedule of the user. The schedule information 222 may be retrieved and updated from the linked SNS including the instant messenger of the user. In addition, the schedule information 222 may be checked differently by importance for each schedule item by the user. Accordingly, the server 100 may provide a separate additional notification service for the important schedule of the user.

상기 훈련 기록 223는 사용자가 어플리케이션을 이용하여 재활 콘텐츠 123를 실행한 이력을 포함할 수 있다. 또한 상기 훈련 기록 223은 사용자의 훈련 성적(예, 퀴즈 성적, 성적의 변화 추이 등)을 포함할 수 있다. The training record 223 may include a history of the user executing the rehabilitation content 123 using the application. In addition, the training record 223 may include training results of the user (eg, quiz scores, change of grades, etc.).

상기 사진 정보 224는 사용자가 촬영한 사진, 다운로드 또는 입력한 사진 정보를 포함할 수 있다. 상기 사진 정보 224는 재활 훈련 중 주변 인물에 대한 인식 훈련을 위한 콘텐츠 제작에 사용될 수 있다. The picture information 224 may include a picture taken by a user, picture information downloaded or input. The photo information 224 may be used to produce contents for training for recognition of nearby persons during rehabilitation training.

상기 입력부 230는 키 입력부, 터치패널, 스타일러스 펜 등을 포함하여 구성될 수 있으며, 사용자 입력을 신호 변환하여 제어부 270에 전달할 수 있다. The input unit 230 may include a key input unit, a touch panel, a stylus pen, or the like. The input unit 230 may convert a user input into a signal and transmit the signal to the controller 270.

본 발명의 실시 예에 따른 상기 입력부 230는 사용자의 스케줄 입력, 사용자 정보 입력 등을 위하여 사용자의 터치 입력 내지는 키 입력 등을 수신할 수 있다. The input unit 230 according to an embodiment of the present invention may receive a user's touch input or key input for schedule input, user information input, and the like.

상기 표시부 240는 패널, 홀로그램 장치, 또는 프로젝터를 포함할 수 있다. 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널은 터치 패널과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 표시부 240는 패널, 홀로그램 장치, 또는 프로젝터를 제어하기 위한 제어 회로를 더 포함할 수 있다.The display unit 240 may include a panel, a hologram device, or a projector. The panel may, for example, be implemented to be flexible, transparent, or wearable. The panel may be composed of a touch panel and one module. The hologram device may show a stereoscopic image in the air by using interference of light. The projector may display an image by projecting light onto a screen. The screen may be located, for example, inside or outside the electronic device. According to an embodiment, the display unit 240 may further include a control circuit for controlling a panel, a hologram device, or a projector.

본 발명의 실시 예에 따른 상기 표시부 240는 치매환자 관리서비스 어플리케이션의 전반적인 동작을 화면에 표시할 수 있다. The display unit 240 according to an embodiment of the present invention may display the overall operation of the dementia patient management service application on the screen.

카메라부 250는, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시 (flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.The camera unit 250 is, for example, a device capable of capturing still images and moving images. According to an embodiment, the camera unit 250 may include one or more image sensors (eg, a front sensor or a rear sensor), a lens, an image signal processor (ISP), or Flash (eg, LED or xenon lamp, etc.).

본 발명의 실시 예에 따른 상기 카메라부 250는 로그인을 위한 사용자 인증 단계에서 활성화될 수 있다. 상기 카메라부 250는 로그인을 위한 사용자 인증 단계에서 사용자 단말기 전면의 사용자 안면을 촬영할 수 있다. 촬영된 사용자 안면 영상(또는 이미지)는 어플리케이션 로그인을 위해 서버 100측에 제공될 수 있다. 다양한 실시 예에 따라 상기 카메라부 250는 사용자 단말기 잠금 해제를 위해 활성화될 수 있고, 활성화된 카메라부 250는 촬영한 전면의 사용자 안면 영상에 대한 데이터를 제어부 270에 제공할 수 있다.The camera unit 250 according to an embodiment of the present invention may be activated in a user authentication step for logging in. The camera unit 250 may photograph the user's face in front of the user terminal in the user authentication step for logging in. The captured user facial image (or image) may be provided to the server 100 to log in to the application. According to various embodiments of the present disclosure, the camera unit 250 may be activated to unlock the user terminal, and the activated camera unit 250 may provide the controller 270 with data about the captured front face image of the user.

이 외에도 상기 카메라부 250는 콘텐츠별 사용자의 선호도 조사를 위해 사용자의 표정 판단에 사용될 수 있다. 상기 카메라부 250는 멀티미디어 콘텐츠가 실행되는 동안, 활성화되어 이를 시청하는 사용자의 안면을 촬영할 수 있다. 이 때 촬영된 사용자 안면 촬영 영상은 표정 판단을 위해 서버 100에 제공될 수 있다. In addition, the camera unit 250 may be used to determine the facial expression of the user to investigate the user's preference for each content. The camera unit 250 may capture a face of a user who is activated and watched while the multimedia content is executed. At this time, the captured user's face photographed image may be provided to the server 100 to determine an expression.

상기 오디오 모듈 260은 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈의 적어도 일부 구성요소는 입출력 인터페이스에 포함될 수 있다. 오디오 모듈은, 예를 들면, 스피커, 리시버, 이어폰, 또는 마이크 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.For example, the audio module 260 may bidirectionally convert a sound and an electric signal. At least some components of the audio module may be included in the input / output interface. The audio module may process sound information input or output through, for example, a speaker, a receiver, an earphone, a microphone, or the like.

본 발명의 실시 예에 따른 상기 오디오 모듈 260은 사용자의 음성을 포함한 다양한 아날로그 사운드 데이터를 수신하고 이를 디지털 신호로 변환할 수 있다. 또한 상기 오디오 모듈 260은 스케줄 관련 알림, 길 안내 알림, 위험 알림 등의 다양한 알림 상황에서 알림 사운드를 출력할 수 있다. 이 외에도 상기 오디오 모듈 260은 콘텐츠 실행에 따른 오디오 출력 및 치매환자 관리서비스 어플리케이션의 전반적인 구동에 요구되는 오디오 데이터를 출력할 수 있다. The audio module 260 according to an embodiment of the present invention may receive various analog sound data including a voice of a user and convert it to a digital signal. In addition, the audio module 260 may output a notification sound in various notification situations such as a schedule related notification, a road guide notification, a danger notification, and the like. In addition, the audio module 260 may output audio according to content execution and audio data required for overall driving of the dementia patient management service application.

본 발명의 실시 예에 따른 상기 제어부 270는 음성 인식 처리부 271, 상황 정보 제공부 272, 비상 연락 수행부 273, 콘텐츠 실행부 274, 주변장치 제어부 275를 포함하여 구성될 수 있다. According to an embodiment of the present disclosure, the controller 270 may include a voice recognition processor 271, a context information providing unit 272, an emergency contact execution unit 273, a content execution unit 274, and a peripheral device controller 275.

상기 음성 인식 처리부 271는 본 발명의 실시 예에 따른 치매환자 관리 서비스 어플리케이션을 실행하기 위한 사용자의 음성 명령을 수신하고 이를 인식할 수 있다. 다양한 실시 예에 따라 상기 어플리케이션은 특정 이름으로 명명될 시 실행될 수 있다. 또한 상기 음성 인식 처리부 271는 그 외에 상기 어플리케이션이 서버 통신을 수행하지 않은 상태일 경우, 오프라인에서 수행 가능한 기능에 대한 음성 명령을 처리할 수 있다. The voice recognition processor 271 may receive and recognize a voice command of a user for executing the dementia patient management service application according to an exemplary embodiment of the present invention. According to various embodiments of the present disclosure, the application may be executed when named under a specific name. In addition, when the application does not perform server communication, the voice recognition processor 271 may process a voice command for a function that can be performed offline.

상기 상황 정보 제공부 272는 서버 100의 상황 정보 분석부 133의 제어하에 사용자 단말기의 GPS 정보 등의 상태 정보를 수집하고, 서버 100로 전송할 수 있다. 상기 상황 정보 제공부 272는 또한 사용자가 배회중인 경우, 서버 100측의 제어 하에 현재 사용자 단말기의 위치로부터 사용자의 집까지의 길 안내하는 정보를 화면에 표시할 수 있다. 그 외에도 상기 상황 정보 제공부 272는 상기 서버 100로부터 신호를 전달받아 스케줄정보, 훈련 예약 정보 등에 대한 푸시알림을 표시할 수 있다. The contextual information providing unit 272 may collect state information such as GPS information of the user terminal under the control of the contextual information analysis unit 133 of the server 100 and transmit the state information to the server 100. When the user is roaming, the situation information providing unit 272 may display, on the screen, information for guiding a road from the location of the current user terminal to the user's house under the control of the server 100. In addition, the situation information provider 272 may receive a signal from the server 100 and display a push notification for schedule information, training reservation information, and the like.

상기 비상 연락 수행부 273은 서버 100측에서 전달하는 비상 상황에 대한 신호를 수신함에 따라, 관련 동작을 수행할 수 있다. 상기 비상 연락 수행부 273는 서버로부터 보호자 호출과 관련된 명령을 수신하면, 자동으로 기 지정된 보호자 연락처로 통화 연결을 수행할 수 있다. 상기 비상 연락 수행부 273는 위급 사태시 비상 판단부 135로부터 신호를 수신함에 따라, 전화 뿐 아니라, 문자 메시지를 비롯한 다양한 방식의 통신 기능을 수행할 수 있다. 예컨대, 호출된 의료기관에 보내는 문자 메시지는 사용자의 치매 단계, 합병증 정보, 기존 치료 의료기관(호출된 의료기관과 기존 치료 의료기관이 상이할 경우)에 대한 정보를 포함할 수 있다. The emergency contact execution unit 273 may perform a related operation as it receives a signal for an emergency situation transmitted from the server 100. When the emergency contact execution unit 273 receives a command related to a guardian call from a server, the emergency contact execution unit 273 may automatically connect to a predetermined guardian contact. As the emergency contact performing unit 273 receives a signal from the emergency determining unit 135 in an emergency, the emergency contact performing unit 273 may perform not only a telephone but also various types of communication functions including a text message. For example, the text message sent to the called medical institution may include information about the dementia level of the user, complication information, and information about an existing treatment medical institution (if the called medical institution and the existing treatment medical institution are different).

콘텐츠 실행부 274는 훈련콘텐츠 및 서버 100에서 제공되는 멀티미디어 콘텐츠를 실행할 수 있다. 각 콘텐츠에 대한 속성 정보는 다운로드시 또는 서버100에 저장될 당시 포함되는 정보일 수 있다. 그러나 그렇지 않을 경우, 상기 콘텐츠 실행부 274는 재생되는 콘텐츠 정보에 대한 속성 정보(예, 썸네일, 재생 시간, 주요 등장인물 등)를 재생중에 추출할 수 있다.The content execution unit 274 may execute the training content and the multimedia content provided by the server 100. The attribute information for each content may be information included at the time of download or when stored in the server 100. Otherwise, the content execution unit 274 may extract attribute information (eg, thumbnails, playback time, major characters, etc.) for the content information to be reproduced during playback.

상기 주변장치 제어부 275는 서버100에서 비상 상황이라고 판단된 경우에, 서버측의 제어하에 사용자 단말기 200에 등록된 주변 장치를 제어할 수 있다. 상기 주변 장치 제어부 275는 근거리 통신 모듈 211과의 연결을 해제하는 동작을 포함하여, 사물 인터넷을 지원하는 주변기기들의 ON/OFF 동작 및 기타 기능의 제어 동작을 수행할 수 있다. When it is determined that the server 100 is in an emergency situation, the peripheral controller 275 may control the peripheral device registered in the user terminal 200 under the control of the server. The peripheral device controller 275 may perform an operation of controlling ON / OFF operations and other functions of peripheral devices supporting the Internet of Things, including disconnecting the local area communication module 211.

도 4는 본 발명의 실시 예에 따른 사용자 단말기에서 사용자의 안면을 이용한 로그인 과정을 도시한 순서도이다. 4 is a flowchart illustrating a login process using a face of a user in a user terminal according to an exemplary embodiment of the present invention.

사용자 단말기 200는 어플리케이션을 실행하는 410동작을 수행하면, 이후 사용자 안면 영상을 촬영하는 415동작을 수행할 수 있다. 상기 촬영된 안면 영상은 로그인 여부 판단을 위해 해당 어플리케이션을 지원하는 서버 100로 전송(420동작)될 수 있다. 이후 상기 서버 100는 수신된 영상을 분석하는 425동작을 수행할 수 있다. 상기 수신된 영상은 서버 100에 기 보유되는 사용자 식별 정보(회원의 안면 정보의 특징값)에 기반하여 분석될 수 있으며, 이에 따라 수신된 영상의 사용자가 분석 정보에 기반하여 로그인할 수 있게 된다. 상기 서버 100는 이 밖의 다양한 정보(예, 사용자 단말기의 식별정보 등)에 대한 추가 정보를 토대로 사용자 식별을 수행할 수 있다. If the user terminal 200 performs an operation 410 of executing an application, the user terminal 200 may perform an operation 415 of capturing a user's face image. The photographed facial image may be transmitted to the server 100 supporting the corresponding application in operation 420 to determine whether to log in. Thereafter, the server 100 may perform operation 425 of analyzing the received image. The received image may be analyzed based on user identification information (feature value of face information of a member) previously held in the server 100, thereby allowing a user of the received image to log in based on the analysis information. The server 100 may perform user identification based on additional information on various other information (eg, identification information of the user terminal).

서버 100는 상기 과정을 거쳐 신원이 확인되었는지 여부를 판단하는 430동작을 수행할 수 있다. 그리고 상기 서버 100는 신원 확인이 완료된 것으로 판단한 경우, 로그인 정보(로그인이 수행된 상태에서 표시되는 어플리케이션의 화면 정보)를 사용자 단말기 200에 제공하는 435동작을 수행할 수 있다. 이후 상기 사용자 단말기 200는 로그인 화면을 표시하는 440동작을 수행할 수 있다. The server 100 may perform operation 430 to determine whether the identity is confirmed through the above process. When the server 100 determines that the identification is completed, the server 100 may perform operation 435 of providing login information (screen information of the application displayed in the login state) to the user terminal 200. Thereafter, the user terminal 200 may perform operation 440 of displaying a login screen.

이와 같은 방식으로 본 발명은 치매환자의 특성에 따라 아이디 및 비번을 직접 입력하지 않고도 얼굴인식만으로도 어플리케이션 로그인이 이루어질 수 있다. In this manner, the present invention can log in the application only by face recognition without directly inputting ID and password according to the characteristics of the dementia patient.

도 5는 본 발명의 실시 예에 따른 사용자 안면 정보를 기반으로 선호도 정보를 산출하는 과정에 대한 순서도이다. 5 is a flowchart illustrating a process of calculating preference information based on user facial information according to an exemplary embodiment of the present invention.

사용자 단말기 200는 어플리케이션에 기 로그인되어, 로그인 상태의 화면이 표시되는 505동작 상황에서, 사용자 요청에 따라 멀티미디어 콘텐츠 실행 기능을 선택하는 510동작을 수행할 수 있다. 상기 510동작 이후 사용자 단말기 200는 서버 100측에 콘텐츠 리스트를 요청하는 515동작을 수행할 수 있다. The user terminal 200 may perform operation 510 of selecting a multimedia content execution function according to a user's request in operation 505 in which the user terminal 200 is pre-logged in to the application and a screen of a login state is displayed. After operation 510, the user terminal 200 may perform operation 515 for requesting a content list from the server 100.

이에 따라 상기 서버 100는 콘텐츠 선호 정보에 기반하여 콘텐츠 리스트를 추출하는 520동작을 수행할 수 있다. 도면에 도시되지 않았으나, 콘텐츠 선호 정보가 존재하지 않는 경우, 기 셋팅된 방식으로 콘텐츠 리스트를 추출하여 사용자 단말기에 제공할 수 있다. Accordingly, the server 100 may perform operation 520 of extracting a content list based on content preference information. Although not shown in the drawing, if the content preference information does not exist, the content list may be extracted and provided to the user terminal in a preset manner.

520동작 이후 상기 서버 100는 콘텐츠 선호 정보에 기반한 콘텐츠 리스트를 제공하는 525동작을 수행할 수 있다. 상기 콘텐츠 리스트는 콘텐츠 선호 정보에 기반하여, 사용자가 선호하는 순서대로 콘텐츠를 배열한 것일 수 있다. After operation 520, the server 100 may perform operation 525 of providing a content list based on content preference information. The content list may be arranged based on the content preference information, the content in the order preferred by the user.

이후 사용자 단말기 200는 사용자 입력에 의해 특정 콘텐츠가 선택되는 530동작이 수행되면, 해당 콘텐츠를 실행하고, 그와 동시에 사용자의 안면을 촬영하는 535동작을 수행할 수 있다. 이후(또는 촬영과 동시에), 사용자 단말기 200는 안면 촬영 영상을 서버 100에 제공하는 540동작을 수행할 수 있다. Thereafter, when operation 530 in which specific content is selected by a user input is performed, the user terminal 200 executes the corresponding content, and simultaneously performs operation 535 of capturing the user's face. Thereafter, the user terminal 200 may perform operation 540 of providing a face-photographed image to the server 100.

상기 서버 100는 안면 촬영 영상을 제공받으면, 수신된 안면 촬영 영상을 분석하고, 해당 콘텐츠에 대한 선호도를 판단하는 545동작을 수행할 수 있다. 이후 상기 서버 100는 상기 545동작에서 산출된 특정 콘텐츠에 대한 선호도를 기반으로 콘텐츠 선호 정보를 업데이트하게 된다. When the server 100 receives the face photographed image, the server 100 may analyze the received face photographed image and perform operation 545 for determining a preference for the corresponding content. Thereafter, the server 100 updates the content preference information based on the preference for the specific content calculated in operation 545.

도 6은 본 발명의 실시 예에 따른 훈련용 콘텐츠의 예를 도시한 도면이다. 6 is a diagram illustrating an example of training content according to an embodiment of the present invention.

서버 100는 사용자가 업로드한 주변 인물들 사진을 비롯한 기타 정보(이름, 관계)를 기반으로 610과 같은 재활 콘텐츠를 생성할 수 있다. 이는 단순 학습 콘텐츠(보고 외우는 용도)일 수도 있고, 특정 정보(예, 이름)을 가린 후, 퀴즈를 제공하는 형태의 콘텐츠일 수도 있다. 각 항목 611은 사진과 사용자(치매 환자)와의 관계, 이름을 포함하도록 구성될 수 있다. The server 100 may generate rehabilitation content such as 610 based on a photo uploaded by the user and other information (name, relationship). This may be simple learning content (for viewing and memorizing purposes), or may be content that provides a quiz after screening specific information (eg, a name). Each item 611 may be configured to include a name and a relationship between the picture and the user (a dementia patient).

도 7 내지 도 8은 본 발명의 실시 예에 따른 비상 상황에서의 신호 흐름 체계를 도시한 도면이다. 7 to 8 are diagrams illustrating a signal flow system in an emergency according to an embodiment of the present invention.

도 7은 비상 상황에서 의료기관에 호출하는 도작을 나타내고 있다. 긴급상황이 발생하면, 사용자 단말기 200는 단말기 상태 정보를 서버 100에 제공할 수 있다. 이에 따라 상기 서버 100는 단말기의 상태 정보(사용자 단말기 외 기타 주변 장치로부터 전송되는 정보 포함할 수 있음)에 기반하여 위험도를 판단할 수 있다. 상기 서버 100가 위험도 판단 결과 위험하고, 긴급한 상황(예, 사용자 단말기의 위치가 실외의 도로 주변에서 탐지되고, 단말기로 입력되는 사용자의 음성 정보가 울음 소리인 경우)인 것으로 판단하면, 사용자의 위치와 가장 가까운 의료기관 501(또는 보호자 단말기)에 호출하는 동작을 수행할 수 있다. 7 illustrates an operation for calling a medical institution in an emergency situation. When an emergency occurs, the user terminal 200 may provide terminal status information to the server 100. Accordingly, the server 100 may determine the risk based on the state information of the terminal (which may include information transmitted from other peripheral devices besides the user terminal). If the server 100 determines that the risk is a dangerous and urgent situation (eg, when the location of the user terminal is detected around an outdoor road and the voice information of the user input to the terminal is a crying sound), the location of the user is determined. Call to the nearest medical institution 501 (or guardian terminal).

도 8은 비상 상황에서 치매 환자의 주변 장치를 제어하는 동작을 나타내고 있다. 실내 300에 존재하는 사용자 단말기 200로부터 상태 정보(주변 장치로부터 전송되는 정보 포함)를 서버 100가 제공받은 후 상기 서버 100는 단말기 상태정보에 기반하여 기능 제한 필요성을 판단할 수 있다. 예컨대, 사용자가 지속적인 콘텐츠 시청으로 단말기의 배터리 잔량의 감소 속도가 매우 급격하거나, 배터리 잔량이 여유롭지 않다고 판단되는 경우, 상기 서버 100는 사용자 단말기와 근거리 무선 통신 연결되어 있는 주변 장치와의 통신 연결을 해제하거나, 사용자 단말기의 전력 절약 모드를 수행하도록 제어할 수 있다. 또는 사용자의 영상 정보 및 음성 정보에 기반하여 판단 결과, 사용자의 치매 증상이 발현된 것으로 판단되면, 특정 주변 장치(예, 전열기구)의 사용을 일시적으로 제한하도록 사용자 단말기에 요청하고, 사용자 단말기가 주변의 사물인터넷 장치의 기능을 제어(예, 전열기구를 상태를 OFF로 변경)할 수 있다. 8 illustrates an operation of controlling a peripheral device of a dementia patient in an emergency situation. After the server 100 receives the state information (including information transmitted from the peripheral device) from the user terminal 200 existing in the indoor 300, the server 100 may determine the necessity of the function limitation based on the terminal state information. For example, when the user determines that the rate of decrease of the battery level of the terminal is extremely rapid or the battery level is not enough due to continuous viewing of the content, the server 100 establishes a communication connection with the user terminal and a peripheral device connected to the near field communication. It may be released or controlled to perform a power saving mode of the user terminal. Alternatively, if it is determined that the symptoms of dementia of the user are manifested based on the image information and the audio information of the user, the user terminal is requested to temporarily limit the use of a specific peripheral device (eg, a heating device). The function of the surrounding IoT apparatus may be controlled (for example, the state of the heating apparatus may be changed to OFF).

도 9는 본 발명의 실시 예에 따른 알림 서비스의 예를 도시하는 도면이다.9 is a diagram illustrating an example of a notification service according to an embodiment of the present invention.

본 발명의 실시 예에 따른 치매환자 관리 서비스 어플리케이션은 사용자 단말기 200에 기 저장된 SNS 정보, 스케줄러 및 사용자(또는 보호자)에 의해 직접 입력된 투약 정보에 대하여 통합 관리를 수행할 수 있다. 예컨대, 상기 어플리케이션은 910과 같이 표시되는 사용자 단말기의 잠금 화면상에 투약 스케줄 알림 911 및 기타 일반 스케줄 알림 912을 함께 제공할 수 있다. 다양한 실시 예에 따라 상기 어플리케이션은 사용자가 훈련 콘텐츠를 주로 실행하는 시간대에 맞춰 훈련 콘텐츠 실행을 제안하는 알림을 수행할 수도 있다. 이와 같이 사용자가 직접 지정하지 않더라도 사용자의 행동패턴을 기록하거나, 음성 명령의 빈도를 기록하여 추후 해당 동작을 제안할 수 있다. 예를 들어, 1주일동안 오후 3시에 훈련 콘텐츠를 실행한 경우, 상기 어플리케이션은 오후 3시가 되기 소정의 시간 전에, 사용자 단말기의 화면에 '훈련 콘텐츠를 실행하시겠습니까'와 같은 알림 메시지를 제공하고, 사용자가 응답하는 경우 훈련 콘텐츠를 즉시 실행할 수 있다. The dementia patient management service application according to an embodiment of the present invention may perform integrated management on SNS information, a scheduler, and medication information directly input by a user (or guardian) previously stored in the user terminal 200. For example, the application may provide a medication schedule notification 911 and other general schedule notification 912 together on the lock screen of the user terminal displayed as 910. According to various embodiments of the present disclosure, the application may perform a notification for suggesting the execution of the training content in a time zone in which the user mainly executes the training content. In this way, even if the user does not directly specify the behavior pattern of the user, or the frequency of the voice command can be recorded later to propose the action. For example, if the training content is executed at 3:00 pm for one week, the application provides a notification message such as 'Do you want to run the training content' on the screen of the user terminal before a predetermined time before 3:00 pm, If the user responds, the training content can be executed immediately.

상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Although the present invention has been described in detail with reference to the above examples, those skilled in the art can make modifications, changes, and variations to the examples without departing from the scope of the invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all the functional blocks shown in the drawings or to follow all the orders shown in the drawings in the order shown; Note that it may fall within the scope.

100 : 서버
110 : 통신부
120 : 저장부
130 : 제어부
131 : 음성인식 처리부
132 : 사용자 영상 분석부
133 : 상황 정보 분석부
134 : 맞춤 콘텐츠 정보 제공부
135 : 비상 판단부
136 : 재활 훈련부
200 : 사용자 단말기
210 : 사용자 단말기의 통신부
220 : 사용자 단말기의 저장부
230 : 입력부
240 : 표시부
250 : 카메라부
260 : 오디오 모듈
270 : 사용자 단말기의 제어부
271 : 음성 인식 처리부
272 : 상황 정보 제공부
273 : 비상 연락 수행부
274 : 콘텐츠 실행부
275 : 주변장치 제어부
100: server
110: communication unit
120: storage unit
130: control unit
131: speech recognition processing unit
132: user image analysis unit
133: situation information analysis unit
134: custom content information provider
135: emergency judgment
136: Rehabilitation Training Department
200: user terminal
210: communication unit of the user terminal
220: storage unit of the user terminal
230: input unit
240: display unit
250: camera unit
260: audio module
270: control unit of the user terminal
271: speech recognition processing unit
272: situation information provider
273: emergency contact unit
274: content execution unit
275: peripheral control unit

Claims (13)

치매환자 관리 서비스를 제공하는 서버에 있어서,
사용자 단말기로부터 단말기 상태 정보 및 사용자의 안면 촬영 영상을 수신하고, 상기 수신한 안면 촬영 영상을 기반으로 수행된 로그인 결과를 사용자 단말기로 전송하며, 사용자의 단말기 및 사용자의 거주 장소에 설치된 사물인터넷 기능을 지원하는 주변 장치들로부터 상태 정보를 수신하는 통신부;
사용자 단말기로부터 수신한 정보를 처리한 결과와, 사용자 안면 촬영 영상을 분석하기 위한 영상 분석 프로그램, 사용자 식별용 정보 및 콘텐츠별, 콘텐츠 장르별 및 콘텐츠 주제별 사용자 선호도에 관한 정보인 콘텐츠 선호 정보를 저장하는 저장부; 및
상기 수신한 사용자의 안면 촬영 영상을 기반으로 해당 사용자의 로그인 결정 및 감정 판단을 수행하고, 상기 수신한 단말기 상태 정보에 기반하여 비상 상황 여부 또는 기능 제한 필요성 중 적어도 하나를 판단하고, 판단 결과에 따라 사용자 단말기의 특정 기능을 제어하며, 기 설정된 기준 이상 요청된 사용자의 음성 명령의 키워드를 관리하고, 기 설정된 기준 이상 실행된 특정 기능에 대하여 사용자 관심기능으로 분류하며, 상기 사용자 관심기능이 기준 빈도 이상 실행되는 시간대에 상기 관심기능을 자동 실행하도록 지원하는 제어부;를 포함하되,
상기 제어부는
사용자 단말기로부터 수신된 사용자의 안면 촬영 영상으로부터 사용자 식별 및 특정 콘텐츠 재생에 따른 사용자의 감정 상태 분석을 수행하는 사용자 영상 분석부;
사용자 단말기로부터 서버 내 보유된 멀티미디어 콘텐츠 리스트가 요청되면, 해당 사용자의 콘텐츠 선호 정보가 존재하는지 여부를 판단하고, 상기 사용자의 콘텐츠 선호 정보가 존재하는 경우, 상기 콘텐츠 선호 정보에 기반하여 리스트에 표시되는 콘텐츠를 사용자가 선호하는 순서로 변경하여 제공하는 맞춤 콘텐츠 정보 제공부;
사용자 단말기의 배터리 잔량 정보, 단말기의 위치 및 단말기의 이동 속도에 기반하여 사용자가 실외를 배회하는 것으로 판단되면 사용자 위치로부터 사용자의 거주지까지의 길 안내를 수행하는 상황 정보 분석부;
상기 사용자 단말기 및 상기 사물인터넷 기능을 지원하는 주변장치들로부터 수신된 상태정보를 기반으로 사용자의 항목별 사고 위험도를 판단하고, 상기 판단된 사고 위험도가 기 설정된 기준 이상이면, 항목에 따라 의료기관 호출, 보호자 단말기로 자동 전화 연결, 상기 사물인터넷 기능을 지원하는 주변 장치 제어 중 적어도 하나를 수행하는 비상 판단부; 를 포함하며,
상기 콘텐츠 선호 정보는
멀티미디어 콘텐츠 재생중에 촬영된 사용자의 안면 영상을 기반으로 판단된 콘텐츠별 사용자의 감정 상태, 특정 콘텐츠를 요청한 음성입력의 횟수 및 콘텐츠별 누적 재생 횟수에 기반하여 생성되는 정보인 것을 특징으로 하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
In the server providing dementia patient management services,
Receives terminal status information and a facial image of the user from the user terminal, and transmits the login result performed based on the received facial image to the user terminal, the IoT function installed in the user terminal and the user's place of residence A communication unit for receiving status information from supporting peripheral devices;
Stores the result of processing the information received from the user terminal, an image analysis program for analyzing the user's face image, content identification information that is information about user identification and user preference by content, content genre, and content subject part; And
Based on the received facial image of the user, the user determines the user's log-in and determines an emotion, and determines at least one of an emergency situation or a necessity of function limitation based on the received terminal state information, and according to the determination result. Controls a specific function of the user terminal, manages a keyword of a voice command of a user requested over a predetermined criterion, classifies a specific function executed over a predetermined criterion as a user interest function, and the user interest function is equal to or greater than a reference frequency. Control unit for supporting to automatically execute the function of interest in the time of execution, including;
The control unit
A user image analyzer configured to analyze an emotional state of a user according to user identification and reproduction of a specific content from a face photographed image received from the user terminal;
When the list of multimedia contents held in the server is requested from the user terminal, it is determined whether the content preference information of the corresponding user exists, and if the content preference information of the user exists, it is displayed on the list based on the content preference information. Personalized content information providing unit for changing the content in the order preferred by the user;
A situation information analyzer configured to perform a road guidance from the user location to the user's residence if it is determined that the user roams outdoors based on the remaining battery information of the user terminal, the location of the terminal, and the moving speed of the terminal;
Determining an accident risk for each item of the user based on state information received from the user terminal and the peripheral devices supporting the IoT function, and if the determined accident risk is more than a predetermined criterion, calling a medical institution according to the item, An emergency determination unit configured to perform at least one of automatic telephone connection to a guardian terminal and control of a peripheral device supporting the IoT function; Including;
The content preference information is
Characterized in that the information is generated based on the emotional state of the user for each content, the number of voice inputs requesting specific content, and the cumulative number of playbacks for each content determined based on the user's facial image photographed while playing the multimedia content. Dementia Patient Management Services server.
삭제delete 제 1항에 있어서,
상기 사용자 영상 분석부는
로그인 단계에서 사용자의 안면 촬영 영상이 수신되면, 상기 수신된 안면 촬영 영상과 기 보유된 사용자 식별용 정보와 비교하여 일치 여부를 판단하고,
로그인 이후, 사용자 단말기로부터 멀티미디어 콘텐츠가 재생되는 상태에서 촬영된 사용자의 안면 촬영 영상이 수신되면, 사용자의 안면 촬영 영상으로부터 사용자의 표정 변화 및 그에 따른 사용자의 감정 상태를 분석하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 1,
The user image analysis unit
When the face photographed image of the user is received in the log-in step, the received face photographed image is compared with the pre-stored user identification information to determine whether there is a match.
After login, if a face photographed image of a user photographed in a state where multimedia content is played from the user terminal is received, the dementia patient characterized by analyzing the facial expression change of the user and a corresponding emotional state of the user from the face photographed image of the user Management service server.
제 1항에 있어서,
상기 사용자 영상 분석부는
사용자의 안면 촬영 영상으로부터 얼굴 표정 인식을 수행하기 위해, 합성곱 신경망(CNN) 및 Images, Emotion lebels, Facial Action Coding System laves, Landmarks의 4가지 데이터군으로 분류되는 CK+ dataset을 이용하며,
사용자의 안면 촬영 영상을 분석을 위해 입력된 데이터의 전처리 동작 및 모델링 동작을 수행하고, 상기 전처리 동작은
입력된 데이터를 Emotion label이 있는 Images 데이터를 선별하고, 표정이 변하기 전인 첫 번째 프레임을 무표정(neutral)으로, 표정이 확실하게 드러난 마지막 세 프레임을 Emotion label에 맞는 표정으로 구분하며, RGB 데이터를 gray 데이터로 변환한 후, 사람 얼굴 부분을 소정의 크기로 고정하여 저장하고, 영상 데이터를 좌우 반전하여 데이터의 양을 2배로 증가시킨 후, 임의로 혼합하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 1,
The user image analysis unit
In order to perform facial expression recognition from a facial image of a user, a composite product neural network (CNN), CK + dataset classified into four data groups, Images, Emotion lebels, Facial Action Coding System laves, and Landmarks,
A preprocessing operation and a modeling operation of input data for analyzing a face photographed image of a user are performed.
Images data with Emotion label are inputted, the first frame before the expression is changed with a negative expression, the last three frames where the expression is clearly expressed are divided with the expression with the Emotion label, and the RGB data is grayed out. And converting the data into data, fixing the human face to a predetermined size, and inverting image data left and right to double the amount of data, and then randomly mixing the dementia patient management service server.
제 4항에 있어서,
상기 사용자 영상 분석부는
상기 전처리 동작을 수행할 시, 데이터를 0에서 1사이로 정규화시키고, 부족한 데이터양을 늘리기 위해 255*255 크기의 영상에서 224*224 크기의 영상을 중복되지 않게 무작위로 추출하는 선택적 무작위(selective random) 기법을 수행하고, 이후 상기 데이터를 1차원 배열로 펼쳐 설계가 끝난 모델에 입력하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 4, wherein
The user image analysis unit
When performing the preprocessing operation, the data is normalized between 0 and 1, and selective random extraction is performed to randomly extract a 224 * 224 size image from a 255 * 255 size image in order to increase the amount of insufficient data. Performing a technique, and then spreading the data in a one-dimensional array and inputting the data into a model for designing the dementia patient management service.
제 4항에 있어서
상기 사용자 영상 분석부는
전처리 동작이 완료된 데이터를 모델에 입력하는 모델링 동작을 수행하되,
상기 모델링 동작은
AlexNet 모델에 기반하여 입력 데이터로부터 5번의 convolution 연산과정을 거쳐 256개의 특징을 추출하는 제 1과정과, 추출된 특징을 이용하여 Full connect 연산 과정을 거쳐 데이터를 분류하는 제 2과정을 포함하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 4
The user image analysis unit
The modeling operation is performed to input the data in which the preprocessing operation is completed to the model.
The modeling operation
A first process of extracting 256 features through five convolution operations based on the AlexNet model, and a second process of classifying data through a full connect operation using the extracted features Patient care services server.
제 6항에 있어서,
상기 사용자 영상 분석부는
상기 모델링 동작을 수행함에 있어서, 전처리 동작에 따라 1차원 배열로 펼쳐진 224*224 크기의 이미지가 데이터로 입력되면, 11*11의 크기와 4의 스트라이드(stride)를 가진 96개 커널과 합성곱 연산을 수행하고, 이에 따라 55*55*96크기의 영상이 출력되면 이를 5*5의 크기와 1의 스트라이드(stride)를 가진 256개 커널과 합성곱 연산을 수행을 반복하여 마지막 합성곱 층과 Max Pooling 층을 지나 6*6 크기의 256가지의 특징을 얻는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 6,
The user image analysis unit
In performing the modeling operation, if a 224 * 224 sized image, which is unfolded in a one-dimensional array according to a preprocessing operation, is input as data, 96 kernels having a size of 11 * 11 and a stride of 4 are combined and computed. When the 55 * 55 * 96 image is output, it repeats the multiplication operation with 256 kernels with 5 * 5 size and 1 stride. A dementia patient care server comprising 256 features of size 6 * 6 past the pooling layer.
제 4항에 있어서,
상기 사용자 영상 분석부는
CK+ dataset를 이용하여 직접 훈련시킨 모델, AUS(Action Unit Selective)기법을 적용시킨 모델 및 ImageNet data를 통해 사전 훈련된 모델을 이용하여 표정 인식을 수행하되,
상기 CK+ dataset 을 이용하여 직접 훈련시킨 모델은, 입력 데이터를 반전시키고 세분화하여 데이터의 양을 늘리는 방식으로 훈련되고,
상기 AUS 기법을 적용시킨 모델은 사전 훈련된 모델(pre-trained model)을 사용하여 추출된 256개의 특징(feature)데이터를 선별하여 240개의 특징을 가진 데이터로 재배열하고, 재배열된 데이터를 이용하여 마지막 Fully-connected layer에 연결하여 재구성되고,
상기 ImageNet data를 통해 사전 훈련된 모델은, 트랜스퍼 러닝(transfer learning)을 개념을 이용한 것이며, 사전 훈련된 모델을 불러와 weight와 bias를 그대로 적용한 후, 입력 데이터와 출력 라벨에 대한 설정을 변경하는 방식으로 훈련되는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 4, wherein
The user image analysis unit
Facial expression recognition is performed using a model trained directly using CK + dataset, a model applied with AUS (Action Unit Selective) technique, and a pre-trained model using ImageNet data.
The model trained directly using the CK + dataset is trained by inverting and segmenting the input data to increase the amount of data,
The model applying the AUS technique selects 256 feature data extracted using a pre-trained model, rearranges the data to 240 features, and uses the rearranged data. Connect to the last Fully-connected layer and reconfigure
The model pre-trained through the ImageNet data uses the concept of transfer learning, and loads the pre-trained model, applies weight and bias as it is, and then changes the setting of input data and output label. Dementia patient management service server, characterized in that trained as.
삭제delete 제 1항에 있어서,
상기 통신부는 사용자의 단말기로부터 사용자 단말기의 상태 정보, 사용자 정보 및 스케줄 정보를 수신하고,
상기 상황 정보 분석부는
상기 수신된 상태정보를 기반으로 사용자의 배회 여부를 판단하여, 사용자가 배회중인 것으로 판단되면, 사용자 단말기의 현 위치로부터 상기 사용자 정보에 포함된 사용자 거주지 주소까지의 길을 실시간으로 안내하고, 상기 수신된 스케줄 정보에 기반하여 사용자 시간별 스케줄를 판단하여, 자동으로 스케줄에 따른 알림을 사용자 단말기에서 실행하도록 제어하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 1,
The communication unit receives the status information, user information and schedule information of the user terminal from the user terminal,
The situation information analysis unit
If it is determined that the user is roaming based on the received status information, and the user is determined to be roaming, in real time, the user guides the route from the current location of the user terminal to the user's residence address included in the user information. Determining a schedule for each user time based on the scheduled information, the dementia patient management service server, characterized in that for controlling to automatically execute a notification according to the schedule in the user terminal.
삭제delete 제 1항에 있어서,
상기 제어부는
재활 훈련부를 포함하고,
상기 재활 훈련부는
사용자의 주변 인물의 사진을 바탕으로 사용자의 인지 훈련을 수행하되, 상기 주변 인물의 사진을 기반으로 퀴즈를 생성하여 사용자에게 제공하여 기억력 학습을 수행하는 것을 특징으로 하는 치매환자 관리 서비스 서버.
The method of claim 1,
The control unit
Including rehabilitation training department,
The rehabilitation training unit
Dementia patient management service server, characterized in that to perform the user's cognitive training based on the picture of the surrounding people, to generate a quiz based on the picture of the surrounding people to provide the user with memory learning.
삭제delete
KR1020180014724A 2018-02-06 2018-02-06 Facial expression recognition device and management service server for dementia patient using the same KR102009844B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180014724A KR102009844B1 (en) 2018-02-06 2018-02-06 Facial expression recognition device and management service server for dementia patient using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014724A KR102009844B1 (en) 2018-02-06 2018-02-06 Facial expression recognition device and management service server for dementia patient using the same

Publications (1)

Publication Number Publication Date
KR102009844B1 true KR102009844B1 (en) 2019-08-12

Family

ID=67624651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014724A KR102009844B1 (en) 2018-02-06 2018-02-06 Facial expression recognition device and management service server for dementia patient using the same

Country Status (1)

Country Link
KR (1) KR102009844B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674773A (en) * 2019-09-29 2020-01-10 燧人(上海)医疗科技有限公司 Dementia recognition system, device and storage medium
CN112487980A (en) * 2020-11-30 2021-03-12 深圳市广信安科技股份有限公司 Micro-expression-based treatment method, device, system and computer-readable storage medium
KR20210084110A (en) 2019-12-27 2021-07-07 서말희 A real time face evaluating method for specific people and improvement evaluating method for ability of cognition
KR20210104298A (en) * 2020-02-17 2021-08-25 이은희 A method of providing cognitive function training service using an application installed on smart device
EP3901963A1 (en) * 2020-04-24 2021-10-27 Cortery AB Method and device for estimating early progression of dementia from human head images
KR20220125023A (en) * 2021-03-04 2022-09-14 아주대학교산학협력단 Method and apparatus for analyzing image of autistic person
KR20230043302A (en) * 2021-09-23 2023-03-31 국민대학교산학협력단 Non-face-to-face real-time learning management system using deep learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100026302A (en) * 2008-08-29 2010-03-10 서울대학교산학협력단 System and method of managing old or feeble person using portable terminal
KR20160001164A (en) * 2014-06-26 2016-01-06 한국과학기술원 Device of data processing for preventing dementia and method of data processing for preventing dementia using the same
KR20160046690A (en) * 2014-10-21 2016-04-29 동원티앤아이 주식회사 Portable tracking apparatus and method for operating portable tracking apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100026302A (en) * 2008-08-29 2010-03-10 서울대학교산학협력단 System and method of managing old or feeble person using portable terminal
KR20160001164A (en) * 2014-06-26 2016-01-06 한국과학기술원 Device of data processing for preventing dementia and method of data processing for preventing dementia using the same
KR20160046690A (en) * 2014-10-21 2016-04-29 동원티앤아이 주식회사 Portable tracking apparatus and method for operating portable tracking apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674773A (en) * 2019-09-29 2020-01-10 燧人(上海)医疗科技有限公司 Dementia recognition system, device and storage medium
KR20210084110A (en) 2019-12-27 2021-07-07 서말희 A real time face evaluating method for specific people and improvement evaluating method for ability of cognition
KR20210104298A (en) * 2020-02-17 2021-08-25 이은희 A method of providing cognitive function training service using an application installed on smart device
KR102301765B1 (en) 2020-02-17 2021-09-14 이은희 A method of providing cognitive function training service using an application installed on smart device
EP3901963A1 (en) * 2020-04-24 2021-10-27 Cortery AB Method and device for estimating early progression of dementia from human head images
WO2021214346A1 (en) * 2020-04-24 2021-10-28 Cortery AB Method and system for estimating early progression of dementia from human head images
CN112487980A (en) * 2020-11-30 2021-03-12 深圳市广信安科技股份有限公司 Micro-expression-based treatment method, device, system and computer-readable storage medium
KR20220125023A (en) * 2021-03-04 2022-09-14 아주대학교산학협력단 Method and apparatus for analyzing image of autistic person
KR102477571B1 (en) * 2021-03-04 2022-12-14 아주대학교 산학협력단 Method and apparatus for analyzing image of autistic person
KR20230043302A (en) * 2021-09-23 2023-03-31 국민대학교산학협력단 Non-face-to-face real-time learning management system using deep learning
KR102591040B1 (en) * 2021-09-23 2023-10-20 국민대학교산학협력단 Non-face-to-face real-time learning management system using deep learning

Similar Documents

Publication Publication Date Title
KR102009844B1 (en) Facial expression recognition device and management service server for dementia patient using the same
CN112292865B (en) Method and system for automatic decision making based on descriptive model
CN110609903B (en) Information presentation method and device
JP6745857B2 (en) Learning device, learning system, and learning method
KR102444165B1 (en) Apparatus and method for providing a meeting adaptively
CN107087101A (en) Apparatus and method for providing dynamic panorama function
KR102311603B1 (en) Mobile and operating method thereof
CN109416804A (en) The system for tracking the participation of media item
US8583287B2 (en) Robotic system, robot control method and robot control program
US20200229286A1 (en) Learning a lighting preference based on a reaction type
US10599390B1 (en) Methods and systems for providing multi-user recommendations
US10380208B1 (en) Methods and systems for providing context-based recommendations
CN105210919B (en) For determining the method, apparatus and electronic equipment, wearable device of pet state
CN110337698B (en) Intelligent service terminal and platform system and method thereof
KR20150047158A (en) System for Managing Stress and Method thereof
US11195408B1 (en) Sending signals for help during an emergency event
CN109327737A (en) TV programme suggesting method, terminal, system and storage medium
WO2020207413A1 (en) Content pushing method, apparatus, and device
CN109074390A (en) The method and system opened up and presented for the generation of media collection, plan
CN110268437A (en) The context media content item of customization generates
KR20190034035A (en) Method for providing vicarious experience service using virtual reality based on role-playing and bigdata
CN107925799A (en) Method and apparatus for generating video content
CN107948660A (en) The method and device of Video coding adaptation
KR102423257B1 (en) Supporting system for service about processing record data of dementia patient
US11354319B2 (en) Systems and methods for providing user data to facility computing entities

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant