KR20210001798A - smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics - Google Patents

smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics Download PDF

Info

Publication number
KR20210001798A
KR20210001798A KR1020190078412A KR20190078412A KR20210001798A KR 20210001798 A KR20210001798 A KR 20210001798A KR 1020190078412 A KR1020190078412 A KR 1020190078412A KR 20190078412 A KR20190078412 A KR 20190078412A KR 20210001798 A KR20210001798 A KR 20210001798A
Authority
KR
South Korea
Prior art keywords
data
smart mirror
context
information
mirror
Prior art date
Application number
KR1020190078412A
Other languages
Korean (ko)
Other versions
KR102361038B1 (en
Inventor
강민구
김춘섭
Original Assignee
주식회사 큐버
한신대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 큐버, 한신대학교 산학협력단 filed Critical 주식회사 큐버
Priority to KR1020190078412A priority Critical patent/KR102361038B1/en
Publication of KR20210001798A publication Critical patent/KR20210001798A/en
Application granted granted Critical
Publication of KR102361038B1 publication Critical patent/KR102361038B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a technology for generally performing high-level context awareness based on image and sound information for a person who holds a smart mirror up to himself or herself, and providing a chatbot service on the smart mirror based thereon. In particular, the present invention relates to a technology for providing a high-level context awareness based chatbot service with the same level on a plurality of smart mirrors by performing high-level context awareness by adaptive multi-biometric information processing based on the weighting factor of image and sound information for a person who holds a smart mirror up to himself or herself, providing a chatbot service on the smart mirror based thereon, adjusting biometric information weighting factor information by reflecting satisfaction evaluation, and inputting biometric information weighting factor change information in a blockchain to perform distributed management. The present invention can gradually improve high-level context awareness performance by reflecting the satisfaction evaluation for the chatbot service to adjust a weighting factor table. At this time, the present invention is smoothly operated even if a network environment is insufficient by allowing edge artificial intelligence to apply the weighting factor table in a local environment, and distributing and managing update information of the weighting factor table with the blockchain.

Description

적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템 {smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics}{Smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics}

본 발명은 일반적으로 스마트미러에 자신을 비추고 있는 사람에 대해 영상 및 음향 정보에 기초한 고수준 상황인지를 수행하고 이에 기반하여 스마트미러 상에서 챗봇 서비스를 제공하는 기술에 관한 것이다.The present invention generally relates to a technology for performing high-level context recognition based on image and sound information for a person who is projecting itself on a smart mirror and providing a chatbot service on the smart mirror based on this.

특히, 본 발명은 스마트미러에 자신을 비추고 있는 사람에 대하여 영상 및 음향 정보의 가중치에 기반한 적응형 다중 생체정보 처리에 의해 고수준 상황인지를 수행하고 이에 기반하여 스마트미러 상에서 챗봇 서비스를 제공하며 만족도 평가를 반영하여 생체정보 가중치 정보를 조정하고 생체정보 가중치 변경 정보를 블록체인에 넣어 분산 관리함으로써 다수의 스마트미러에서 동일 수준의 고수준 상황인지 기반의 챗봇 서비스를 제공할 수 있는 기술에 관한 것이다.In particular, the present invention performs high-level context recognition by processing adaptive multi-biometric information based on the weight of image and sound information for a person who is reflecting itself on a smart mirror, and based on this, provides a chatbot service on the smart mirror and evaluates satisfaction. It relates to a technology that can provide a chatbot service based on recognition of the same level of high-level situations in multiple smart mirrors by adjusting biometric weight information by reflecting and managing biometric weight change information in a blockchain.

최근들어 인공지능 비서 가능이 구현되고 사용자와 텍스트나 보이스로 인터렉션하는 서비스가 전세계적으로 활발하게 시도되고 있는데, 그 대표적인 예로는 인공지능(AI) 스피커와 스마트 홈 서비스가 있다.Recently, artificial intelligence assistants have been implemented, and services that interact with users by text or voice are being actively tried around the world. Representative examples of these are artificial intelligence (AI) speakers and smart home services.

예를 들어, 애플 시리(Apple Siri)를 시작으로 스마트폰을 디지털 비서로 사용하려는 시도가 있었는데, 이는 스마트폰에 내장되어 있는 알림, 날씨, 주식 정보, 메시지 등을 인공지능 비서 기능과 연계시키는 방식이었다. 또한, 인공지능 비서 기능을 독립형 스피커 장치와 결합시는 시도가 있었는데, 이러한 시도의 예로는 구글 어시스턴트(Google Assistant), 아마존 알렉사(Amazon Alexa). 라인프렌즈, 카카오미니 등이 대표적이다. 또한, 인공지능 비서 기능을 사물인터넷(IoT)과 연동시킴으로써 댁내 조명을 보이스로 제어한다거나 홈 시큐리티를 강화하려는 시도도 통신서비스 업체를 중심으로 시도되었다.For example, starting with Apple Siri, there have been attempts to use a smartphone as a digital assistant, which is a method of linking notifications, weather, stock information, and messages built into the smartphone with the AI assistant function. Was. In addition, there have been attempts to combine the AI assistant function with a standalone speaker device, examples of such attempts are Google Assistant and Amazon Alexa. Line Friends and Kakao Mini are representative. In addition, attempts to control indoor lighting with voice or strengthen home security by linking the artificial intelligence assistant function with the Internet of Things (IoT) have also been attempted by communication service companies.

그런데, 종래 인공지능 비서의 '질문에 답하기' 및 '명령에 따르기' 방식은 서비스 수준에 한계가 있기에 맨머신(man-machine) 인터렉션 방식이 한 단계 진화할 필요가 있다. 사용자의 명시적 질문이나 명령이 없더라도 사용자가 처한 상황을 보고(watching) 듣고(hearing) 파악(thinking)하여 선제적으로(active action) 서비스하는 방식으로 인공지능 비서가 작동하는 것이 바람직하다. 예를 들면, 인공지능 비서가 사용자를 관찰한 후에 "요리 중이시네요. 지금 후드를 켜시면 미세먼지와 유독가스를 없애실 수 있습니다. 후드를 켜드릴까요?"와 같이 작동하는 것이 바람직하다. 이러한 작동 방식은 종래의 인공지능 비서에서는 제공 불가능한 새로운 유형의 서비스이다.However, the conventional AI secretary's'answering questions' and'following orders' methods have a limited service level, so the man-machine interaction method needs to evolve one step further. Even if there is no explicit question or command from the user, it is desirable for the AI assistant to operate in a way that watches, hears, and thinks the situation in which the user is facing and serves as an active action. For example, after an AI assistant observes the user, it is desirable to work with "You are cooking. You can remove particulate matter and toxic gases by turning on the hood. Would you like to turn on the hood?" This method of operation is a new type of service that conventional AI assistants cannot provide.

그런데, 이러한 서비스가 가능하려면 인공지능 비서가 고수준 상황인지 기능을 구비하고 있어야 한다. 사람은 이와 같은 상황인지 기능을 직관적으로 수행할 수 있으나, 컴퓨터 소프트웨어로 구현되는 인공지능 비서는 사용자의 상황을 관찰하여 고수준 상황인지를 수행하는 것이 대단히 어려운 것으로 알려져 있다. 또한, 이러한 고수준 상황인지가 가능하더라도 이를 활용하여 사용자에게 유용한 서비스를 구현하는 것도 매우 어려운 과제로 남겨져 있다.However, in order for such a service to be possible, an AI assistant must have a high-level situational awareness function. It is known that humans can intuitively perform such a situational awareness function, but it is very difficult for an artificial intelligence assistant implemented with computer software to observe the user's situation and perform high-level situational awareness. In addition, even if it is possible to recognize such a high level situation, it remains a very difficult task to implement a service useful to users by utilizing it.

본 발명의 목적은 일반적으로 스마트미러에 자신을 비추고 있는 사람에 대해 영상 및 음향 정보에 기초한 고수준 상황인지를 수행하고 이에 기반하여 스마트미러 상에서 챗봇 서비스를 제공하는 기술을 제공하는 것이다.It is an object of the present invention to provide a technology for performing high-level context recognition based on video and sound information for a person who is reflecting themselves on a smart mirror in general, and providing a chatbot service on the smart mirror based on this.

특히, 본 발명의 목적은 스마트미러에 자신을 비추고 있는 사람에 대하여 영상 및 음향 정보의 가중치에 기반한 적응형 다중 생체정보 처리에 의해 고수준 상황인지를 수행하고 이에 기반하여 스마트미러 상에서 챗봇 서비스를 제공하며 만족도 평가를 반영하여 생체정보 가중치 정보를 조정하고 생체정보 가중치 변경 정보를 블록체인에 넣어 분산 관리함으로써 다수의 스마트미러에서 동일 수준의 고수준 상황인지 기반의 챗봇 서비스를 제공할 수 있는 기술을 제공하는 것이다.In particular, it is an object of the present invention to perform high-level context recognition by processing adaptive multi-biometric information based on the weight of image and sound information for a person reflecting themselves on a smart mirror, and to provide a chatbot service on the smart mirror based on this. It is to provide a technology that can provide a chatbot service based on the same level of high-level situational awareness in multiple smart mirrors by adjusting the biometric weight information by reflecting the satisfaction evaluation and distributing the biometric weight change information by putting it in the blockchain. .

상기의 목적을 달성하기 위하여 본 발명에 따른 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템은, 스마트미러(100)의 전면에서 자신을 비추는 사용자에 대해 영상 및 음향 정보 기반으로 고수준 상황인지를 수행하고 그 인지된 상황에 대응하여 미러 인터페이스를 통해 챗봇 서비스를 제공하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템으로서, 스마트미러(100)의 전면 특정 위치에 설치되고 미러 전면을 촬영하여 사용자와 관련된 영상 데이터를 생성하는 미러 카메라(111); 스마트미러(100)에 설치되고 주변 소리를 수집하여 사용자와 관련된 음향 데이터를 생성하는 미러 마이크(112); 스마트미러(100)의 주변 환경 데이터를 획득하는 환경 센서모듈(113); 고수준 상황인지에 대한 영상 데이터와 음향 데이터의 반영 가중치를 주변 환경 데이터에 대응하여 변경 정의하는 생체정보 가중치 테이블을 저장하는 가중치 테이블 저장부(130); 스마트미러(100)의 내부 메모리 공간에 설치 및 동작하고, 영상 데이터 및 음향 데이터로부터 영상기반 상황인지 및 음향기반 상황인지를 각각 수행하고, 생체정보 가중치 테이블에 주변 환경 데이터를 적용하여 획득한 반영 가중치에 따라 영상기반 상황인지 결과 및 음향기반 상황인지 결과를 데이터 코딩 처리하여 개별 상황인지 복합코드를 획득하고, 개별 상황인지 복합코드를 인공지능 기반 데이터 처리하여 복합 상황인지를 수행함으로써 고수준 상황인지 결과를 획득하는 에지 인공지능부(140); 고수준 상황인지 결과에 대응하여 스마트미러(100)의 사용자 인터페이스를 통해 텍스트 또는 보이스 기반의 실시간 채팅 서비스를 제공하는 챗봇 처리부(150);를 포함하여 구성된다.In order to achieve the above object, the smart mirror chatbot system based on high-level context awareness using adaptive multi-biometric information according to the present invention is based on image and sound information for a user who illuminates itself from the front of the smart mirror 100. As a smart mirror chatbot system based on high-level context awareness using adaptive multi-biometric information that performs context awareness and provides a chatbot service through a mirror interface in response to the perceived context, it is installed in a specific location in front of the smart mirror 100 A mirror camera 111 that photographs the front of the mirror to generate image data related to a user; A mirror microphone 112 installed in the smart mirror 100 and collecting ambient sound to generate sound data related to a user; An environment sensor module 113 for acquiring surrounding environment data of the smart mirror 100; A weight table storage unit 130 that stores a biometric information weight table that changes and defines a weight of image data and sound data for a high level situation in response to surrounding environment data; A reflection weight obtained by installing and operating in the internal memory space of the smart mirror 100, performing image-based context recognition and sound-based context recognition from image data and sound data, respectively, and applying surrounding environment data to the biometric information weight table According to the data coding process of the image-based context recognition result and the sound-based context recognition result, an individual context or complex code is obtained, and the individual context or complex code is processed with artificial intelligence-based data to perform complex context recognition. Edge artificial intelligence unit 140 to obtain; And a chatbot processing unit 150 that provides a text or voice-based real-time chat service through a user interface of the smart mirror 100 in response to a high-level context recognition result.

본 발명에서 에지 인공지능부(140)는, 영상 데이터를 인공지능 기반 데이터 처리하여 사용자와 관련된 영상기반 상황인지 정보를 획득하는 영상기반 상황인지부(141); 음향 데이터를 인공지능 기반 데이터 처리하여 사용자와 관련된 음향기반 상황인지 정보를 획득하는 음향기반 상황인지부(142); 주변 환경 데이터로부터 사용자와 관련된 환경조건 정보를 획득하는 환경조건 인지부(143); 생체정보 가중치 테이블에 환경조건 정보를 적용하여 고수준 상황인지를 위한 영상 데이터와 음향 데이터의 반영 가중치를 획득하고, 영상기반 상황인지 정보와 음향기반 상황인지 정보에 위 획득한 반영 가중치를 적용하여 가중 연산하고 그 가중 연산 결과를 미리 설정된 포맷에 따라 데이터 코딩 처리함으로써 사용자와 관련된 개별 상황인지 복합코드를 획득하는 생체정보 가중 코딩부(144); 개별 상황인지 복합코드를 인공지능 기반 데이터 처리하여 복합 상황인지를 수행함으로써 사용자와 관련된 고수준 상황인지 결과를 획득하는 복합 상황인지부(145);를 포함하여 구성될 수 있다.In the present invention, the edge artificial intelligence unit 140 includes an image-based context recognition unit 141 that processes image data with artificial intelligence-based data to obtain image-based context recognition information related to a user; A sound-based context recognition unit 142 for acquiring acoustic-based context recognition information related to a user by processing acoustic data based on artificial intelligence; An environmental condition recognition unit 143 that obtains environmental condition information related to a user from the surrounding environment data; By applying environmental condition information to the biometric information weight table, a weighted calculation is obtained by acquiring the reflection weight of image data and sound data for high-level context recognition, and applying the above-acquired reflection weight to image-based context recognition information and sound-based context recognition information And a biometric information weighting coding unit 144 for obtaining a composite code indicating an individual situation related to a user by data coding the weighting operation result according to a preset format; It may include a complex context recognition unit 145 that obtains a high-level context recognition result related to a user by performing complex context recognition by processing individual context recognition complex codes with artificial intelligence-based data.

또한, 본 발명에서 미러 카메라(111)는 3D 카메라 모듈을 구비하여 미러 전면의 사용자에 대한 얼굴 모습과 표정에 대한 입체 영상 데이터를 생성하고, 미러 마이크(112)는 3D 음향의 어레이 마이크 모듈을 구비하여 주변 소리에 대한 입체 음향 데이터를 생성하고, 환경 센서모듈(113)은 외부 IoT 센서로부터 조도, 온도, 습도, 미세먼지 중 하나 이상의 주변 환경 데이터를 획득하기 위한 센서 인터페이스 모듈을 포함하여 구성될 수 있다.In addition, in the present invention, the mirror camera 111 is provided with a 3D camera module to generate 3D image data on the face and expression of the user in front of the mirror, and the mirror microphone 112 is provided with an array microphone module of 3D sound. Thus, three-dimensional sound data on the surrounding sound is generated, and the environment sensor module 113 may be configured to include a sensor interface module for acquiring ambient environment data of at least one of illumination, temperature, humidity, and fine dust from an external IoT sensor. have.

또한, 본 발명에 따른 고수준 상황인지 기반의 스마트미러 챗봇 시스템은, 스마트미러(100)의 사용자 인터페이스를 통해 실시간 채팅 서비스에 대한 만족도 평가를 피드백받는 피드백 수신부(160); 피드백 수신부(160)로부터 긍정적 만족도 평가를 제공받는 경우에 생체정보 가중치 테이블에 대해 현재의 환경조건 정보에 대응하는 영상 데이터와 음향 데이터의 반영 가중치의 차이를 확대시키고, 피드백 수신부(160)로부터 부정적 만족도 평가를 제공받는 경우에 생체정보 가중치 테이블에 대해 현재의 환경조건 정보에 대응하는 영상 데이터와 음향 데이터의 반영 가중치의 차이를 축소시키는 가중치 조정부(170); 생체정보 가중치 테이블을 포함시켜 블록 데이터를 생성하고 미리 설정된 스케쥴에 따라 블록체인 업데이트를 수행하여 가중치 분산원장(200)에 대한 분산 정보 공유에 참여하는 블록체인 처리부(180);를 더 포함하여 구성될 수 있다.In addition, the smart mirror chatbot system based on high-level context awareness according to the present invention includes: a feedback receiving unit 160 receiving feedback for a satisfaction evaluation for a real-time chat service through a user interface of the smart mirror 100; When a positive satisfaction evaluation is provided from the feedback receiving unit 160, the difference between the reflection weight of the image data corresponding to the current environmental condition information and the acoustic data is increased with respect to the biometric information weight table, and the negative satisfaction level from the feedback receiving unit 160 A weight adjustment unit 170 for reducing a difference between a reflection weight of image data and sound data corresponding to current environmental condition information with respect to the biometric information weight table when receiving evaluation; A block chain processing unit 180 that generates block data by including the biometric information weight table and performs block chain update according to a preset schedule to participate in sharing distributed information on the weight distribution ledger 200; to be further included. I can.

본 발명에 따르면 스마트미러에 자신을 비추고 있는 사람에 대해 고수준 상황인지에 기반한 챗봇 서비스를 제공할 수 있는 장점이 있다. 이때, 다중 생체정보에 대해 환경 요소에 연동한 가중치 테이블을 적용함으로써 고수준 상황인지 성능을 환경조건 변화에도 유지할 수 있는 장점이 있다. According to the present invention, there is an advantage in that it is possible to provide a chatbot service based on a high-level situation for a person who is projecting himself or herself in a smart mirror. At this time, by applying a weight table linked to an environmental factor for multiple biometric information, there is an advantage of maintaining high-level context recognition performance even when environmental conditions change.

또한, 본 발명에 따르면 챗봇 서비스에 대한 만족도 평가를 반영하여 가중치 테이블을 조정함으로써 고수준 상황인지 성능을 점차적으로 개선할 수 있는 장점이 있다. 이때, 에지 인공지능이 로컬 환경에서 가중치 테이블을 적용하고 그 가중치 테이블의 업데이트 정보는 블록체인으로 분산 관리함으로써 네트워크 환경이 불충분하더라도 원활하게 동작하도록 한 장점이 있다.In addition, according to the present invention, there is an advantage in that the performance of high-level context recognition can be gradually improved by adjusting the weight table by reflecting the satisfaction evaluation for the chatbot service. At this time, the edge AI has the advantage of applying a weight table in a local environment and distributing and managing the update information of the weight table through a blockchain, so that it can operate smoothly even if the network environment is insufficient.

[도 1]은 본 발명에 따른 스마트미러 챗봇 시스템의 전체 구성을 개념적으로 나타내는 도면.
[도 2]은 본 발명에서 스마트미러가 고수준 상황인지를 수행하는 과정을 개념적으로 나타내는 도면.
[도 3]는 본 발명에서 생체정보 가중치 테이블의 일 예를 나타내는 도면.
[도 4]는 본 발명에서 생체정보 가중치 테이블을 조정하고 블록체인을 적용하는 개념을 나타내는 도면.
[도 5]는 일반적인 감정표현의 예를 나타내는 도면.
[도 6]은 본 발명에서 양호하게 사용할 수 있는 감정분류 체계의 예를 나타내는 도면.
[도 7]은 본 발명에서 양호하게 사용할 수 있는 감정코드 인코딩의 예를 나타내는 도면.
[Fig. 1] is a diagram conceptually showing the overall configuration of a smart mirror chatbot system according to the present invention.
[Fig. 2] is a diagram conceptually showing a process of performing whether a smart mirror is in a high-level situation in the present invention.
3 is a diagram showing an example of a biometric information weight table in the present invention.
[Fig. 4] is a diagram showing the concept of adjusting a biometric information weight table and applying a block chain in the present invention.
[Fig. 5] is a diagram showing an example of a general emotional expression.
[Fig. 6] is a diagram showing an example of an emotion classification system that can be favorably used in the present invention.
[Fig. 7] is a diagram showing an example of an emotion code encoding that can be preferably used in the present invention.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 스마트미러 챗봇 시스템의 전체 구성을 개념적으로 나타내는 도면이다.[Fig. 1] is a diagram conceptually showing the overall configuration of a smart mirror chatbot system according to the present invention.

스마트미러(100)는 외관상 일반 거울과 매우 흡사한데 그 내부에 각종 전자장비와 디스플레이가 구비되어 있는 장치이다. The smart mirror 100 is very similar in appearance to a general mirror, but is a device in which various electronic equipment and displays are provided.

본 발명에서 스마트미러(100)는 미러 카메라(111)와 미러 마이크(112)를 구비하며, 이를 통해 미러 전면에서 자신을 비추는 사용자와 관련하여 영상 데이터와 음향 데이터를 획득한다. 또한, 스마트미러(100)는 환경 센서모듈(113)을 구비하며, 이를 통해 미러 주변에 대한 환경 데이터, 에컨대 조도, 온도, 습도, 미세먼지 중 하나 이상에 관련된 데이터를 획득한다.In the present invention, the smart mirror 100 includes a mirror camera 111 and a mirror microphone 112, through which image data and sound data are obtained in relation to a user who illuminates itself from the front of the mirror. In addition, the smart mirror 100 includes an environmental sensor module 113, through which it acquires environmental data related to the surrounding of the mirror, for example, data related to one or more of illumination, temperature, humidity, and fine dust.

스마트미러(100)는 전면에서 자신을 비추는 사용자와 관련하여 에지 인공지능부(140)에서 영상 데이터와 음향 데이터를 기반으로 인공지능 기술에 의해 사용자의 현재 상황 또는 상태를 식별하는 고수준 상황인지(high-level context awareness)를 수행한다. 이때, 에지 인공지능부(140)는 응답 속도를 고려하여 스마트미러(100)의 내부에 구현되는 것이 바람직하다. 또한, 본 발명에서 환경 데이터는 에지 인공지능부(140)가 영상 데이터와 음향 데이터를 어떻게 조합할 것인지 결정하는 데에 활용되는데, 데이터 조합에 관한 기준 정보는 생체정보 가중치 테이블에 저장되어 있다. 이때, 생체정보 가중치 테이블은 스마트미러(100)의 내부 저장공간에 구현되는 가중치 테이블 저장부(130)에 저장된다.The smart mirror 100 is a high-level situation in which the edge artificial intelligence unit 140 identifies the current situation or status of the user by artificial intelligence technology based on image data and sound data in relation to the user who illuminates itself from the front. -level context awareness). In this case, the edge artificial intelligence unit 140 is preferably implemented inside the smart mirror 100 in consideration of the response speed. In addition, in the present invention, the environmental data is used to determine how the edge artificial intelligence unit 140 will combine image data and sound data, and reference information on the data combination is stored in the biometric information weight table. In this case, the biometric information weight table is stored in the weight table storage unit 130 implemented in the internal storage space of the smart mirror 100.

에지 인공지능부(140)가 도출하는 고수준 상황인지 결과에 기초하여 스마트 미러(100)는 자신의 미러 인터페이스, 예컨대 내장 LCD 화면나 내장 스피커를 통해 사용자에게 실시간 채팅 서비스를 제공한다.The smart mirror 100 provides a real-time chat service to the user through its own mirror interface, for example, a built-in LCD screen or a built-in speaker, based on the result of recognizing the high-level situation derived by the edge artificial intelligence unit 140.

[도 2]은 본 발명에서 스마트미러(100)가 고수준 상황인지를 수행하는 과정을 개념적으로 나타내는 도면이다.[Fig. 2] is a diagram conceptually showing a process of performing whether the smart mirror 100 is in a high-level situation in the present invention.

먼저, 스마트미러(100)의 전면 특정 위치, 예컨대 미러 상단이나 전면유리 내부에 설치된 미러 카메라(111)가 미러 전면을 촬영하여 영상 데이터(121)를 생성한다. 스마트미러(100)의 일반적인 사용 속성에 의한 자연스러운 결과에 의해, 미러 카메라(111)는 현재 미러 전면에서 자신(예: 얼굴)을 비추어 보고 있는 사용자와 관련된 영상 데이터를 생성한다. 이때, 미러 카메라(111)는 3D 카메라 모듈을 구비하여 미러 전면의 사용자에 대한 얼굴 모습과 표정에 대한 입체 영상 데이터를 생성하는 것이 본 발명의 고수준 상황인지에 유리하다.First, a specific front position of the smart mirror 100, for example, a mirror camera 111 installed on the top of the mirror or inside the windshield, photographs the front of the mirror to generate image data 121. As a natural result of the general use attribute of the smart mirror 100, the mirror camera 111 generates image data related to a user who is currently looking at itself (eg, a face) from the front of the mirror. In this case, the mirror camera 111 is advantageous in whether it is a high-level situation of the present invention to have a 3D camera module to generate 3D image data for a face and facial expressions for a user in front of the mirror.

이와 동시에, 스마트미러(100)에 설치된 미러 마이크(112)가 주변 소리를 수집하여 위 사용자와 관련된 음향 데이터(122)를 생성한다. 결과적으로, 미러 마이크(112)는 위 사용자가 하는 말, 위 사용자에게 다른 사람이 하는 말, 그리고 위 사용자 주변에서 들리는 소리를 녹음한다. 이때, 미러 마이크(112)는 3D 음향의 어레이 마이크(array microphone) 모듈을 구비하여 주변 소리에 대한 입체 음향 데이터를 생성하는 것이 본 발명의 고수준 상황인지에 유리하다.At the same time, the mirror microphone 112 installed in the smart mirror 100 collects ambient sound and generates sound data 122 related to the user. As a result, the mirror microphone 112 records what the user says, what other people say to the user, and sounds around the user. At this time, the mirror microphone 112 is advantageous in whether it is a high-level situation of the present invention to have a 3D sound array microphone module to generate 3D sound data for ambient sound.

또한, 환경 센서모듈(113)은 스마트미러(100)의 주변 환경 데이터(123), 에컨대 조도, 온도, 습도, 미세먼지 중 하나 이상에 관련된 데이터를 획득한다. 이때, 환경 센서모듈(113)은 이들 환경 데이터를 직접 획득하는 IoT 센서 장치를 포함하여 구성될 수도 있고, 외부 IoT 센서로부터 이들 환경 데이터를 획득하기 위한 센서 인터페이스 모듈을 포함하여 구성될 수도 있다.In addition, the environment sensor module 113 acquires data related to one or more of the surrounding environment data 123 of the smart mirror 100, such as illumination, temperature, humidity, and fine dust. In this case, the environmental sensor module 113 may be configured to include an IoT sensor device that directly acquires these environmental data, or may include a sensor interface module for acquiring these environmental data from an external IoT sensor.

가중치 테이블 저장부(130)는 스마트미러(100)의 내부 저장공간(예: 플래시메모리)에 구현되는데, 본 발명에서 고수준 상황인지에 대한 영상 데이터와 음향 데이터의 반영 가중치를 주변 환경 데이터에 대응하여 변경 정의하는 하는 생체정보 가중치 테이블(biometric-weight table)을 저장한다.The weight table storage unit 130 is implemented in an internal storage space (e.g., flash memory) of the smart mirror 100, and in the present invention, reflecting weights of image data and sound data for high-level situations are applied to the surrounding environment data. It stores the biometric-weight table to be changed and defined.

생체정보 가중치 테이블의 개념을 나타내기 위해 [도 3]는 본 발명에서 양호하게 사용할 수 있는 일 예를 제시하였다. [도 3]에는 사용자의 생체정보로서 음성인식 정보, 영상인식 정보, 맥박인식 정보, 무빙인식(사용자의 움직임) 정보, 체온인식 정보를 활용하는 예를 나타내었다. [도 2]에는 영상과 음향을 이용하는 구성이 제시되어 있는데, 본 발명은 여기에 한정되는 것은 아니고, 구현 예에 따라서 다양한 조합의 다중 생체정보를 활용할 수 있다.In order to show the concept of the biometric information weight table, [Fig. 3] presents an example that can be favorably used in the present invention. 3 shows an example of utilizing voice recognition information, image recognition information, pulse recognition information, moving recognition (user's movement) information, and body temperature recognition information as the user's biometric information. 2 shows a configuration using images and sounds, but the present invention is not limited thereto, and multiple biometric information in various combinations may be used according to implementation examples.

[도 3]을 참조하면, 고수준 상황인지 프로세싱에 다중 생체정보를 활용하는 가중치가 환경 요소에 의해 변경 정의되는 것을 확인할 수 있다. 즉, 환경 요소인 조도(illumination)가 변화함에 대응하여 다중 생체정보의 가중치 조합이 변경 정의되는 모습이 [도 3]에 제시되어 있다. 본 명세서에서 '적응적(adaptive)'라는 용어는 환경 요소의 센싱 결과에 따라 다중 생체정보가 고수준 상황인지에 반영되는 가중치의 조합이 변경되는 구성을 의미한다.Referring to FIG. 3, it can be seen that the weight for utilizing multiple biometric information for high-level context recognition processing is changed and defined by environmental factors. That is, a state in which a weight combination of multiple biometric information is changed and defined in response to a change in illumination, which is an environmental factor, is shown in [Fig. 3]. In this specification, the term'adaptive' refers to a configuration in which a combination of weights reflected in whether multiple biometric information is a high-level situation is changed according to a sensing result of an environmental element.

에지 인공지능부(Edge-AI)(140)는 스마트미러(100)의 내부 메모리 공간(예: 플래시메모리, DRAM)에 설치 및 동작하는 인공지능 데이터 처리 모듈이다. 일반적으로 인공지능 데이터 처리는 외부 서버를 이용하도록 구성하는데, 본 발명에서는 채팅 서비스의 실시간 응답성을 확보하기 위해 AI 알고리즘이 스마트미러에 미리 내장되는 에지 인공지능(Edge-AI) 방식이 바람직하다.The edge-AI 140 is an artificial intelligence data processing module installed and operated in an internal memory space (eg, flash memory, DRAM) of the smart mirror 100. In general, artificial intelligence data processing is configured to use an external server. In the present invention, an edge-AI method in which an AI algorithm is built in advance in a smart mirror is preferable in order to secure real-time responsiveness of a chat service.

에지 인공지능부(140)는 영상 데이터(121), 음향 데이터(122), 환경 데이터(123)를 제공받는데, 영상 데이터(121) 및 음향 데이터(122)로부터 영상기반 상황인지 및 음향기반 상황인지를 각각 수행하고, 생체정보 가중치 테이블에 환경 데이터(123)를 적용하여 획득한 반영 가중치에 따라 영상기반 상황인지 결과 및 음향기반 상황인지 결과를 결합하여 데이터 코딩 처리함으로써 개별 상황인지 복합코드를 획득한다. 그리고 나서, 이 개별 상황인지 복합코드를 인공지능 기반 데이터 처리함으로써 복합 상황인지를 수행하게 되고 이를 통해 영상 및 음향 기반의 고수준 상황인지 결과를 획득한다.The edge artificial intelligence unit 140 is provided with image data 121, sound data 122, and environment data 123, and whether it is an image-based situation or sound-based situation from the image data 121 and sound data 122 Each is performed, and according to the reflected weight obtained by applying the environmental data 123 to the biometric information weight table, the image-based context recognition result and the sound-based context recognition result are combined and data-coded to obtain an individual context recognition composite code. . Then, by processing this individual context recognition complex code with artificial intelligence-based data, complex context recognition is performed, and through this, high-level context recognition results based on image and sound are obtained.

챗봇 처리부(150)는 고수준 상황인지 결과에 대응하여 스마트미러(100)의 사용자 인터페이스, 예컨대 내장 LCD 화면나 내장 스피커를 통해 텍스트 또는 보이스 기반의 실시간 채팅 서비스를 제공한다. 챗봇(chatbot) 소프트웨어 자체는 주지관용 기술이지만, 에지 인공지능부(140)가 획득한 고수준 상황인지 결과를 반영하여 채팅 내용을 설정하는 점이 본 발명의 차이점이다.The chatbot processing unit 150 provides a text or voice-based real-time chat service through a user interface of the smart mirror 100, for example, a built-in LCD screen or a built-in speaker in response to a high-level context recognition result. The chatbot software itself is a commonly used technology, but the difference of the present invention is that the content of the chat is set by reflecting the result of whether the edge AI unit 140 has obtained a high-level situation.

이하에서는, 본 발명에서 에지 인공지능부(140)의 바람직한 내부 기능적 구성에 대해 좀더 상세하게 기술한다. [도 2]를 참조하면, 에지 인공지능부(140)는 영상기반 상황인지부(141), 음향기반 상황인지부(142), 환경조건 인지부(143), 생체정보 가중 코딩부(144), 복합 상황인지부(145)를 구비한다.Hereinafter, a preferred internal functional configuration of the edge artificial intelligence unit 140 in the present invention will be described in more detail. Referring to Fig. 2, the edge artificial intelligence unit 140 includes an image-based context recognition unit 141, a sound-based context recognition unit 142, an environmental condition recognition unit 143, and a biometric information weighted coding unit 144 , And a complex situation recognition unit 145.

먼저, 영상기반 상황인지부(141)는 영상 데이터(121)를 인공지능 기반 데이터 처리, 예컨대 CNN (Convolutional Neural Network) 알고리즘에 따라 영상 데이터 처리하여 사용자와 관련된 영상기반 상황인지 정보를 획득한다. 즉, 영상 기반의 개별 상황인지를 수행하는 것이다. 영상기반 상황인지는 예컨대 얼굴 표정에 기초하여 사용자의 감정을 식별하게 되는 것을 들 수 있다. First, the image-based context recognition unit 141 obtains image-based context recognition information related to a user by processing the image data 121 on the image data 121 according to an artificial intelligence-based data processing, for example, a Convolutional Neural Network (CNN) algorithm. In other words, image-based individual situation recognition is performed. Recognizing an image-based situation may include identifying a user's emotion based on facial expressions, for example.

[도 5]은 일반적인 감정표현의 예를 나타내는 도면이고, [도 6]과 [도 7]은 본 발명에서 양호하게 사용할 수 있는 감정분류 체계 및 감정코드 인코딩의 예를 나타낸다. [도 6]은 영어에 대한 감정 분류에 적합하다고 알려진 로버트 플루칙(Robert Plutchik)의 감정 휠(wheel of emotions)을 나타내는 도면이고, [도 7]은 국어(한국어)에 대한 감정 분류에 적합하다고 알려진 감정코드(sentiment code) 규칙인데, 본 발명에도 양호하게 사용할 수 있다.[Fig. 5] is a diagram showing an example of a general emotion expression, and [Fig. 6] and [Fig. 7] show an example of an emotion classification system and an emotion code encoding that can be favorably used in the present invention. [Fig. 6] is a diagram showing the wheel of emotions of Robert Plutchik, which is known to be suitable for classification of emotions for English, and [Fig. 7] is suitable for classification of emotions for Korean (Korean). Although it is a known sentiment code rule, it can be well used in the present invention.

[도 6]의 감정분류 실시예에서는 원의 중심으로부터 멀어지는 방향으로 이루어진 3단계의 대분류, 소분류, 미세분류에 대해 예컨대 각각 3비트, 3비트, 2비트를 할당하여 감정코드 인코딩을 수행할 수도 있다. 이러한 규칙에 따라 각각의 감정 분류 결과는 [도 7]의 우측 컬럼에 '감정코드 인코딩'으로 나타낸 것과 유사한 방식으로 도출될 수 있다. 또한, [도 7]의 감정코드 인코딩은 그 값이 커질수록 인간의 밝은 감정에 대응하고 그 값이 작을 수록 인간의 어두운 감정에 대응하도록 설계된 것이다. 본 발명에서 영상기반 상황인지 정보는 이처럼 일정한 규칙성(경향성)을 갖도록 설정된 것인데, 이러한 경향성은 에지 인공지능부(140)의 인공지능 동작이나 학습에 유리하게 작용한다.In the emotional classification embodiment of FIG. 6, for example, 3 bits, 3 bits, and 2 bits may be allocated to each of the three major classifications, sub classifications, and fine classifications in a direction away from the center of a circle to perform emotion code encoding. . According to these rules, each emotion classification result can be derived in a manner similar to that indicated by'emotional code encoding' in the right column of [Fig. 7]. In addition, the emotion code encoding of [Fig. 7] is designed to respond to human bright emotions as the value increases and to respond to dark emotions of humans as the value decreases. In the present invention, the image-based context recognition information is set to have a certain regularity (a tendency) as described above, and this tendency is advantageous for the AI operation or learning of the edge artificial intelligence unit 140.

음향기반 상황인지부(142)는 음향 데이터(122)를 인공지능 기반 데이터 처리, 예컨대 DNN (Deep Neural Network) 알고리즘에 따라 음향 데이터 처리하여 사용자와 관련된 음향기반 상황인지 정보를 획득한다. 즉, 음향 기반의 개별 상황인지를 수행하는 것이다. 본 발명에서 음향기반 상황인지 정보는 일정한 규칙성(경향성)을 갖도록 설정되는데, 이러한 경향성은 에지 인공지능부(140)의 인공지능 동작이나 학습에 유리하게 작용한다.The sound-based context recognition unit 142 obtains sound-based context recognition information related to a user by processing the sound data 122 based on artificial intelligence data, for example, according to a Deep Neural Network (DNN) algorithm. In other words, it performs sound-based individual situation recognition. In the present invention, the acoustic-based context perception information is set to have a certain regularity (a tendency), and this tendency is advantageous for the AI operation or learning of the edge AI unit 140.

환경조건 인지부(143)는 주변 환경 데이터(123)로부터 사용자와 관련된 환경조건 정보를 획득한다.The environmental condition recognition unit 143 acquires environmental condition information related to a user from the surrounding environment data 123.

생체정보 가중 코딩부(144)는 [도 3]에 나타낸 것과 같은 생체정보 가중치 테이블에 환경조건 인지부(143)가 획득한 환경조건 정보를 적용하여 해당 환경 요소에 대응하는 영상 데이터와 음향 데이터의 반영 가중치를 획득한다. 이 획득된 반영 가중치가 현재 환경 조건에서 고수준 상황인지를 수행함에 있어서 영상 기반의 개별 상황인지 결과와 음향 기반의 개별 상황인지 결과를 각각 어느 정도로 반영할 것인지를 나타내는 값이다. 생체정보 가중 코딩부(144)는 영상기반 상황인지 정보와 음향기반 상황인지 정보에 반영 가중치를 적용하여 가중 연산(weighted calculation)을 수행한다. 즉, 영상기반 상황인지 정보와 음향기반 상황인지 정보는 일정한 경향성을 갖도록 코딩된 데이터 값인데, 이들에 각각의 반영 가중치를 적용하고 합산 혹은 연결(concatenation)하는 가중 연산을 수행하는 것이다. 이러한 가중 연산의 결과는 미리 설정된 포맷에 따라 데이터 코딩 처리하는데, 이를 사용자와 관련된 개별 상황인지 복합코드라고 부른다.The biometric information weighting coding unit 144 applies the environmental condition information acquired by the environmental condition recognition unit 143 to the biometric information weight table as shown in [Fig. 3], so that the image data and sound data corresponding to the environmental element are Acquire the reflection weight. The acquired reflection weight is a value indicating to what extent each of the image-based individual situation or the sound-based individual situation or the result is reflected in performing whether it is a high-level situation in the current environmental condition. The biometric information weighted coding unit 144 performs a weighted calculation by applying a reflection weight to the image-based context recognition information and the sound-based context recognition information. That is, the image-based context information and the sound-based context information are data values coded to have a certain tendency, and a weighting operation is performed by applying each reflection weight to them and adding or concatenating them. The result of this weighting operation is data coded according to a preset format, which is called a composite code whether it is an individual situation related to the user.

복합 상황인지부(145)는 개별 상황인지 복합코드를 인공지능 기반 데이터 처리하여 복합 상황인지를 수행함으로써 사용자와 관련된 고수준 상황인지 결과를 획득한다. 이는 복수의 개별 상황인지 정보를 인공지능 처리 모듈에 넣어 조합함으로써 복합 상황인지를 수행하는 것에 대응한다. 복합 상황인지부(145)에서 사용하는 인공지능 알고리즘은 외부에 미리 생성 및 학습되어 스마트미러(100)의 내부 메모리 공간에 저장되는 것이 바람직하며, 스마트미러(100)의 실시간 챗봇 서비스에 대한 만족도 평가를 피드백받아 인공지능 학습을 수행하여 지속적으로 업데이트하도록 구성하는 것이 더욱 바람직하다.The complex context recognition unit 145 obtains a result of recognizing a high-level context related to a user by performing complex context recognition by processing the individual context or the complex code with artificial intelligence-based data. This corresponds to performing complex situation recognition by putting and combining a plurality of individual situation recognition information into an artificial intelligence processing module. It is preferable that the artificial intelligence algorithm used by the complex context recognition unit 145 is generated and learned in advance and stored in the internal memory space of the smart mirror 100, and the satisfaction level for the real-time chatbot service of the smart mirror 100 is evaluated. It is more desirable to configure to continuously update by performing artificial intelligence learning by receiving feedback.

[도 4]는 본 발명에서 스마트미러(100)가 생체정보 가중치 테이블을 조정하고 블록체인을 적용하는 개념을 나타내는 도면이다.[Fig. 4] is a diagram showing a concept in which the smart mirror 100 adjusts the biometric information weight table and applies a block chain in the present invention.

다수의 스마트미러(100)가 블록체인을 통해 연결되어 가중치 분산원장(200)을 분산 공유한다. [도 4]에서 다수의 스마트미러(100)는 여러 지역에 분산 설치되어 있을 수도 있고 혹은 단일 건물의 여러 지점에 설치되어 있을 수도 있다. 이들 스마트미러(100)는 자체적으로 생체정보 가중치 테이블을 조정해나가는데, 그에 따른 가중치 변경 정보를 블록체인을 통해 공유한다.A number of smart mirrors 100 are connected through a block chain to distribute and share the weighted distributed ledger 200. In [Fig. 4], a plurality of smart mirrors 100 may be distributed in several areas or may be installed in several points in a single building. These smart mirrors 100 self-adjust the biometric information weight table, and share the weight change information accordingly through the blockchain.

전술한 바와 같이, 본 발명에서 스마트미러(100)는 채팅 서비스의 실시간 응답성을 확보하기 위하여 외부 인공지능 서버를 이용하지 않고 내부 메모리 공간에 설치 및 작동하는 에지 인공지능부(140)를 각자 자체적으로 운용한다. 본 발명에서는 고수준 상황인지 성능을 점차적으로 개선하기 위해 생체정보 가중치 테이블을 조정하는 구성을 채택하는 한편, 다수의 스마트미러(100)가 동일 스타일의 고수준 상황인지 성능을 나타내기 위해 블록체인을 채택하였다. 이는 단일의 인공지능 서버를 사용하지 않고 에지 인공지능부(140)를 채택하는 시스템 구성 환경에서 성능 개선과 통일성을 달성하기 위한 본 발명의 특유 구성이다.As described above, in the present invention, the smart mirror 100 has its own edge artificial intelligence unit 140 installed and operated in the internal memory space without using an external artificial intelligence server in order to secure real-time responsiveness of the chat service. Operate as. In the present invention, while adopting a configuration to adjust the biometric information weight table to gradually improve the high-level context-aware performance, a block chain was adopted to show the performance of a plurality of smart mirrors 100 having the same style of high-level context recognition. . This is a unique configuration of the present invention for achieving performance improvement and uniformity in a system configuration environment employing the edge artificial intelligence unit 140 without using a single artificial intelligence server.

이를 위해, [도 2]를 참조하면, 피드백 수신부(160)와 가중치 조정부(170)와 블록체인 처리부(180)가 구비되어 있다.To this end, referring to [Fig. 2], a feedback receiving unit 160, a weight adjusting unit 170, and a block chain processing unit 180 are provided.

먼저, 피드백 수신부(160)는 스마트미러(100)의 사용자 인터페이스를 통해 실시간 채팅 서비스에 대한 만족도 평가를 피드백 제공받는다. 만족도 평가를 피드백받는 스마트미러(100)의 사용자 인터페이스는 스마트미러(100)에 하드웨어 구현된 인터페이스에 한정되지 않으며 스마트미러(100)와 연동하는 스마트폰 애플리케이션을 통해 사용자가 입력하는 채널도 가능하다.First, the feedback receiving unit 160 receives feedback on a satisfaction evaluation for a real-time chat service through the user interface of the smart mirror 100. The user interface of the smart mirror 100 that receives feedback from the satisfaction evaluation is not limited to the interface implemented in hardware in the smart mirror 100, and a channel input by the user through a smartphone application interlocking with the smart mirror 100 is also possible.

가중치 조정부(170)는 피드백 수신부(160)가 제공하는 만족도 평가에 따라 생체정보 가중치 테이블을 수치, 특히 현재 만족도 평가를 입력한 사용자에게 채팅 서비스를 제공할 ‹š에 활용되었던 현재의 환경조건 정보에 대응하는 영상 데이터와 음향 데이터의 반영 가중치 값을 조정한다.According to the satisfaction evaluation provided by the feedback receiving unit 160, the weight adjustment unit 170 converts the biometric information weight table into numerical values, in particular, to the current environmental condition information used to provide a chat service to the user who has entered the current satisfaction evaluation. The reflection weight value of the corresponding image data and sound data is adjusted.

먼저, 피드백 수신부(160)로부터 긍정적 만족도 평가를 제공받으면 생체정보 가중치 테이블에서 영상 데이터와 음향 데이터의 반영 가중치의 차이를 확대시킨다. 이 때에는 영상 데이터와 음향 데이터의 반영 가중치 값이 어느 정도 잘 적용되어 있는 것이므로 고수준 상황인지 성능을 강화할 가능성을 테스트하기 위해 반영 가중치의 차이를 벌려보는 것이다.First, when a positive satisfaction evaluation is provided from the feedback receiving unit 160, the difference between the reflection weight of the image data and the sound data is enlarged in the biometric information weight table. In this case, since the reflection weight values of the image data and the sound data are well applied to a certain extent, the difference in the reflection weights is widened to test the possibility of enhancing performance in a high-level situation.

반대로, 피드백 수신부(160)로부터 부정적 만족도 평가를 제공받으면 생체정보 가중치 테이블에서 영상 데이터와 음향 데이터의 반영 가중치의 차이를 축소시킨다. 이 때에는 영상 데이터와 음향 데이터의 반영 가중치 값을 반대 방향으로 변경시켜 개선 가능성을 테스트하는 것이다.Conversely, when a negative satisfaction evaluation is provided from the feedback receiver 160, the difference between the reflection weights of the image data and the sound data in the biometric information weight table is reduced. In this case, the possibility of improvement is tested by changing the reflection weight values of image data and sound data in opposite directions.

블록체인 처리부(180)는 해당 스마트미러(100)가 운용하는 생체정보 가중치 테이블을 포함시켜 블록 데이터를 생성하고 미리 설정된 스케쥴(예: 24시간)에 따라 블록체인 업데이트를 수행하여 가중치 분산원장(200)에 대해 해당 스마트미러(100)가 분산 정보 공유에 참여하도록 한다. 이를 통해, 블록체인에 참여하는 다수의 스마트미러(100)에서 동일 수준의 고수준 상황인지 성능을 나타낼 수 있고, 이를 통해 챗봇 서비스를 균일하게 구현할 수 있다.The block chain processing unit 180 generates block data by including the biometric information weight table operated by the corresponding smart mirror 100, and performs a block chain update according to a preset schedule (e.g., 24 hours) to perform a weight distribution ledger (200). ) For the smart mirror 100 to participate in distributed information sharing. Through this, a number of smart mirrors 100 participating in the blockchain can exhibit the same level of high-level situation recognition performance, and through this, a chatbot service can be uniformly implemented.

블록체인(block chain)은 일반적으로는 네트워크 상에서 발생된 거래 정보가 네트워크 참여자들 간에 공유되는 노드 수만큼 복제되어 분산 저장되는 공개 디지털 거래 장부라는 개념을 갖는다. 블록체인 기술은 암호화폐를 중심으로 활발하게 적용되고 있는데, 본 발명에서는 스마트미러(100)에서 발생된 생체정보 가중치의 변경 내용을 다수의 스마트미러(100)로 전파시키는 데에 블록체인 기술을 활용하며, 이를 위해 다수의 스마트미러(100)가 일종의 피어(peer)로서 블록체인의 디지털 원장 관리에 참여한다. 본 명세서에서는 생체정보 가중치 테이블에 관련된 정보를 관리하는 분산원장임을 나타내기 위해 블록체인의 디지털 원장을 가중치 분산원장(200)이라고 이름지었다.Blockchain generally has the concept of a public digital transaction ledger in which transaction information generated on a network is duplicated and stored distributedly as many as the number of nodes shared among network participants. Blockchain technology is actively applied around cryptocurrency.In the present invention, blockchain technology is used to propagate changes in the weight of biometric information generated in the smart mirror 100 to a plurality of smart mirrors 100. To this end, a number of smart mirrors 100 participate in the digital ledger management of the blockchain as a kind of peer. In this specification, the digital ledger of the blockchain is named weighted distributed ledger 200 to indicate that it is a distributed ledger that manages information related to the biometric information weight table.

가중치 분산원장(200)은 다수의 거래 데이터가 각각 블록처럼 구성되어 서로 연결되어 있는 형태인데, 하나의 블록은 그 대응하는 블록체인 갱신주기(예: 24시간)에서 블록체인에 연동하는 피어들, 즉 다수의 스마트미러(100)가 생체정보 가중치 조정 이벤트에 대응하여 새롭게 생성한 블록 데이터에 대응한다. [도 4]를 참조하면, 이러한 블록에는 기본적으로 생체정보 가중치 변경 정보가 반영되는데, 가중치 조정 이후의 생체정보 가중치 테이블 자체를 포함시킬 수도 있고 혹은 특정 가중치 값에 대한 변경정보를 추출하여 포함시킬 수도 있다. 분산 네트워크 기반이라는 블록체인의 속성상, 가중치 분산원장(200)에 일단 기입된 데이터는 무단으로 수정하는 것이 사실상 불가능하므로 신뢰할 수 있다.The weighted distributed ledger 200 is a form in which a number of transaction data is configured like a block and connected to each other, and one block is peers that are linked to the blockchain in the corresponding blockchain update cycle (e.g., 24 hours), That is, the plurality of smart mirrors 100 correspond to newly generated block data in response to the biometric information weight adjustment event. Referring to [Fig. 4], biometric information weight change information is basically reflected in such a block. The biometric information weight table itself after weight adjustment can be included, or change information for a specific weight value can be extracted and included. have. Due to the nature of the blockchain, which is based on a distributed network, data once written in the weighted distributed ledger 200 cannot be modified without permission, so it is reliable.

한편, 본 발명은 컴퓨터가 읽을 수 있는 비휘발성 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현되는 것이 가능하다. 이러한 비휘발성 기록매체로는 다양한 형태의 스토리지 장치가 존재하는데 예컨대 하드디스크, SSD, CD-ROM, NAS, 자기테이프, 웹디스크, 클라우드 디스크 등이 있고 네트워크로 연결된 다수의 스토리지 장치에 코드가 분산 저장되고 실행되는 형태도 구현될 수 있다. 또한, 본 발명은 하드웨어와 결합되어 특정의 절차를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램의 형태로 구현될 수도 있다.On the other hand, the present invention can be implemented in the form of a computer-readable code on a nonvolatile computer-readable recording medium. Various types of storage devices exist as such non-volatile recording media, such as hard disks, SSDs, CD-ROMs, NAS, magnetic tapes, web disks, and cloud disks, and codes are distributed and stored in multiple storage devices connected through a network. It can be implemented and executed. In addition, the present invention may be implemented in the form of a computer program stored in a medium in order to execute a specific procedure in combination with hardware.

100 : 스마트미러
111 : 미러 카메라 112 : 미러 마이크
113 : 환경 센서모듈
130 : 가중치 테이블 저장부
140 : 에지 인공지능부
141 : 영상기반 상황인지부 142 : 음향기반 상황인지부
143 : 환경조건 인지부 144 : 생체정보 가중 코딩부
145 : 복합 상황인지부
150 : 챗봇 처리부 160 : 피드백 수신부
170 : 가중치 조정부 180 : 블록체인 처리부
200 : 가중치 분산원장
100: smart mirror
111: mirror camera 112: mirror microphone
113: environmental sensor module
130: weight table storage unit
140: edge artificial intelligence unit
141: image-based context recognition unit 142: sound-based context recognition unit
143: environmental condition recognition unit 144: biometric information weighted coding unit
145: Complex situation awareness department
150: chatbot processing unit 160: feedback receiving unit
170: weight adjustment unit 180: block chain processing unit
200: weighted distributed ledger

Claims (5)

스마트미러(100)의 전면에서 자신을 비추는 사용자에 대해 영상 및 음향 정보 기반으로 고수준 상황인지를 수행하고 그 인지된 상황에 대응하여 미러 인터페이스를 통해 챗봇 서비스를 제공하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템으로서,
상기 스마트미러(100)의 전면 특정 위치에 설치되고 미러 전면을 촬영하여 상기 사용자와 관련된 영상 데이터를 생성하는 미러 카메라(111);
상기 스마트미러(100)에 설치되고 주변 소리를 수집하여 상기 사용자와 관련된 음향 데이터를 생성하는 미러 마이크(112);
상기 스마트미러(100)의 주변 환경 데이터를 획득하는 환경 센서모듈(113);
고수준 상황인지에 대한 상기 영상 데이터와 상기 음향 데이터의 반영 가중치를 상기 주변 환경 데이터에 대응하여 변경 정의하는 생체정보 가중치 테이블을 저장하는 가중치 테이블 저장부(130);
상기 스마트미러(100)의 내부 메모리 공간에 설치 및 동작하고, 상기 영상 데이터 및 상기 음향 데이터로부터 영상기반 상황인지 및 음향기반 상황인지를 각각 수행하고, 상기 생체정보 가중치 테이블에 상기 주변 환경 데이터를 적용하여 획득한 반영 가중치에 따라 상기 영상기반 상황인지 결과 및 음향기반 상황인지 결과를 데이터 코딩 처리하여 개별 상황인지 복합코드를 획득하고, 상기 개별 상황인지 복합코드를 인공지능 기반 데이터 처리하여 복합 상황인지를 수행함으로써 고수준 상황인지 결과를 획득하는 에지 인공지능부(140);
상기 고수준 상황인지 결과에 대응하여 상기 스마트미러(100)의 사용자 인터페이스를 통해 텍스트 또는 보이스 기반의 실시간 채팅 서비스를 제공하는 챗봇 처리부(150);
를 포함하여 구성되는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템.
High-level using adaptive multi-biometric information that performs high-level situation recognition based on image and sound information for the user who illuminates itself from the front of the smart mirror 100 and provides a chatbot service through the mirror interface in response to the recognized situation. As a context awareness-based smart mirror chatbot system,
A mirror camera 111 installed at a specific front position of the smart mirror 100 and photographing the front of the mirror to generate image data related to the user;
A mirror microphone 112 installed in the smart mirror 100 and collecting ambient sound to generate sound data related to the user;
An environmental sensor module 113 for acquiring environmental data of the smart mirror 100;
A weight table storage unit 130 for storing a biometric information weight table for changing and defining the weights of the image data and the sound data corresponding to the surrounding environment data for recognizing a high level situation;
It is installed and operated in the internal memory space of the smart mirror 100, performs image-based context or sound-based context, respectively, from the image data and the acoustic data, and applies the surrounding environment data to the biometric information weight table According to the acquired reflection weight, the image-based context or the sound-based context recognition result is data-coded to obtain an individual context or a composite code, and the individual context or the composite code is processed with artificial intelligence-based data to determine whether a composite context or not. An edge artificial intelligence unit 140 that acquires a high-level situation recognition result by performing it;
A chatbot processing unit 150 that provides a text- or voice-based real-time chat service through a user interface of the smart mirror 100 in response to the high level context recognition result;
A smart mirror chatbot system based on high-level context awareness using adaptive multi-biometric information comprising a.
청구항 1에 있어서,
상기 에지 인공지능부(140)는,
상기 영상 데이터를 인공지능 기반 데이터 처리하여 사용자와 관련된 영상기반 상황인지 정보를 획득하는 영상기반 상황인지부(141);
상기 음향 데이터를 인공지능 기반 데이터 처리하여 사용자와 관련된 음향기반 상황인지 정보를 획득하는 음향기반 상황인지부(142);
상기 주변 환경 데이터로부터 사용자와 관련된 환경조건 정보를 획득하는 환경조건 인지부(143);
상기 생체정보 가중치 테이블에 상기 환경조건 정보를 적용하여 고수준 상황인지를 위한 상기 영상 데이터와 상기 음향 데이터의 반영 가중치를 획득하고, 상기 영상기반 상황인지 정보와 상기 음향기반 상황인지 정보에 상기 획득한 반영 가중치를 적용하여 가중 연산하고 그 가중 연산 결과를 미리 설정된 포맷에 따라 데이터 코딩 처리함으로써 사용자와 관련된 개별 상황인지 복합코드를 획득하는 생체정보 가중 코딩부(144);
상기 개별 상황인지 복합코드를 인공지능 기반 데이터 처리하여 복합 상황인지를 수행함으로써 사용자와 관련된 고수준 상황인지 결과를 획득하는 복합 상황인지부(145);
를 포함하여 구성되는 것을 특징으로 하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템.
The method according to claim 1,
The edge artificial intelligence unit 140,
An image-based context recognition unit 141 for obtaining image-based context recognition information related to a user by processing the image data based on artificial intelligence;
A sound-based context recognition unit (142) for acquiring acoustic-based context recognition information related to a user by processing the acoustic data based on artificial intelligence;
An environmental condition recognition unit 143 for obtaining environmental condition information related to a user from the surrounding environment data;
Applying the environmental condition information to the biometric information weight table to obtain a reflection weight of the image data and the sound data for high-level context recognition, and the acquired reflection in the image-based context recognition information and the acoustic context recognition information A biometric information weighting coding unit 144 that applies a weight to perform a weighting operation and obtains a composite code indicating an individual situation related to a user by data coding the weighting operation result according to a preset format;
A complex context recognition unit 145 for obtaining a high-level context recognition result related to a user by processing the individual context recognition complex code with artificial intelligence-based data to perform complex context recognition;
Smart mirror chatbot system based on high-level context perception using adaptive multi-biometric information, characterized in that it comprises a.
청구항 1에 있어서,
상기 미러 카메라(111)는 3D 카메라 모듈을 구비하여 미러 전면의 사용자에 대한 얼굴 모습과 표정에 대한 입체 영상 데이터를 생성하고,
상기 미러 마이크(112)는 3D 음향의 어레이 마이크 모듈을 구비하여 주변 소리에 대한 입체 음향 데이터를 생성하고,
상기 환경 센서모듈(113)은 외부 IoT 센서로부터 조도, 온도, 습도, 미세먼지 중 하나 이상의 주변 환경 데이터를 획득하기 위한 센서 인터페이스 모듈을 포함하여 구성되는 것을 특징으로 하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템.
The method according to claim 1,
The mirror camera 111 is provided with a 3D camera module to generate three-dimensional image data of a face shape and expression for a user in front of the mirror,
The mirror microphone 112 is provided with an array microphone module of 3D sound to generate 3D sound data for ambient sound,
The environmental sensor module 113 includes a sensor interface module for acquiring ambient environment data of at least one of illuminance, temperature, humidity, and fine dust from an external IoT sensor. Smart mirror chatbot system based on context awareness.
청구항 2에 있어서,
상기 스마트미러(100)의 사용자 인터페이스를 통해 상기 실시간 채팅 서비스에 대한 만족도 평가를 피드백받는 피드백 수신부(160);
상기 피드백 수신부(160)로부터 긍정적 만족도 평가를 제공받는 경우에 상기 생체정보 가중치 테이블에 대해 현재의 환경조건 정보에 대응하는 상기 영상 데이터와 상기 음향 데이터의 반영 가중치의 차이를 확대시키고, 상기 피드백 수신부(160)로부터 부정적 만족도 평가를 제공받는 경우에 상기 생체정보 가중치 테이블에 대해 현재의 환경조건 정보에 대응하는 상기 영상 데이터와 상기 음향 데이터의 반영 가중치의 차이를 축소시키는 가중치 조정부(170);
를 더 포함하여 구성되는 것을 특징으로 하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템.
The method according to claim 2,
A feedback receiving unit 160 for receiving feedback on a satisfaction evaluation for the real-time chat service through a user interface of the smart mirror 100;
When a positive satisfaction evaluation is provided from the feedback receiving unit 160, the difference between the reflection weight of the image data corresponding to the current environmental condition information and the acoustic data is increased with respect to the biometric information weight table, and the feedback receiving unit ( A weight adjustment unit 170 for reducing a difference between a reflection weight of the image data corresponding to the current environmental condition information and the sound data with respect to the biometric information weight table when a negative satisfaction evaluation is received from 160);
Smart mirror chatbot system based on high-level context awareness using adaptive multi-biometric information, characterized in that it further comprises.
청구항 4에 있어서,
상기 생체정보 가중치 테이블을 포함시켜 블록 데이터를 생성하고 미리 설정된 스케쥴에 따라 블록체인 업데이트를 수행하여 가중치 분산원장(200)에 대한 분산 정보 공유에 참여하는 블록체인 처리부(180);
를 더 포함하여 구성되는 것을 특징으로 하는 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템.
The method of claim 4,
A block chain processing unit 180 that generates block data including the biometric information weight table and performs block chain update according to a preset schedule to participate in sharing distributed information on the weight distribution ledger 200;
Smart mirror chatbot system based on high-level context awareness using adaptive multi-biometric information, characterized in that it further comprises.
KR1020190078412A 2019-06-29 2019-06-29 smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics KR102361038B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190078412A KR102361038B1 (en) 2019-06-29 2019-06-29 smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190078412A KR102361038B1 (en) 2019-06-29 2019-06-29 smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics

Publications (2)

Publication Number Publication Date
KR20210001798A true KR20210001798A (en) 2021-01-06
KR102361038B1 KR102361038B1 (en) 2022-02-09

Family

ID=74128149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190078412A KR102361038B1 (en) 2019-06-29 2019-06-29 smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics

Country Status (1)

Country Link
KR (1) KR102361038B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240073243A (en) 2022-11-17 2024-05-27 성신여자대학교 연구 산학협력단 Smart mirror robot system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090019064A (en) * 2007-08-20 2009-02-25 경희대학교 산학협력단 Context-aware service conflict resolution method applying social network
KR20130016105A (en) * 2011-08-04 2013-02-14 한국과학기술원 Modulation-based intelligent digital space system
KR20130016277A (en) * 2010-03-16 2013-02-14 인터페이즈 코퍼레이션 Interactive display system
KR20160063870A (en) * 2014-11-27 2016-06-07 현대오트론 주식회사 Methods and systems for recognizing a driver using face and footstep
KR20170018930A (en) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 Methods and systems for creating virtual and augmented reality
WO2017173141A1 (en) * 2016-03-31 2017-10-05 JIBO, Inc. Persistent companion device configuration and deployment platform
US20180129955A1 (en) * 2016-11-09 2018-05-10 Cognitive Scale, Inc. Hybrid Blockchain Data Architecture for use Within a Cognitive Environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090019064A (en) * 2007-08-20 2009-02-25 경희대학교 산학협력단 Context-aware service conflict resolution method applying social network
KR20130016277A (en) * 2010-03-16 2013-02-14 인터페이즈 코퍼레이션 Interactive display system
KR20130016105A (en) * 2011-08-04 2013-02-14 한국과학기술원 Modulation-based intelligent digital space system
KR20170018930A (en) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 Methods and systems for creating virtual and augmented reality
KR20160063870A (en) * 2014-11-27 2016-06-07 현대오트론 주식회사 Methods and systems for recognizing a driver using face and footstep
WO2017173141A1 (en) * 2016-03-31 2017-10-05 JIBO, Inc. Persistent companion device configuration and deployment platform
US20180129955A1 (en) * 2016-11-09 2018-05-10 Cognitive Scale, Inc. Hybrid Blockchain Data Architecture for use Within a Cognitive Environment

Also Published As

Publication number Publication date
KR102361038B1 (en) 2022-02-09

Similar Documents

Publication Publication Date Title
CN110291489B (en) Computationally efficient human identification intelligent assistant computer
KR102444165B1 (en) Apparatus and method for providing a meeting adaptively
US10117032B2 (en) Hearing aid system, method, and recording medium
US11151994B2 (en) Methods and systems for managing voice commands and the execution thereof
US11749285B2 (en) Speech transcription using multiple data sources
US9891884B1 (en) Augmented reality enabled response modification
US11122198B2 (en) Adjusting image capture parameters via machine learning
US10834456B2 (en) Intelligent masking of non-verbal cues during a video communication
US10652655B1 (en) Cognitive volume and speech frequency levels adjustment
US10015385B2 (en) Enhancing video conferences
JP7295284B2 (en) Adaptive diarization model and user interface
US11195619B2 (en) Real time sensor attribute detection and analysis
US20210125610A1 (en) Ai-driven personal assistant with adaptive response generation
KR20190089451A (en) Electronic device for providing image related with text and operation method thereof
US20210298647A1 (en) Automatically aiding individuals with developing auditory attention abilities
US20200162616A1 (en) Haptic feedback during phone calls
US11164341B2 (en) Identifying objects of interest in augmented reality
US10991361B2 (en) Methods and systems for managing chatbots based on topic sensitivity
KR102361038B1 (en) smart mirror chatbot system of high-level context awareness by use of adaptive multiple biometrics
US20240197219A1 (en) Systems and methods for emotion prediction
US20220101860A1 (en) Automated speech generation based on device feed
WO2022201275A1 (en) Video analysis programme
JP2023542615A (en) Artificial Intelligence Voice Response System for Users with Speech Impairments

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right