KR102603035B1 - AI-based virtual chatbot operating system - Google Patents

AI-based virtual chatbot operating system Download PDF

Info

Publication number
KR102603035B1
KR102603035B1 KR1020230081006A KR20230081006A KR102603035B1 KR 102603035 B1 KR102603035 B1 KR 102603035B1 KR 1020230081006 A KR1020230081006 A KR 1020230081006A KR 20230081006 A KR20230081006 A KR 20230081006A KR 102603035 B1 KR102603035 B1 KR 102603035B1
Authority
KR
South Korea
Prior art keywords
character
user
weight
solution
parts
Prior art date
Application number
KR1020230081006A
Other languages
Korean (ko)
Inventor
김민수
Original Assignee
김민수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김민수 filed Critical 김민수
Priority to KR1020230081006A priority Critical patent/KR102603035B1/en
Application granted granted Critical
Publication of KR102603035B1 publication Critical patent/KR102603035B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/162Selection of materials
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명에 따른 AI 기반의 버츄얼 챗봇 운영 시스템은, 유저와의 채팅을 지원하는 것으로서, 유저의 음성을 STT(Sound-to-Text)를 기반으로 텍스트로 변환하는 텍스트 처리부와, 상기 텍스트를 분석하는 분석부 및, 상기 텍스트에서 특정 문장이나 단어의 조건 일치 여부에 따라 서로 다른 답변을 생성하는 답변 생성부와, 상기 답변을 TTS(Text-to-Sound) 기반으로 음성으로 변환하여 출력하는 출력부를 포함한 챗봇 인터페이스; 복수 개의 캐릭터를 저장한 캐릭터 데이터베이스와, 상기 캐릭터 데이터베이스에서 유저로부터 선택된 캐릭터를 상기 챗봇 인터페이스와 연동하여 출력하는 실행부를 포함한 캐릭터 관리 모듈;을 포함하는 것을 특징으로 한다.
본 발명에 따른 AI 기반의 버츄얼 챗봇 운영 시스템에 의하면, 버츄얼 캐릭터를 매개로 마치 사람과 소통하는 것과 같이 더욱 친밀한 소통 환경을 제공하는 챗봇 운영 시스템을 유저에게 제공하는 효과를 가진다.
The AI-based virtual chatbot operating system according to the present invention supports chatting with users, and includes a text processor that converts the user's voice into text based on STT (Sound-to-Text), and a text processor that analyzes the text. It includes an analysis unit, an answer generation unit that generates different answers depending on whether conditions for specific sentences or words in the text match, and an output unit that converts the answers into voices based on TTS (Text-to-Sound) and outputs them. chatbot interface; It is characterized by comprising a character management module including a character database storing a plurality of characters, and an execution unit that outputs a character selected by a user from the character database in conjunction with the chatbot interface.
According to the AI-based virtual chatbot operating system according to the present invention, it has the effect of providing users with a chatbot operating system that provides a more intimate communication environment as if communicating with a person through a virtual character.

Description

AI 기반의 버츄얼 챗봇 운영 시스템{AI-based virtual chatbot operating system}AI-based virtual chatbot operating system

본 발명은 AI 기반의 버츄얼 챗봇 운영 시스템에 관한 것으로서, 더욱 상세히는 인공지능 기반의 챗봇 인터페이스를 음성 출력 방식으로 구현할 때 버츄얼 캐릭터를 제공하여 해당 버츄얼 캐릭터를 매개로 음성을 출력하는 것은 물론 해당 버츄얼 캐릭터를 육성시킬 수 있는 독특한 수단을 접목하여 유저의 재미를 배가시킬 수 있는 버츄얼 챗봇 운영 시스템에 관한 것이다.The present invention relates to an AI-based virtual chatbot operating system. More specifically, when implementing an artificial intelligence-based chatbot interface in a voice output method, a virtual character is provided, and a voice is output through the virtual character, as well as the virtual character. It is about a virtual chatbot operating system that can double the fun of users by incorporating unique means to foster them.

챗봇은 대화형 인공지능의 한 종류로서 메신저에서 유저와 소통하는 봇을 말한다. 단순히 정해진 규칙에 맞춰서 메시지를 입력하면 발화를 출력하는 단순한 챗봇에서부터 상대방의 발화를 분석하여 인공지능에 가까운 발화를 내놓는 챗봇까지 다양한 챗봇들이 존재하고 있다.Chatbot is a type of conversational artificial intelligence and refers to a bot that communicates with users through messengers. There are a variety of chatbots, ranging from simple chatbots that output speech by simply entering a message according to established rules to chatbots that analyze the other person's speech and produce speech that is close to artificial intelligence.

과거의 챗봇은 메시지를 규칙 기반으로 송출해주는 정도에 지나지 않았으나, 2016년에 있었던 구글 딥마인드 챌린지 매치와 알파고의 등장 이후 챗봇에도 AI 기술을 접목시키려는 시도가 활발하게 이루어지고 있다. 또한, 기업에서도 큰 관심을 보여 각종 은행, 보험회사 등의 상담 챗봇 등이 다수 등장하였다.In the past, chatbots merely sent messages based on rules, but since the Google DeepMind Challenge Match in 2016 and the emergence of AlphaGo, attempts to incorporate AI technology into chatbots have been actively made. In addition, companies have shown great interest, and many consultation chatbots for various banks, insurance companies, etc. have appeared.

이러한 챗봇 관련 특허 역시 상당수 존재하는데, 국내 특허 제 2230372호인 자동 질문 생성을 이용한 챗봇 장치 및 그 동작방법은, 사용자에 의해 입력된 제1 발화를 분석하여, 제1 발화가 질문이면 미리 생성된 학습지식을 이용하여 제1 발화에 대한 챗봇 장치의 제1 응답을 생성하고, 제1 발화가 질문이 아니면 학습지식을 이용하여 사용자의 제2 발화를 예측하고 또한 예측된 제2 발화를 유도하는 챗봇 장치의 제2 응답을 생성하는 단계 및 제1 발화에 대한 답변으로서 생성된 챗봇 장치의 제1 응답 또는 제2 응답을 제공하는 단계를 포함하며, 학습지식은 코퍼스로부터 구축된 데이터베이스에 대해 기계학습을 수행하여 생성됨으로써, 확장성 있고 논리적인 흐름을 지향하는 지식/언어 학습이 가능하다고 공개되어 있다.There are also a number of such chatbot-related patents. Domestic Patent No. 2230372, a chatbot device using automatic question generation and its operation method, analyzes the first utterance input by the user and, if the first utterance is a question, pre-generated learning knowledge. The chatbot device generates the first response of the chatbot device to the first utterance, and if the first utterance is not a question, predicts the user's second utterance using learning knowledge and induces the predicted second utterance. It includes generating a second response and providing a first response or a second response of the chatbot device generated as a response to the first utterance, and the learning knowledge is obtained by performing machine learning on a database built from the corpus. By being created, it is revealed that knowledge/language learning oriented towards scalable and logical flow is possible.

그런데, 상기 기술 뿐 아니라 적지 않은 챗봇 서비스는 단순히 음성이나 텍스트만을 유저에게 출력하는 방식을 따르고 있어 지루한 느낌이 들기 쉬울 뿐 아니라 기계와 소통하는 기분을 가질 수 있어 지속적인 소통을 하기 어려운 환경이라는 단점이 따른다.However, not only the above technologies, but also many chatbot services follow the method of simply outputting only voice or text to the user, which not only makes it easy to feel boring, but also creates an environment where continuous communication is difficult because you can feel like you are communicating with a machine. .

따라서, 인공지능 기반의 챗봇을 통해 다양한 질의응답이나 스케줄 관리 등의 소통 기능을 수행하되 마치 사람과 소통하는 것과 같이 더욱 친밀한 소통 환경을 제공하는 신규하고 진보한 챗봇 운영 시스템을 개발할 필요성이 대두되는 현실이다.Therefore, there is a growing need to develop a new and advanced chatbot operating system that performs various communication functions such as answering questions and schedule management through artificial intelligence-based chatbots, but provides a more intimate communication environment like communicating with people. am.

국내 특허 제 2230372호Domestic Patent No. 2230372

본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 인공지능 기반의 챗봇을 통해 다양한 질의응답이나 스케줄 관리 등의 소통 기능을 수행하되 버츄얼 캐릭터를 매개로 마치 사람과 소통하는 것과 같이 더욱 친밀한 소통 환경을 제공하는 챗봇 운영 시스템을 제공하는 것을 주요 목적으로 한다.The present invention was developed to overcome the problems of the above technology. It performs communication functions such as answering various questions and schedule management through an artificial intelligence-based chatbot, but provides more intimate communication as if communicating with a person through a virtual character. The main purpose is to provide a chatbot operating system that provides an environment.

본 발명의 다른 목적은 유저가 캐릭터를 키우고 육성할 수 있는 독특하면서 다양한 수단을 제공하는 것이다.Another object of the present invention is to provide a unique and diverse means for users to grow and develop their characters.

본 발명의 또 다른 목적은 캐릭터의 답변 음성이 출력될 때 해당 음성이 녹음된 상태에서 외부 유출될 시 개인 정보가 유출될 수 있으므로 이를 방지하기 위한 보안 수단을 제공하는 것이다.Another purpose of the present invention is to provide a security measure to prevent personal information from being leaked when a character's answer voice is output and the voice is recorded and leaked to the outside.

상기 목적을 달성하기 위하여, 본 발명에 따른 AI 기반의 버츄얼 챗봇 운영 시스템은, 유저와의 채팅을 지원하는 것으로서, 유저의 음성을 STT(Sound-to-Text)를 기반으로 텍스트로 변환하는 텍스트 처리부와, 상기 텍스트를 분석하는 분석부 및, 상기 텍스트에서 특정 문장이나 단어의 조건 일치 여부에 따라 서로 다른 답변을 생성하는 답변 생성부와, 상기 답변을 TTS(Text-to-Sound) 기반으로 음성으로 변환하여 출력하는 출력부를 포함한 챗봇 인터페이스; 복수 개의 캐릭터를 저장한 캐릭터 데이터베이스와, 상기 캐릭터 데이터베이스에서 유저로부터 선택된 캐릭터를 상기 챗봇 인터페이스와 연동하여 출력하는 실행부를 포함한 캐릭터 관리 모듈;을 포함하는 것을 특징으로 한다.In order to achieve the above purpose, the AI-based virtual chatbot operating system according to the present invention supports chatting with users, and includes a text processing unit that converts the user's voice into text based on STT (Sound-to-Text). an analysis unit that analyzes the text, an answer generation unit that generates different answers depending on whether conditions for specific sentences or words in the text match, and the answers are converted into voices based on TTS (Text-to-Sound). Chatbot interface including an output unit that converts and outputs; It is characterized by comprising a character management module including a character database storing a plurality of characters, and an execution unit that outputs a character selected by a user from the character database in conjunction with the chatbot interface.

또한, 상기 시스템은, 유저의 음성 횟수, 유저의 만족도를 표현한 단어의 횟수 중 적어도 어느 하나를 카운팅하여 카운팅 지수를 생성하는 카운팅 모듈;을 포함하고, 상기 캐릭터 관리 모듈은, 상기 카운팅 지수에 따라 상기 캐릭터의 사이즈와 모양 중 적어도 어느 하나를 가변 처리하는 캐릭터 브리딩부를 포함하는 것을 특징으로 한다.In addition, the system includes a counting module that generates a counting index by counting at least one of the number of voices of the user and the number of words expressing the user's satisfaction, and the character management module is configured to generate the counting index according to the counting index. It is characterized by including a character breeding unit that varies at least one of the size and shape of the character.

더불어, 상기 챗봇 인터페이스는 이동통신단말에서 구현되고, 상기 이동통신단말은, 마이크 및, 상기 마이크를 향해 상기 출력부에서 변환한 음성을 출력하는 지향성 스피커와, 상기 마이크 및 상기 지향성 스피커를 커버하도록 형성된 커버 부재 및, 상기 지향성 스피커를 통해 녹음된 음성을 출력하면서 하울링을 발생시켜 상기 하울링을 상기 녹음된 음성에 합성하여 저장하는 컨트롤러를 포함하는 보안 제어 인터페이스;를 포함한 것을 특징으로 한다.In addition, the chatbot interface is implemented in a mobile communication terminal, and the mobile communication terminal includes a microphone, a directional speaker that outputs the voice converted by the output unit toward the microphone, and a device configured to cover the microphone and the directional speaker. A security control interface including a cover member and a controller that generates a howling while outputting the recorded voice through the directional speaker, synthesizes the howling into the recorded voice, and stores the recorded voice.

본 발명에 따른 AI 기반의 버츄얼 챗봇 운영 시스템에 의하면, According to the AI-based virtual chatbot operating system according to the present invention,

1) 버츄얼 캐릭터를 매개로 마치 사람과 소통하는 것과 같이 더욱 친밀한 소통 환경을 제공하는 챗봇 운영 시스템을 유저에게 제공하는 장점을 가지고,1) It has the advantage of providing users with a chatbot operating system that provides a more intimate communication environment as if communicating with a person through a virtual character,

2) 유저가 캐릭터를 키우고 육성할 수 있는 재미가 즐거움을 배가시킬 수 있으며,2) The fun that users can have in raising and nurturing their characters can double the enjoyment.

3) 캐릭터의 출력 음성을 변조 처리하여 저장함으로써 포렌식 등의 방법을 통해서도 보안을 강화할 수 있는 효과를 가진다.3) By modifying and storing the character's output voice, security can be strengthened through methods such as forensics.

도 1은 본 발명의 시스템의 기본 구성을 도시한 개념도.
도 2는 본 발명의 시스템의 세부 구성을 도시한 블록도.
도 3은 본 발명의 캐릭터 데이터베이스에 저장된 다양한 캐릭터를 도시한 개념도.
도 4는 본 발명의 캐릭터의 다양한 표정을 도시한 개념도.
도 5는 챗봇 인터페이스가 구현되는 이동통신단말에 포함된 보안 제어 인터페이스를 도시한 개념도.
1 is a conceptual diagram showing the basic configuration of the system of the present invention.
Figure 2 is a block diagram showing the detailed configuration of the system of the present invention.
Figure 3 is a conceptual diagram showing various characters stored in the character database of the present invention.
Figure 4 is a conceptual diagram showing various facial expressions of the character of the present invention.
Figure 5 is a conceptual diagram showing a security control interface included in a mobile communication terminal in which a chatbot interface is implemented.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. The accompanying drawings are not drawn to scale, and like reference numbers in each drawing refer to like elements.

도 1은 본 발명의 시스템의 기본 구성을 도시한 개념도이다.1 is a conceptual diagram showing the basic configuration of the system of the present invention.

도 1을 보아 알 수 있듯이, 본 발명의 시스템은 유저가 소지한 유저 단말(10)과 메인 서버(20) 간의 관계를 통하여 구현될 수 있는 것으로서, 다시 말해 유저 단말(10)과 메인 서버(20)를 포함하는 것이 가능하다.As can be seen from Figure 1, the system of the present invention can be implemented through the relationship between the user terminal 10 and the main server 20 owned by the user, that is, the user terminal 10 and the main server 20 ) is possible to include.

우선, 유저 단말(10)은 가장 대표적으로 통신 가능한 휴대기기, 즉 스마트폰으로 이루어지거나 아니면 후술하겠지만 보안성이 강화된 보안 제어 인터페이스가 설치된 이동통신단말(스마트폰도 물론 가능)로 이루어지는 것이 가능하다.First, the user terminal 10 can be composed of a mobile device capable of communication, that is, a smartphone, or, as will be described later, a mobile communication terminal equipped with a security control interface with enhanced security (a smartphone is also possible). .

이러한 유저 단말(10)은 앱 어플리케이션 형식으로 지원되는 챗봇 인터페이스(100)가 설치되어 있어 메인 서버(20)와 통신하면서 후술할 AI 기반의 채팅을 수행하는 기능을 제공하고, 추가적으로 보안 제어 인터페이스(400)가 설치될 수 있다.This user terminal 10 is installed with a chatbot interface 100 supported in the form of an app application, which provides the function of performing AI-based chatting to be described later while communicating with the main server 20, and additionally provides a security control interface 400. ) can be installed.

메인 서버(20)는 유저 단말(10)과 통신하면서 챗봇 인터페이스(100)의 관리와 운영을 수행하는 중추적인 역할을 제공한다.The main server 20 communicates with the user terminal 10 and plays a central role in managing and operating the chatbot interface 100.

즉, 본 발명의 시스템에서는 AI 기반의 채팅은 물론 유저 단말(10)의 디스플레이(터치스크린)에서 버츄얼 캐릭터(캐릭터)를 출력하는 주체가 메인 서버(220)라 할 수 있는데, 이 메인 서버(20)는 본 발명의 시스템을 구현해내기 위한 일련의 주체로서 서버PC 및 네트워크 통신망 등을 함께 포함한다. That is, in the system of the present invention, the main server 220 is the entity that outputs the virtual character (character) on the display (touch screen) of the user terminal 10 as well as AI-based chat. ) is a series of entities for implementing the system of the present invention and includes a server PC and a network communication network.

더불어 메인 서버(20)는 중앙처리장치(CPU) 및 메모리와 하드디스크와 같은 저장수단을 구비한 하드웨어 기반에서 중앙처리장치에서 수행될 수 있는 프로그램, 즉 소프트웨어가 설치되어 이 소프트웨어를 실행할 수 있는데 이러한 소프트웨어에 대한 일련의 구체적 구성을 '모듈' 및 '부', '파트' 등의 구성단위로써 후술할 예정이다.In addition, the main server 20 is based on hardware equipped with a central processing unit (CPU) and storage means such as memory and hard disk, and a program that can be executed on the central processing unit, that is, software, is installed and can execute this software. A series of specific configurations for the software will be described later as structural units such as 'module', 'part', and 'part'.

이러한 '모듈' 또는 '부' 또는 '인터페이스' 또는 '파트' 등 의 구성은 메인 서버(20)의 저장수단에 설치 및 저장된 상태에서 CPU 및 메모리를 매개로 실행되는 소프트웨어 또는 FPGA 내지 ASIC과 같은 하드웨어의 일 구성을 의미한다. 이때, '모듈' 또는 '부', '인터페이스'라는 구성은 하드웨어에 한정되는 의미는 아니고, 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.These configurations such as 'modules' or 'parts' or 'interfaces' or 'parts' are hardware such as software or FPGA or ASIC that runs through CPU and memory while being installed and stored in the storage means of the main server 20. refers to the work composition of . At this time, the meaning of 'module', 'unit', or 'interface' is not limited to hardware, and may be configured to reside in an addressable storage medium or to reproduce one or more processors.

일 예로서 '모듈' 또는 '부' 또는 '인터페이스'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.As an example, 'module' or 'part' or 'interface' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, and properties. Contains fields, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

이러한 '모듈' 또는 '부' 또는 '인터페이스'에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는 '모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.The functions provided by these 'modules' or 'parts' or 'interfaces' can be combined into smaller numbers of components and 'parts' or 'modules' or can be divided into additional components and 'parts' or 'modules'. Could be further separated.

더불어, 메인 서버(20)는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 서버의 일 예로서의 컴퓨팅 장치는 스마트폰, 태블릿 PC, 데스크탑, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In addition, the main server 20 refers to all types of hardware devices including at least one processor, and depending on the embodiment, it may be understood as encompassing software configurations operating on the hardware device. For example, a computing device as an example of a server may be understood as including, but is not limited to, a smartphone, tablet PC, desktop, laptop, and user clients and applications running on each device.

이하, 이러한 구성을 기반으로 본 발명의 시스템을 첨부된 도면과 함께 설명하면 다음과 같다.Hereinafter, based on this configuration, the system of the present invention will be described with the attached drawings.

도 2는 본 발명의 시스템의 세부 구성을 도시한 블록도이다.Figure 2 is a block diagram showing the detailed configuration of the system of the present invention.

도 2를 참조하면, 본 발명의 시스템은 챗봇 인터페이스(100)와 캐릭터 관리 모듈(200)을 포함하는 것을 기본으로 하고 있는 것을 알 수 있다.Referring to Figure 2, it can be seen that the system of the present invention is based on including a chatbot interface 100 and a character management module 200.

본 발명의 챗봇 인터페이스(100)는 케릭터 관리 모듈(200)과 연동하여 유저와 채팅을 할 수 있는 가상의 아바타, 즉 버츄얼 캐릭터(이하, '캐릭터'라 함)를 제공할 수 있는 기반을 갖춤과 동시에 유저와의 소통은 물론 검색 기능을 지원하는 채팅 기능을 제공한다.The chatbot interface 100 of the present invention has a basis for providing a virtual avatar, that is, a virtual character (hereinafter referred to as 'character'), that can chat with the user in conjunction with the character management module 200. At the same time, it provides a chat function that supports search functions as well as communication with users.

이러한 챗봇 인터페이스(100)는 이른바 가상 비서 서비스를 제공하되 이 가상 비서 서비스에서 캐릭터가 시각적으로 제공된 상태에서 마치 해당 캐릭터가 유저와 대화를 하는 것과 같은 이른바 '버츄얼 챗봇'과 같은 기능을 제공한다.This chatbot interface 100 provides a so-called virtual assistant service, but in this virtual assistant service, a character is visually provided and provides a function such as a so-called 'virtual chatbot' in which the character is having a conversation with the user.

즉, 본 발명의 챗봇 인터페이스(100)는 통상의 챗봇과 달리 가상 공간의 GUI(예를 들어, 가상공간에서 실행되는 메신저)에서 지원되는 캐릭터와의 대화 기능을 제공하고, 통상적인 소통, 즉 일상 대화는 물론 AI 기반의 검색 기능을 겸비하는 특성을 수행할 수 있다.In other words, unlike a typical chatbot, the chatbot interface 100 of the present invention provides a conversation function with a character supported by a GUI in a virtual space (e.g., a messenger running in a virtual space), and provides a conversation function with a character supported in a virtual space GUI (e.g., a messenger running in a virtual space), and supports normal communication, that is, daily life. It can perform both conversation and AI-based search functions.

이러한 챗봇 인터페이스(100)는 음성 인식 기술이 접목되는 것이 가능한데, 구체적으로 텍스트 처리부(110)와 분석부(120) 및 답변 생성부(130)와 출력부(140)를 포함한다.This chatbot interface 100 can incorporate voice recognition technology, and specifically includes a text processing unit 110, an analysis unit 120, an answer generation unit 130, and an output unit 140.

텍스트 처리부(110)는 유저의 음성을 STT(Sound-to-Text)를 기반으로 텍스트로 변환하는 기능을 제공한다.The text processing unit 110 provides a function to convert the user's voice into text based on STT (Sound-to-Text).

이때, 텍스트 처리부(110)는 반드시 유저의 음성뿐 아니라 유저가 유저 단말(10)의 키패드를 통해 문장이나 문자를 입력하도록 하는 기능도 제공할 수 있어, 유저 입장에서는 편리하게 챗봇 인터페이스(100)를 매개로 후술할 캐릭터와 육성으로 대화하거나 문자를 입력할 수 있다.At this time, the text processing unit 110 can provide not only the user's voice but also a function that allows the user to input sentences or characters through the keypad of the user terminal 10, making it convenient for the user to use the chatbot interface 100. As an intermediary, you can have a conversation or input text with a character that will be described later.

더불어, 텍스트 처리부(110)는 유저의 음성을 정확히 인식하기 위해 유저의 음성을 녹음하는 기능을 제공할 수 있는데, 이로써 녹음된 음성파일을 후술할 분석부에서 더욱 자세히 분석할 수 있는 기반을 제공할 수 있거나 아니면 유저 자신이 자신의 음성을 들으면서 자신의 대화 의도를 정확히 파악할 수 있도록 녹음 파일을 1회 재생 처리하여 유저가 더욱 정확한 발음으로 캐릭터와 대화할 수 있는 환경을 조성하는 것도 가능하다.In addition, the text processing unit 110 can provide a function to record the user's voice in order to accurately recognize the user's voice, which provides a basis for analyzing the recorded voice file in more detail in the analysis unit to be described later. Alternatively, it is possible to create an environment where the user can communicate with the character with more accurate pronunciation by playing the recording file once so that the user can accurately understand the intention of the conversation while listening to the user's own voice.

분석부(120)는 유저의 음성에서 얻어진 텍스트를 분석하는 기능을 수행하는 것으로서, 다시 말해 텍스트의 의미를 분석하는 것이 주요 기능이라 할 수 있다.The analysis unit 120 performs the function of analyzing text obtained from the user's voice. In other words, its main function is to analyze the meaning of the text.

이러한 분석부(120)는 인간의 언어를 처리, 분석, 이해 및 생성하는 데 사용되는 계산 기술 기반의 다양한 언어 분석 알고리즘이 적용될 수 있는데, 인공 지능의 한 분야인 자연어 처리(NLP, natural language processing) 기능을 갖출 수 있다.This analysis unit 120 may apply various language analysis algorithms based on computational technology used to process, analyze, understand, and generate human language, including natural language processing (NLP), a field of artificial intelligence. It can have functions.

답변 생성부(130)는 텍스트에서 특정 문장이나 단어의 조건 일치 여부에 따라 서로 다른 답변을 생성하는 기능을 제공하는 것으로서, 이 역시 앞서 언급한 자연어 처리(NLP, natural language processing) 기능을 기반으로 할 수 있다.The answer generator 130 provides a function to generate different answers depending on whether or not a condition for a specific sentence or word in the text matches, and this may also be based on the previously mentioned natural language processing (NLP) function. You can.

예를 들어 분석부(120)와 답변 생성부(130)는 NLP에서 간단하고 일반적으로 사용되는 모델인 Bag of Words(BoW), 텍스트 마이닝에 자주 사용되는 erm Frequency-Inverse Document Frequency (TF-IDF), 단어를 고차원 벡터로 표현하여 단어의 의미론적 의미를 캡처할 수 있는 Word2Vec, 립 러닝 기술을 사용하면서 이전 단어를 제시하였을 때 문장의 다음 단어를 예측하도록 훈련된 GPT(Generative Pre-trained Transformer)와 같은 알고리즘이나 프로그램이 연동/적용될 수 있다.For example, the analysis unit 120 and the answer generation unit 130 use Bag of Words (BoW), a simple and commonly used model in NLP, and erm Frequency-Inverse Document Frequency (TF-IDF), which is frequently used in text mining. , Word2Vec, which can capture the semantic meaning of words by expressing them as high-dimensional vectors, GPT (Generative Pre-trained Transformer), which is trained to predict the next word in a sentence when the previous word is presented while using lip learning technology, and The same algorithm or program can be linked/applied.

즉, 답변 생성부(130)는 유저의 질문에 대한 정보를 검색하여 답을 내리는 것은 물론 유저와 일상대화를 할 수 있는 기능을 겸비하는 것으로서, 이 외에도 유저의 일정을 미리 입력받은 다음 특정 시간에 일정을 알려주는 이른바 일정 관리 기능을 제공하거나 유저의 음성을 분석하여 분석된 내용에 관련된 일정을 일종의 답변으로 생성하는 것도 가능하다.In other words, the answer generator 130 not only searches for information about the user's question and provides an answer, but also has the function of having a daily conversation with the user. In addition, it receives the user's schedule in advance and then generates an answer at a specific time. It is also possible to provide a so-called schedule management function that informs the schedule, or to analyze the user's voice and generate a schedule related to the analyzed content as a kind of answer.

출력부(140)는 답변 생성부(130)에서 생성한 답변을 TTS(Text-to-Sound) 기반으로 음성으로 변환하여 유저 단말(10)에 장착된 스피커(미도시)를 매개로 출력하는 기능을 제공한다.The output unit 140 converts the answer generated by the answer generation unit 130 into voice based on TTS (Text-to-Sound) and outputs it through a speaker (not shown) mounted on the user terminal 10. provides.

즉, 본 발명의 챗봇 인터페이스(100)는 인공지능(AI) 또는 립너링을 기반으로 훈련 및 학습된 언어 분석 모델/알고리즘을 적용하여 일종의 유저 전용 비서와 같은 기능을 제공할 수 있고, 이러한 챗봇 인터페이스(100)는 현재 알려진 인공지능 기반의 챗봇 서비스 플랫폼의 기능과 같거나 유사하므로 별도의 구체적인 설명은 생략한다.In other words, the chatbot interface 100 of the present invention can provide a function such as a kind of user-only assistant by applying a language analysis model/algorithm trained and learned based on artificial intelligence (AI) or Lipnering, and this chatbot interface Since (100) is the same or similar to the function of the currently known artificial intelligence-based chatbot service platform, a separate detailed explanation is omitted.

도 3은 본 발명의 캐릭터 데이터베이스에 저장된 다양한 캐릭터를 도시한 개념도이다.Figure 3 is a conceptual diagram showing various characters stored in the character database of the present invention.

본 발명의 캐릭터 관리 모듈(200)은 상술한 챗봇 서비스를 단순히 음성만 출력하는 것을 넘어서 가상의 아바타, 즉 버츄얼 캐릭터가 말하는 것과 같이 청각적 출력 이외에 시각적 출력 기능을 겸비할 수 있는 것으로서, 구체적으로 캐릭터 데이터베이스(210)와 실행부(220)를 포함하는 것을 기본으로 한다.The character management module 200 of the present invention goes beyond simply outputting only voice for the chatbot service described above and can have a visual output function in addition to auditory output, such as when a virtual avatar, that is, a virtual character, speaks. Specifically, the character management module 200 It is based on including a database 210 and an execution unit 220.

캐릭터 데이터베이스(210)는 도 3을 보아 알 수 있듯이 다양한 형상과 특성을 가진 복수 개의 캐릭터를 저장한 것으로서, 이때 캐릭터 데이터베이스(210)는 여러 종류의 캐릭터를 저장한 것은 물론 하나의 캐릭터에서 가변 처리될 수 있는 다양한 모양을 함께 저장할 수 있다.As can be seen from FIG. 3, the character database 210 stores a plurality of characters with various shapes and characteristics. At this time, the character database 210 not only stores various types of characters, but also allows for variable processing in one character. Various shapes can be saved together.

예를 들어, A라는 캐릭터를 기준으로, 사이즈별, 착용한 의상별, 표정별 등으로 다양한 파생 캐릭터가 종속적으로 저장될 수 있고, 이때 캐릭터의 형태는 정지된 이미지는 물론 움직이는 동영상 형식, 2D 또는 3D 컨텐츠 등의 다양한 형태로 표현될 수 있다.For example, based on the character A, various derived characters can be stored dependently by size, clothing worn, facial expression, etc., and the form of the character can be stored in a moving video format, 2D or 2D as well as a still image. It can be expressed in various forms such as 3D content.

이러한 캐릭터는 캐릭터 온라인 스토어를 제공하여 이 온라인 스토어에서 유료/무료 형태로 구매할 수 있고, 유저가 선택한 캐릭터에 별도의 이름을 붙이는 것이 가능한 것은 물론 예를 들어 캐릭터 이름이 "준(JUNE)"이라 하면 "준~"이라고 유저가 부르면 캐릭터가 응답하여 유저와 채팅을 수행할 준비를 갖추는 것도 가능하다.These characters can be purchased in paid/free form through the character online store, and it is possible to give a separate name to the character selected by the user. For example, if the character name is "JUNE", It is also possible that when the user calls "Jun~", the character responds and is ready to chat with the user.

실행부(220)는 캐릭터 데이터베이스(210)에서 유저로부터 선택된 캐릭터를 상기 챗봇 인터페이스(100)와 연동하여 출력하는 기능을 제공한다.The execution unit 220 provides a function to output a character selected by the user from the character database 210 in conjunction with the chatbot interface 100.

다시 말해, 챗봇 인터페이스(100)에서 유저의 음성에 대한 답변을 출력할 때 캐릭터가 시각적으로 노출된 상태에서 해당 캐릭터가 답변하는 것과 같이 출력하는 것은 물론, 유저의 음성을 듣거나 답변하는 전체적인 채팅 과정에서 항시 노출되도록 처리하는 것도 가능하다.In other words, when the chatbot interface 100 outputs a response to the user's voice, the character is visually exposed and the response is output as if the character is answering, as well as the overall chat process of listening to or responding to the user's voice. It is also possible to process it so that it is always exposed.

정리하면, 본 발명의 시스템은 인공기능 기반의 비서 서비스를 제공할 수 있는 챗봇을 버츄얼 챗봇 기반으로 유저에게 제공하여 단순히 청각적인 음성 답변을 실행하는 챗봇과 달리 시각적 이미지를 매개로 청각적 음성을 함께 출력하여 지루하지 않고 재밌고 흥미 있는 환경에서 채팅/검색 기능을 제공할 수 있는 특성을 가진다.In summary, the system of the present invention provides users with a chatbot that can provide secretarial services based on artificial functions based on a virtual chatbot. Unlike chatbots that simply provide auditory voice answers, the system provides auditory voice through visual images. It has the characteristic of being able to provide chat/search functions in a fun and interesting environment without being boring by printing it out.

앞서 설명하였듯이, 상술한 캐릭터는 캐릭터 데이터베이스(210)에서 선택할 수 있는 것은 물론 하나의 캐릭터를 기준으로 다양한 사이즈, 표정 등이 저장될 수 있다고 하였는데 마치 유저가 캐릭터를 키우는, 즉 브리딩(breeding)을 하는 것과 같은 환경을 제공하는 것이 가능하다.As explained earlier, the above-mentioned characters can not only be selected from the character database 210, but also various sizes and expressions can be stored based on one character, just as the user is raising the character, that is, breeding. It is possible to provide a similar environment.

이를 위하여 구체적으로, 본 발명의 시스템은 유저의 음성 횟수, 유저의 만족도를 표시한 단어의 횟수 중 적어도 어느 하나를 카운팅하여 카운팅 지수를 생성하는 카운팅 모듈(300)을 추가로 포함할 수 있다.To this end, specifically, the system of the present invention may additionally include a counting module 300 that generates a counting index by counting at least one of the number of user's voices and the number of words indicating user's satisfaction.

여기서, 유저의 음성 회수는 챗봇 인터페이스(100)를 실행하여 캐릭터를 호출한 다음 캐릭터와 채팅한 회수를 의미하고, 유저의 만족도를 표현한 단어의 회수는 "(캐릭터 이름)아, 좋았어". "굿잡!", "오우~대단해"와 같이 만족에 관련된 의미를 가진 단어를 유저가 음성으로 표현한 회수를 의미한다.Here, the number of times the user's voice refers to the number of times the user runs the chatbot interface 100, calls the character, and then chats with the character, and the number of times the user expresses the user's satisfaction is "(character name), it was good." This refers to the number of times a user vocally expresses words with a meaning related to satisfaction, such as “Good job!” and “Wow, that’s great.”

즉, 카운팅 모듈(300)은 유저가 캐릭터와 자주 접하거나 친밀한 느낌을 표현하였을 때 이 회수를 카운팅하고 기능을 수행한다고 이해할 수 있다.In other words, it can be understood that the counting module 300 counts the number of times a user frequently encounters a character or expresses an intimate feeling and performs its function.

더불어, 카운팅 지수는 상술한 카운팅 회수에 비례하는 수치로 생성 가능한데, 예를 들어 음성 회수 10번, 만족도 단어 표현 회수 5번이면 이들 중 어느 하나인 음성 회수 10번을 취하여 10으로 표현되거나 아니면 이들을 모두 반영하여 산술평균값인 10+5/2=7.5로 표현되거나 아니면 카운팅 회수에 비례하는 또 다른 산술 방식으로 도출될 수 있다.In addition, the counting index can be generated as a number proportional to the above-mentioned counting number. For example, if the number of voices is 10 and the number of satisfaction word expressions is 5, any one of them, number 10, is taken and expressed as 10, or all of them are expressed as 10. It can be reflected and expressed as the arithmetic average value of 10+5/2=7.5, or it can be derived using another arithmetic method proportional to the number of counting times.

이에 대응하여, 캐릭터 관리 모듈(200)은 카운팅 지수에 따라 캐릭터의 사이즈와 모양 중 적어도 어느 하나를 가변 처리하는 캐릭터 브리딩부(230)를 포함하는 것이 가능하다.Correspondingly, the character management module 200 may include a character breeding unit 230 that variably processes at least one of the size and shape of the character according to the counting index.

즉, 캐릭터 브리딩부(230)는 마치 유저가 자신의 캐릭터를 키우는 것과 같은 느낌을 줄 수 있는 것으로서, 카운팅 지수가 높아지면서 캐릭터의 사이즈를 키우거나 캐릭터의 손, 발, 얼굴 등의 특정 모양을 키우거나 변경하는 기능을 제공할 수 있다.In other words, the character breeding unit 230 can give the user the feeling of growing their own character. As the counting index increases, the character's size is increased or a specific shape such as the character's hands, feet, and face is raised. or provide a function to change it.

다시 말해, 실제 반려동물에게 '이쁘다. 잘했다. 수고했다'와 같은 만족도를 표현하면 캐릭터가 성장하는 과정을 제공할 수 있어, 유저 자신의 캐릭터를 더 아끼고 돌보는 환경을 제공하는 것이 가능하다.In other words, when you say to an actual pet, ‘It’s pretty.’ Good job. Expressing satisfaction such as 'good job' can provide a process for the character to grow, making it possible to provide an environment in which the user cares more for and cares for his or her character.

더 나아가, 카운팅 모듈(300)은 상술한 음성 횟수와 유저의 만족도를 표시한 단어의 횟수에 더하여 유저의 감정을 표현한 단어의 횟수를 각각 카운팅하여 앞서 언급한 바와 같이 예를 들어 이들의 산술평균값을 구하면서 카운팅 지수를 생성하는 것도 가능하다.Furthermore, the counting module 300 counts the number of words expressing the user's emotions in addition to the number of voices described above and the number of words expressing the user's satisfaction, and calculates, for example, their arithmetic average value as mentioned above. It is also possible to generate a counting exponent while calculating.

유저의 감정을 표현한 단어는 예를 들어 '기쁘다, 고맙다, 대견하다...'와 같은 단어를 의미하는 것으로서 유저 음성 중에서 예를 들어 5개의 감정 표현 단어가 존재할 경우 카운팅 모듈은 유저의 감정을 표현한 단어의 횟수를 '5'로 카운팅하는 것이 가능하다. Words expressing the user's emotions, for example, mean words such as 'happy, grateful, proud...'. If there are, for example, 5 emotion expressing words in the user's voice, the counting module will calculate the number of words expressing the user's emotions. It is possible to count the number of words as '5'.

이때, 유저의 감정 표현 단어는 긍정 감정뿐 아니라 부정 감정(슬프다, 우울하다...)도 존재할 수 있는데, 카운팅 모듈(300)은 이러한 긍정 감정 단어와 부정 감정 단어를 구분하여 카운팅 처리하는 기능을 제공할 수 있고, 이에 대응하여 캐릭터 브리딩부(230)에서는 유저의 감정 표현 단어 중 긍정 감정 표현 단어의 횟수만을 반영하는 것도 가능하다.At this time, words expressing the user's emotions may include not only positive emotions but also negative emotions (sad, depressed...), and the counting module 300 has the function of distinguishing between positive and negative emotion words and processing them. It is possible to provide, and correspondingly, the character breeding unit 230 may reflect only the number of positive emotion expression words among the user's emotion expression words.

추가적으로, 카운팅 모듈(300)은 상술한 유저의 음성 횟수, 유저의 만족도를 표시한 단어의 횟수 중 적어도 어느 하나와, 유저의 감정 표현 횟수에 더하여 상기 캐릭터가 출력된 터치스크린의 터치 회수를 추가로 카운팅 처리하여 이들의 합산 방식 등으로 카운팅 지수를 생성할 수 있다.Additionally, the counting module 300 counts at least one of the above-described number of voices of the user, the number of words indicating the user's satisfaction, and the number of times the user expresses emotions, as well as the number of touches on the touch screen on which the character is displayed. A counting index can be created by counting and summing the results.

이를 위해서, 챗봇 인터페이스(100)는 터치스크린을 포함한 스마트폰에서 구현되어야 한다는 전제가 따른다.To this end, the premise is that the chatbot interface 100 must be implemented on a smartphone including a touch screen.

즉, 캐릭터를 유저가 쓰다듬듯이 터치스크린을 매개로 터치하면 카운팅 모듈에서 터치 회수를 카운팅 처리하여 이 처리된 값을 카운팅 지수에 반영하는 것이 가능하다.In other words, when a user touches a character through the touch screen as if stroking it, the counting module can count the number of touches and reflect this processed value in the counting index.

이는 유저가 그만큼 자신의 캐릭터에 관심과 정성을 기울이도록 하는 취지를 반영한 것으로서, 상술한 다양한 방식, 즉 특정 의미를 가진 단어의 횟수, 캐릭터를 호출하는 등으로 음성을 출력하는 횟수는 물론 캐릭터를 터치하는 횟수를 종합적으로 반영하여 자신의 캐릭터를 키울 수 있는 특성을 제공할 수 있다.This reflects the intention of encouraging users to pay as much attention and sincerity to their characters as possible, in the various ways described above, such as the number of times a word with a specific meaning is used, the number of times a voice is output by calling the character, etc., as well as by touching the character. You can provide characteristics to develop your character by comprehensively reflecting the number of times you do it.

도 4는 본 발명의 캐릭터의 다양한 표정을 도시한 개념도이다.Figure 4 is a conceptual diagram showing various facial expressions of the character of the present invention.

도 4를 참조하면, 캐릭터는 특정 표정을 지을 수 있고 이는 캐릭터 관리 모듈(200)에서 다양한 표정을 가진 캐릭터를 캐릭터 데이터베이스(210)에 저장한 다음 특정 표정을 가진 캐릭터를 불러와 출력할 수 있는바, 본 발명에서 제공하는 특수한 조건이 만족하면 이러한 표정을 가변 처리하는 것이 가능하다.Referring to FIG. 4, a character can make a specific facial expression, and the character management module 200 can store characters with various facial expressions in the character database 210 and then load and output characters with specific facial expressions. , it is possible to variably process these facial expressions if the special conditions provided by the present invention are satisfied.

구체적으로, 캐릭터 관리 모듈(200)은 니즈 요청부(240)를 포함할 수 있다.Specifically, the character management module 200 may include a needs request unit 240.

니즈 요청부(240)는 캐릭터의 니즈를 저장한 니즈 저장 파트(241)와, 니즈에 관련된 단어를 일정 주기에 따라 유저에게 음성으로 출력하는 알람 파트(242)를 구비한다.The needs request unit 240 includes a needs storage part 241 that stores the character's needs, and an alarm part 242 that outputs words related to the needs as a voice to the user at a certain cycle.

이때, 캐릭터의 니즈라 함은 유저의 개별 특성에 기인하거나 아니면 캐릭터를 마치 반려동물과 같이 키우는 과정에서 필요한 특정 조건에 관련된 것으로서, 예를 들어 일정 관리 어플리케이션과 연동된 상태에서 유저의 스케줄에 따라 특정 시간에 캐릭터를 음성으로 호출하는 것, 1일에 n번의 회수로 캐릭터가 출력된 터치스크린을 터치하는 것, 1일에 n번의 회수로 캐릭터에게 '고생했다'라고 특정 의미를 가진 단어를 수록한 음성으로 말하는 것, 아침 기상 시 캐릭터를 음성으로 호출하는 것과 같이 특정 조건에 따라 캐릭터를 향해 특정 단어를 포함한 음성을 말하거나 터치스크린을 터치하는 것을 의미한다.At this time, the character's needs are either due to the individual characteristics of the user or related to specific conditions required in the process of raising the character like a pet. For example, in conjunction with a schedule management application, the needs are specified according to the user's schedule. Calling the character by voice at the right time, touching the touch screen on which the character is displayed n times per day, and writing a word with a specific meaning such as 'I had a hard time' to the character n times per day. Speaking by voice means speaking a voice containing a specific word or touching a touch screen to a character under certain conditions, such as calling a character by voice when waking up in the morning.

이러한 니즈는 니즈 저장 파트(241)에서 기설정되거나 아니면 유저가 직접 니즈를 설정할 수도 있고, 더 나아가 인공지능 기반으로 유저의 행동이나 생활 패턴을 파악하여 유저별로 개별 설정될 수 있다. These needs may be preset in the needs storage part 241 or the user may set the needs directly, or further, they may be individually set for each user by identifying the user's behavior or life patterns based on artificial intelligence.

알람 파트(242)는 상술한 니즈에 관련된 단어를 일정 주기에 따라 유저에게 음성으로 출력하는 기능을 제공한다.The alarm part 242 provides a function to output words related to the above-mentioned needs as a voice to the user at a certain period.

즉, 상술한 니즈를 유저 스스로 알아서 수행할 수도 있으나 그렇지 않을 경우를 대비하여 예를 들어 오전 9시, 12시, 오후 3시...와 같이 3시간 주기로 '저를 한번 쓰담아 주세요.'. '저에게 고생했다고 말해주세요'와 같이 캐릭터가 터치를 요구하는 의미를 가지거나 위로의 의미를 가진 단어를 수록한 음성을 유저에게 출력하는 것이 가능하다.In other words, the user may be able to fulfill the above-mentioned needs on their own, but in case this is not the case, 'please pat me once' every three hours, for example, at 9:00 AM, 12:00 PM, and 3:00 PM. It is possible to output a voice to the user that contains words that mean the character is requesting a touch or that have a consoling meaning, such as 'Please tell me I've had a hard time'.

이에 대응하여, 카운팅 모듈(300)은 유저의 음성 중 상기 니즈에 관련된 단어를 카운팅하여 니즈 만족 지수를 생성하는 기능을 제공할 수 있다.In response to this, the counting module 300 may provide a function to generate a needs satisfaction index by counting words related to the need among the user's voice.

즉, 카운팅 모듈(300)은 유저가 알람 파트(242)의 니즈 요청에 얼마나 순응하여 니즈에 관련된 단어를 음성으로 말하였는지를 체크/카운팅하여 이 체크/카운팅 회수에 비례한 니즈 만족 지수를 생성하는 기능을 수행하는 것이다.In other words, the counting module 300 checks/counts how well the user complied with the needs request of the alarm part 242 and spoke words related to the needs by voice, and generates a needs satisfaction index proportional to the number of checks/counts. is to carry out.

더불어, 캐릭터 브리딩부(230)는 상술한 니즈 만족 지수에 따라 상기 캐릭터의 표정을 가변 처리하는 기능을 제공한다.In addition, the character breeding unit 230 provides a function for variable processing of the character's facial expression according to the above-described needs satisfaction index.

즉 니즈 만족 지수가 높거나 클수록 캐릭터의 표정을 다채롭고 다양하게 변하도록 처리할 수 있는데, 이때 캐릭터의 표정은 슬프거나 우울한 표정이 아니라 기쁘고 즐거운 표정이 될 수 있다.In other words, the higher or larger the needs satisfaction index is, the more colorful and diverse the character's facial expression can be. In this case, the character's facial expression can be happy and happy rather than sad or depressed.

정리하면, 본 발명의 시스템은 유저의 특정 음성이나 행동을 소극적으로 기다리는 것에 그치지 않고 캐릭터 스스로 적극적으로 니즈를 유저에게 출력하여 유저로 하여금 해당 니즈에 관련된 행동이나 음성을 말할 수 있도록 하여, 캐릭터와의 소통을 강화하는 것은 물론 캐릭터를 육성하는 즐거움을 배가시킬 수 있다.In summary, the system of the present invention does not just passively wait for a specific voice or action from the user, but actively outputs the needs of the character to the user, allowing the user to say actions or voices related to the needs, thereby creating a connection with the character. It can not only strengthen communication but also double the pleasure of developing characters.

앞서 설명한 바와 같이 챗봇 인터페이스(10)는 유저가 항시 소지하는 스마트폰과 같은 이동통신단말에서 구현되는 것이 유저의 편의성 확보를 위해 더욱 바람직할 수 있다 할 것이다.As previously explained, it may be more desirable to ensure the user's convenience if the chatbot interface 10 is implemented in a mobile communication terminal such as a smartphone that the user always carries.

이때, 더 나아가 이동통신단말, 구체적으로 이동통신단말의 회로부는 보안 제어 인터페이스(400)를 포함하는 것이 가능하다.At this time, it is possible to further include a mobile communication terminal, specifically the circuitry of the mobile communication terminal, including a security control interface 400.

구체적으로, 이러한 보안 제어 인터페이스는 마이크(410), 지향성 스피커(420), 커버 부재(430), 컨트롤러(440)를 포함한다.Specifically, this security control interface includes a microphone 410, a directional speaker 420, a cover member 430, and a controller 440.

마이크(410)는 하울링을 발생시키기 위한 기반을 제공하는 것으로, 지향성 스피커(420)를 통해 출력된 캐릭터의 음성이 마이크(410)를 통해 다시 입력되도록 하여 하울링을 발생시키기 위해 지원되는 것이다. The microphone 410 provides a basis for generating howling, and is supported to generate howling by allowing the character's voice output through the directional speaker 420 to be input again through the microphone 410.

지향성 스피커(420)는 마이크(410)를 향해 사운드, 구체적으로 출력부(140)에서 변환 처리한 음성을 출력하는 기능을 제공하는 것으로서, 종래의 지향성 스피커이거나 아니면 스피커의 배치를 상술한 마이크(410)와 인접시키고, 마이크(410)를 향해 스피커의 음성을 출력할 수 있도록 하면 지향성 스피커(420)로서의 기능을 구현할 수도 있다.The directional speaker 420 provides the function of outputting sound, specifically the voice converted by the output unit 140, toward the microphone 410. It may be a conventional directional speaker or a microphone 410 with the arrangement of the speaker described in detail. ), and by allowing the speaker's voice to be output toward the microphone 410, the function as a directional speaker 420 can be implemented.

특히, 지향성 스피커(420)는 앞서 출력부(140)에서 변환한 음성을 출력하는 스피커와 별개로 제공되어 유저가 스피커를 통해 변환된 음성을 실제 들을 수 있는 것과 하울링을 발생하기 위한 기능 간의 차이를 둔다. In particular, the directional speaker 420 is provided separately from the speaker that outputs the voice converted by the output unit 140 to reduce the difference between the user's ability to actually hear the converted voice through the speaker and the function for generating howling. put it

더 나아가, 지향성 스피커(420)에서 출력하는 사운드는 반드시 출력부의 음성으로 제한되는 것이 아니라 하울링을 발생하기 위한 다양한 사운드면 되기 때문에 음악, 특정 음 등의 범용적인 사운드로 이루어지는 것도 물론 가능하다. 다만, 출력부에서 변환한 음성이 이미 존재하므로 이를 이용하여 지향성 스피커에서 출력하는 것이 더욱더 효율적이라 할 수 있다.Furthermore, the sound output from the directional speaker 420 is not necessarily limited to the voice of the output unit, but can be any variety of sound to generate howling, so it is of course possible to include general sounds such as music and specific sounds. However, since the voice converted by the output unit already exists, it can be said to be more efficient to use it to output it from a directional speaker.

이러한 지향성 스피커(420)와 마이크(410)는 커버 부재(430)를 통해 표면이 감싸져 밀봉된 형상을 지니는데, 커버 부재(430)는 마이크(410) 및 지향성 스피커(420)의 전체를 커버하도록 구성되어 이동통신단말 외측으로 새어나가는 것을 방지하도록 하는 기능을 갖는다.The surface of the directional speaker 420 and the microphone 410 is wrapped and sealed through a cover member 430, and the cover member 430 covers the entire microphone 410 and the directional speaker 420. It is configured to have a function to prevent leakage to the outside of the mobile communication terminal.

컨트롤러(440)는 지향성 스피커(420)를 통해 대화정보를 출력하도록 지향성 스피커(420)의 구동을 제어하고, 또한 마이크(410)의 구동을 제어하여 지향성 스피커(420)를 통해 출력된 음성(출력부의 음성)이 마이크(410)를 통해 재입력되게끔 함으로써 결과적으로 하울링을 발생시키는 기능을 수행한다.The controller 440 controls the operation of the directional speaker 420 to output conversation information through the directional speaker 420, and also controls the operation of the microphone 410 to output voice (output) through the directional speaker 420. It performs the function of causing howling as a result by allowing the negative voice) to be re-input through the microphone 410.

아울러 하울링이 발생하면 이를 출력부의 음성에 다시 합성하여 덮어쓰기 방식으로 저장함으로써, 출력부(140)의 음성의 원본을 없애고 하울링을 덧씌운 수정본만을 저장하도록 하는 기능을 수행한다.In addition, when howling occurs, it is synthesized again into the voice of the output unit and stored in an overwrite manner, thereby performing a function of removing the original voice of the output unit 140 and storing only the modified version with the howling overlaid.

이와 같은 보안 제어 인터페이스(400)의 구성에 따르면 지향성 스피커(420)가 마이크(410)를 바라본 상태에서 출력부의 음성을 출력하게 되고, 출력된 출력부(140)의 음성(출력부의 음성 또는 사운드)가 마이크(410)를 통해 다시 입력됨으로써 입력된 음성이 증폭되어 다시 지향성 스피커(420)로 출력되고, 다시 마이크(410)를 통해 흡음되는 순환 고리를 만들어 특정 주파수가 두드러지게 증폭되면서 결과적으로 하울링이 발생한다.According to the configuration of the security control interface 400, the voice of the output unit is output while the directional speaker 420 is facing the microphone 410, and the voice of the output unit 140 is output (voice or sound of the output unit). As the sound is input again through the microphone 410, the input voice is amplified and output again to the directional speaker 420, creating a circular loop in which sound is absorbed again through the microphone 410, and a specific frequency is significantly amplified, resulting in howling. Occurs.

이러한 하울링을 출력부의 음성에 합성하여 저장함으로써 출력부의 음성의 내용을 인식할 수 없게 변조 처리하여 단순히 출력부의 음성을 출력한 다음 삭제 처리할 시 임시파일 보관함에 해당 음성이 남아있을 수 있거나 포렌식 과정에서 삭제한 출력부의 음성이 복원되는 등의 보안상의 문제점이 발생하는 점 없이 유저 개인의 보안성을 한층 더 강화하는 것이 가능하다. By synthesizing this howling into the voice of the output unit and storing it, the content of the voice of the output unit is modulated so that it is unrecognizable. When the voice of the output unit is simply output and then deleted, the voice may remain in the temporary file storage or may be used in the forensic process. It is possible to further strengthen the user's individual security without causing security problems such as restoring the voice of the deleted output unit.

더 나아가 이러한 소리의 순환은 보안 제어 인터페이스(400)에서 작은 폭으로 발생하되, 커버 부재(430)를 통해 지향성 스피커(420) 및 커버 부재(430)가 감싸져 있어 외부로 소리가 노출되지 않아 지향성 스피커(420)와 별개의 스피커에서 출력하는 출력부의 음성과 중첩되지 않도록 할 수 있음은 물론이다.Furthermore, this circulation of sound occurs to a small extent in the security control interface 400, but the directional speaker 420 and the cover member 430 are wrapped through the cover member 430, so the sound is not exposed to the outside, so the directional speaker 420 and the cover member 430 are surrounded by the cover member 430. Of course, it is possible to prevent the sound from overlapping with the sound of the output unit output from a speaker separate from the speaker 420.

따라서 이러한 신규한 방식을 통해 출력부(140)의 음성의 변조 및 암호화를 수행할 수 있도록 하여, 출력부(140)의 음성이 이동통신단말에 저장(임시 저장)된 상태에서 외부 유출 시에도 출력부(140)의 음성 내용의 식별을 어렵게 만들어 유저 개인 정보에 대한 보안성을 강화할 수 있는 기능을 강화할 수 있다.Therefore, this novel method allows modulation and encryption of the voice of the output unit 140, so that the voice of the output unit 140 is output even when it is leaked to the outside while stored (temporarily stored) in the mobile communication terminal. By making it difficult to identify the voice content of the unit 140, the function to strengthen the security of the user's personal information can be strengthened.

더 나아가 이러한 보안 제어 인터페이스(400)의 구성에서는 커버 부재(430)가 중요하다 할 수 있는데, 커버 부재(430)는 하울링이 발생하는 지향성 스피커(420)와 마이크(410)를 커버하여 외부로 소리가 유출되는 것을 막아야 함은 기본이다.Furthermore, the cover member 430 can be said to be important in the configuration of this security control interface 400. The cover member 430 covers the directional speaker 420 and the microphone 410, which generate howling, to transmit sound to the outside. It is basic to prevent leakage.

이를 위해 커버 부재(430)의 내주 면에는 흡음성 코팅층(450)이 적층 처리되어 외부에 출력부의 음성(출력부의 음성 또는 사운드)이 유출되는 것을 방지할 수 있는데, 이러한 흡읍성 코팅층(450)은 바람직하게 유리 섬유를 포함하는 흡음 베이스 90 내지 99 중량부, 그래핀옥사이드(graphene oxide)를 포함하는 흡음성 강화제 1 내지 10 중량부를 포함하는 것일 수 있다.For this purpose, a sound-absorbing coating layer 450 is laminated on the inner peripheral surface of the cover member 430 to prevent the sound of the output unit (voice or sound of the output unit) from leaking to the outside. This sound-absorbing coating layer 450 is preferably It may include 90 to 99 parts by weight of a sound-absorbing base containing glass fiber and 1 to 10 parts by weight of a sound-absorbing enhancer containing graphene oxide.

흡음 베이스는 유리섬유를 포함하는데, 유리섬유는 종래의 흡음재로도 많이 이용되는 물질이며 강도가 높고 흡음성이 뛰어난 것으로 알려져 있다. 나아가 고온에 견디며 불에 타지 않음, 흡수성이 없고, 흡습성이 적고, 화학적 내구성이 있기 때문에 부식하지 않으며, 강도, 특히 인장강도가 강하며 전기절연성이 높다는 장점이 있어 흡음 베이스를 포함하는 흡음성 코팅층(450)이 커버 부재(430)의 내주면에 적층 처리되는 경우 커버 부재(430)의 흡음성을 더할 수 있을 뿐 아니라 고온내구성, 화학적 내구성, 강도, 전기절연성을 모두 높일 수 있는 효과를 갖는다.The sound-absorbing base includes glass fiber, which is a material widely used as a conventional sound-absorbing material and is known to have high strength and excellent sound absorption. Furthermore, it has the advantages of being resistant to high temperatures, not burning, not being absorbent, having little hygroscopicity, not corroding because it is chemically durable, having high strength, especially tensile strength, and high electrical insulation, so it has a sound-absorbing coating layer (450) containing a sound-absorbing base. ), when laminated on the inner peripheral surface of the cover member 430, not only can increase the sound absorption of the cover member 430, but also have the effect of increasing high temperature durability, chemical durability, strength, and electrical insulation.

나아가 흡음성 강화제는 그래핀옥사이드를 포함하는데, 이렇게 그래핀옥사이드가 흡음성을 지닌 흡음재에 포함되는 경우 흡음 성능이 더욱 강화되는 것으로 알려져 있으며, 관련 실험결과 역시 이를 증명하고 있다.Furthermore, the sound absorption enhancer includes graphene oxide, and it is known that when graphene oxide is included in a sound absorption material, the sound absorption performance is further strengthened, and related experimental results also prove this.

따라서 이와 같이 그래핀옥사이드를 포함하는 흡음성 강화제와 흡음 베이스가 혼합된 흡음성 코팅층(450)이 커버 부재(430)의 내주 면에 적층 처리됨으로써, 커버 부재(430)의 흡음성을 강화시켜 외부로 출력부의 음성(출력부의 음성 또는 사운드)이 새어나가는 것을 방지하고 커버 부재(430)의 내주면으로 소리를 집적시켜 하울링 발생 성능을 높일 수 있는 효과를 갖는다.Therefore, the sound-absorbing coating layer 450, which is a mixture of the sound-absorbing enhancer containing graphene oxide and the sound-absorbing base, is laminated on the inner peripheral surface of the cover member 430, thereby strengthening the sound absorption of the cover member 430 and exposing the output portion to the outside. This has the effect of preventing voice (voice or sound from the output unit) from leaking and increasing howling generation performance by integrating sound into the inner peripheral surface of the cover member 430.

이때 바람직하게 흡음성 강화제는 그래핀옥사이드 이외에도 추가적인 조성을 더 포함할 수 있으며, 이러한 흡음성 강화제는 1차 용액을 제조하는 단계(S11), 2차 용액을 제조하는 단계(S12), 3차 용액을 제조하는 단계(S13), 4차 용액을 제조하는 단계(S14), 중간 복합체를 수득하는 단계(S15). 5차 용액을 제조하는 단계(S15), 6차 용액을 제조하는 단계(S16), 흡음성 강화제를 수득하는 단계(S17)를 통해 제조될 수 있다.At this time, preferably, the sound absorption enhancer may further include additional compositions in addition to graphene oxide, and this sound absorption enhancer is used in the step of preparing the first solution (S11), the step of preparing the second solution (S12), and the step of preparing the tertiary solution. Step (S13), preparing a fourth solution (S14), and obtaining an intermediate complex (S15). It can be prepared through the step of preparing the 5th solution (S15), the step of preparing the 6th solution (S16), and the step of obtaining the sound absorption enhancer (S17).

(S11) 1차 용액을 제조하는 단계(S11) Step of preparing the first solution

먼저, 프로필렌글리콜 20 내지 40 중량부와 그래핀옥사이드(GO:Graphene Oxide) 60 내지 80 중량부를 혼합하여 1차 용액을 제조한다. 그래핀옥사이드는 프로필렌글리콜 하에서 균일한 분산액이 될 수 있으며, 여기서 1차 용액의 제조 시 교반기 등을 통한 충분한 교반이 이루어져야 한다.First, prepare a primary solution by mixing 20 to 40 parts by weight of propylene glycol and 60 to 80 parts by weight of graphene oxide (GO). Graphene oxide can become a uniform dispersion under propylene glycol, where sufficient stirring using a stirrer, etc. must be performed when preparing the primary solution.

이 경우 교반 과정에서 용매인 프로필렌글리콜의 휘발이 일어날 수 있는데, 이 과정에서는 기화되는 양 만큼의 프로필렌글리콜을 1차 용액에 더하여 프로필렌글리콜의 중량부가 유지되도록 한다.In this case, volatilization of the solvent, propylene glycol, may occur during the stirring process. In this process, propylene glycol in the amount evaporated is added to the primary solution to maintain the weight of propylene glycol.

(S12) 2차 용액을 제조하는 단계(S12) Step of preparing secondary solution

1차 용액의 준비가 완료되면, 프로필렌글리콜 30 내지 40 중량부, 증류수 10 내지 20 중량부, 질산은 40 내지 60 중량부를 혼합하여 2차 용액을 제조한다. 이 때 질산은의 완전한 용해를 위해서는 별도의 가열 등이 더해질 수도 있다. 질산은은 그래핀옥사이드에 은을 더하기 위한 목적으로 이용된다.When the preparation of the primary solution is completed, a secondary solution is prepared by mixing 30 to 40 parts by weight of propylene glycol, 10 to 20 parts by weight of distilled water, and 40 to 60 parts by weight of silver nitrate. At this time, separate heating may be added to completely dissolve the silver nitrate. Silver nitrate is used to add silver to graphene oxide.

(S13) 3차 용액을 제조하는 단계(S13) Step of preparing tertiary solution

1차 용액 및 2차 용액의 준비가 완료되면, 준비된 1차 용액 30 내지 50 중량부와 2차 용액 50 내지 70 중량부를 혼합하여 그래핀-질산은 혼합액인 3차 용액을 제조한다.Once the preparation of the primary and secondary solutions is completed, 30 to 50 parts by weight of the prepared primary solution and 50 to 70 parts by weight of the secondary solution are mixed to prepare a tertiary solution, which is a graphene-silver nitrate mixed solution.

이를 통해 제조된 3차 용액은 질산은 용액에 프로필렌글리콜이 더하여지고, 거기에 그래핀옥사이드가 고르게 분산된 형태이다. 더불어 3차 용액 제조를 위해 질소상태에서 40 내지 60℃의 온도조건으로 1 내지 3시간 동안 교반 처리가 이루어지는데, 이 과정에서 일차적으로 질산은 용액에 포함되어 있던 은 이온이 그래핀옥사이드와 일차적으로 반응하여 은 이온이 부가된 그래핀옥사이드 복합체를 얻을 수 있게 된다.The tertiary solution prepared through this is a silver nitrate solution in which propylene glycol is added and graphene oxide is evenly dispersed. In addition, to prepare the tertiary solution, stirring is performed under nitrogen at a temperature of 40 to 60°C for 1 to 3 hours. During this process, silver ions contained in the silver nitrate solution primarily react with graphene oxide. This makes it possible to obtain a graphene oxide complex to which silver ions are added.

(S14) 4차 용액을 제조하는 단계(S14) Step of preparing the fourth solution

3차 용액의 제조가 완료되면, 3차 용액을 100 내지 120℃까지 가열하고, 상기 3차 용액 80 내지 95 중량부와 수소화붕소나트륨(sodiumborohydride) 5 내지 20 중량부를 혼합한 뒤 1 내지 3시간 동안 교반 처리하여 4차 용액을 제조한다.When the preparation of the tertiary solution is completed, the tertiary solution is heated to 100 to 120 ° C., 80 to 95 parts by weight of the tertiary solution and 5 to 20 parts by weight of sodium borohydride are mixed and left for 1 to 3 hours. A fourth solution is prepared by stirring.

이때 바람직하게는 수소화붕소나트륨을 천천히 3차 용액에 적가하고 교반 처리함으로써 4차 용액이 제조되는데, 이 과정에서 수소화붕소나트륨에 의해 그래핀옥사이드의 환원이 일어나게 된다. 이를 통해 최종적으로 환원된 그래핀이 프로필렌글리콜 및 증류수에 분산된 형태의 4차 용액을 제조할 수 있다.At this time, preferably, the fourth solution is prepared by slowly adding sodium borohydride dropwise to the third solution and stirring. In this process, reduction of graphene oxide occurs by sodium borohydride. Through this, it is possible to prepare a quaternary solution in which the finally reduced graphene is dispersed in propylene glycol and distilled water.

(S15) 중간 복합체를 수득하는 단계(S15) Obtaining intermediate complex

4차 용액의 제조가 완료되면, 증류수 또는 에탄올 및 메탄올 중 어느 하나로 4차 용액을 세척하고 70 내지 90℃에서 20 내지 40시간 동안 건조하여 입자상의 중간 복합체를 수득한다. When preparation of the quaternary solution is completed, the quaternary solution is washed with distilled water or any one of ethanol and methanol and dried at 70 to 90° C. for 20 to 40 hours to obtain a particulate intermediate composite.

이러한 중간 복합체는 환원된 그래핀에 은이 부가된 형태이며, 본 발명의 그래핀옥사이드 기반 다공성 물질을 제조하기 위한 중간 물질이라 할 수 있다.This intermediate composite is a form in which silver is added to reduced graphene, and can be considered an intermediate material for manufacturing the graphene oxide-based porous material of the present invention.

(S16) 5차 용액을 제조하는 단계(S16) Step of preparing the 5th solution

이어서, 제조된 입자상의 중간 복합체 10 내지 40 중량부와 증류수 60 내지 90 중량부를 혼합하여 5차 용액을 제조한다. 이때 중간 복합체는 시간이 지남에 따라 증류수 상에서 고르게 분산되는 것이 아닌 가라앉는 특성을 지니므로 빠른 속도로 교반이 이루어져야 하며, 후 과정 역시 빠른 속도로 이루어져야 한다.Next, a fifth solution is prepared by mixing 10 to 40 parts by weight of the prepared particulate intermediate composite with 60 to 90 parts by weight of distilled water. At this time, the intermediate complex has the property of sinking rather than being evenly dispersed in distilled water over time, so it must be stirred at a high speed, and the subsequent process must also be performed at a high speed.

(S17) 6차 용액을 제조하는 단계(S17) Step of preparing the 6th solution

다음으로, 증류수 80 내지 95 중량부, 아크릴아마이드(AAm:Acrylamide) 5 내지 10 중량부, 헵타플루오로부틸아미드 아크릴아마이드(MBAA:N,N-Methylbis Acrylamide) 0.1 내지 5 중량부, 2-케토글루타르산(2-ketoglutaric acid) 0.1 내지 1 중량부를 혼합 처리하여 6차 용액을 제조한다.Next, 80 to 95 parts by weight of distilled water, 5 to 10 parts by weight of acrylamide (AAm: Acrylamide), 0.1 to 5 parts by weight of heptafluorobutylamide acrylamide (MBAA: N, N-Methylbis Acrylamide), 2-ketoglu A sixth solution is prepared by mixing 0.1 to 1 part by weight of 2-ketoglutaric acid.

아크릴아마이드는 물, 에탄올, 에테르, 클로로폼에서 잘 녹는 성질이 있어 증류수를 매개체로 한 수용액을 잘 형성하는 성질이 있으며, 하이드로겔 형성 시 하이드로겔 표면의 입체적 반발력에 의해 높은 유동성을 갖고, 부드럽고 유연한 성질을 지닌다.Acrylamide is highly soluble in water, ethanol, ether, and chloroform, so it has the property of forming an aqueous solution using distilled water as a medium. When forming a hydrogel, it has high fluidity due to the steric repulsion of the hydrogel surface, and is soft and flexible. It has character.

헵타플루오로부틸아미드 아크릴아마이드(MBAA:N,N-Methylbis Acrylamide)는 가교제 및 경화제의 역할로서 첨가되는 것으로서, 헵타플루오로부틸아미드 아크릴아마이드 첨가에 따라 제조된 하이드로겔의 경도를 증대시킬 수 있다.Heptafluorobutylamide acrylamide (MBAA: N,N-Methylbis Acrylamide) is added to act as a crosslinker and curing agent, and can increase the hardness of the hydrogel produced by adding heptafluorobutylamide acrylamide.

2-케토글루타르산(2-ketoglutaric acid)은 물에 녹는 결정성의 물질로서, L-글루탐산의 전구체이다. 본 발명의 실시예의 경우 아크릴아마이드를 통한 하이드로겔화를 촉진시키기 위해 첨가된다. 2-ketoglutaric acid is a crystalline substance that is soluble in water and is a precursor of L-glutamic acid. In the case of examples of the present invention, it is added to promote hydrogelation through acrylamide.

더불어 이와 같은 아크릴아마이드, 헵타플루오로부틸아미드 아크릴아마이드, 2-케토글루타르산의 혼합 시 초음파등을 이용한 고속 교반이 이루어질 수 있으나, 이 때 교반의 경우 너무 오랜 시간 이루어지게 되면 헵타플루오로부틸아미드 아크릴아마이드에 포함된 탄소 이중결합이 끊어져 하이드로겔화 반응이 진행되지 않으므로 이 점에 대해서는 주의하여야 한다.In addition, when mixing acrylamide, heptafluorobutylamide, acrylamide, and 2-ketoglutaric acid, high-speed stirring using ultrasound, etc. can be performed. However, if stirring is carried out for too long, heptafluorobutylamide Care must be taken regarding this point because the carbon double bond contained in acrylamide is broken and the hydrogelation reaction does not proceed.

(S18) 7차 용액을 제조하는 단계(S18) Step of preparing the 7th solution

5차 용액과 6차 용액의 준비가 완료되면, 상기 5차 용액 30 내지 70 중량부와 상기 6차 용액 30 내지 70 중량부를 혼합하여 7차 용액을 제조하게 된다. Once the preparation of the 5th solution and the 6th solution is completed, 30 to 70 parts by weight of the 5th solution and 30 to 70 parts by weight of the 6th solution are mixed to prepare the 7th solution.

즉, 본 발명에서는 5차 용액과 6차 용액을 혼합 처리함으로써 아크릴아마이드 기반의 하이드로겔 내부에 중간 복합체가 첨가됨으로써 기계적, 전기적, 열적 특성을 강화시키고, 나아가 다공질의 복합재를 제조하여 흡음성을 증대시키는 효과를 갖는다.That is, in the present invention, by mixing the 5th solution and the 6th solution, an intermediate composite is added inside the acrylamide-based hydrogel to strengthen the mechanical, electrical, and thermal properties, and further to increase sound absorption by producing a porous composite material. It has an effect.

(S19) 흡음성 강화제를 수득하는 단계(S19) Obtaining a sound absorption enhancer

마지막으로, 암실에서 상기 7차 용액에 300 내지 400nm 파장의 빛을 3시간 내지 5시간 동안 조사하게 된다. 이 과정을 통해 폴리아크릴아마이드를 얻게 됨과 동시에 제조된 다공질 그래핀옥사이드-은 복합체의 강도 증가를 노릴 수 있으며, 더불어 마지막으로 반응하지 않은 잔량의 아크릴아마이드를 삼투압을 이용하는 방식 등을 통해 제거하여 최종 산물인 흡음성 강화제를 마지막으로 수득하게 된다. 더불어 잔량의 아크릴아마이드 제거 시 본 실시예에서는 삼투 만을 예로 들었으나, 그 외에도 잔량의 아크릴아마이드 및 용매 제거를 위해 공지의 다른 방식이 충분히 적용될 수 있음은 물론이다.Finally, light with a wavelength of 300 to 400 nm is irradiated to the seventh solution in a dark room for 3 to 5 hours. Through this process, polyacrylamide is obtained and at the same time, it is possible to increase the strength of the prepared porous graphene oxide-silver composite. Additionally, the remaining unreacted acrylamide is removed through methods such as using osmotic pressure to produce the final product. The phosphorus sound absorption enhancer is finally obtained. In addition, when removing the remaining amount of acrylamide, only osmosis was used as an example in this embodiment, but of course, other known methods can be sufficiently applied to remove the remaining amount of acrylamide and solvent.

이와 같이 제조되는 흡음성 강화제는 그래핀옥사이드를 기본적으로 포함하여 흡음 성능이 뛰어남은 물론이거니와, 그래핀옥사이드에 은을 부가한 중간 복합체를 형성하여 열적, 기계적, 전기적 안정성을 높이고, 이와 같이 제조된 중간 복합체를 아크릴아마이드 기반의 하이드로겔 내부에 침투시켜 다공질의 복합체를 제조함으로써 커버 부재(43) 내면에서의 접착성을 향상시킴은 물론이거니와 다공질의 구조를 통한 흡음성 개량 효과를 극대화한 효과가 있다.The sound absorption enhancer manufactured in this way not only has excellent sound absorption performance as it basically contains graphene oxide, but also forms an intermediate complex by adding silver to graphene oxide to increase thermal, mechanical, and electrical stability, and the intermediate manufactured in this way improves thermal, mechanical, and electrical stability. By infiltrating the composite into the acrylamide-based hydrogel to manufacture a porous composite, not only is the adhesion on the inner surface of the cover member 43 improved, but the effect of improving sound absorption through the porous structure is maximized.

이하, 본 발명의 흡음성 강화제의 구성에 따른 물성을 설명하기 위해 실시예 및 비교예의 평가 결과를 비교하여 설명하도록 한다. 실시예는 본 발명의 흡음성 강화제를 포함하는 실시예 1,2로 구성되어 있고, 비교예는 종래의 흡음재 조성물이다.Hereinafter, in order to explain the physical properties according to the configuration of the sound absorption enhancer of the present invention, the evaluation results of Examples and Comparative Examples will be compared and explained. The examples consist of Examples 1 and 2 containing the sound absorption enhancer of the present invention, and the comparative example is a conventional sound absorption material composition.

<실시예 1><Example 1>

프로필렌글리콜 40g, 그래핀옥사이드 60g을 혼합하여 1차 용액 100g을 제조하였다.100g of the primary solution was prepared by mixing 40g of propylene glycol and 60g of graphene oxide.

프로플레글리콜 35g, 증류수 20g. 질산은 45g을 혼합하여 2차 용액 100g을 제조하였다.35g propleglycol, 20g distilled water. 100 g of secondary solution was prepared by mixing 45 g of silver nitrate.

제조된 1차 용액 40g과 2차 용액 60g을 혼합하고 50℃의 질소 분위기에서 2시간 동안 교반 처리하여 3차 용액 100g을 제조하였다.40 g of the prepared primary solution and 60 g of the secondary solution were mixed and stirred for 2 hours in a nitrogen atmosphere at 50°C to prepare 100 g of the tertiary solution.

제조된 3차 용액을 110℃로 가열한 상태에서, 3차 용액 90g에 수소화붕소나트륨 10g을 혼합하고 2시간 동안 교반 처리하여 4차 용액 100g을 제조하였다.While the prepared tertiary solution was heated to 110°C, 10 g of sodium borohydride was mixed with 90 g of the tertiary solution and stirred for 2 hours to prepare 100 g of the fourth solution.

제조된 4차 용액을 증류수로 세척하고 80℃에서 30시간 동안 건조하여 중간 복합체를 수득하였다.The prepared fourth solution was washed with distilled water and dried at 80°C for 30 hours to obtain an intermediate complex.

제조된 중간 복합체 20g과 증류수 80g을 혼합하여 5차 용액 100g을 제조하였다.100g of the 5th solution was prepared by mixing 20g of the prepared intermediate complex and 80g of distilled water.

증류수 90g, 아크릴아마이드 8g, 헵타플루오로부틸아미드 아크릴아마이드 1.5g. 2-케토글루타르산 0.5g을 혼합하여 6차 용액 100g을 제조하였다.90g distilled water, 8g acrylamide, 1.5g heptafluorobutylamide acrylamide. 100g of the 6th solution was prepared by mixing 0.5g of 2-ketoglutaric acid.

제조된 5차 용액 60g과 6차 용액 40g을 혼합하여 7차 용액 100g을 제조하였다.100g of the 7th solution was prepared by mixing 60g of the prepared 5th solution with 40g of the 6th solution.

암실에서 7차 용액에 350nm의 빛을 4시간 동안 조사하고, 삼투 방식을 통해 미반응된 아크릴아마이드를 제거하여 흡음성 강화제를 수득하였다.The 7th solution was irradiated with 350 nm light for 4 hours in a dark room, and unreacted acrylamide was removed through osmosis to obtain a sound absorption enhancer.

유리섬유 90g에 흡음성 강화제 10g을 혼합 처리하여 섬유 형태로 직조하고 3mm의 시트 형상으로 성형하여 흡음성 코팅층 피막을 제조하였다.A sound-absorbing coating layer was prepared by mixing 90 g of glass fiber with 10 g of a sound-absorbing reinforcing agent, weaving it into a fiber form, and molding it into a 3 mm sheet shape.

시험체는 석고보드9.5mm보드를 피도체로 하여, 제조된 흡음성 코팅층 피막을 에폭시 접착제로 부착한 뒤 상온 경화시켰다.The test specimen used a 9.5mm gypsum board as a conductor, and the manufactured sound-absorbing coating layer was attached with an epoxy adhesive and cured at room temperature.

<실시예 2><Example 2>

유리섬유 90g에 그래핀옥사이드 10g을 혼합 처리하여 섬유 형태로 직조하고 3mm의 시트 형상으로 성형하여 흡음성 코팅층 피막을 제조하였다.90 g of glass fiber was mixed with 10 g of graphene oxide, woven into a fiber form, and molded into a 3 mm sheet to prepare a sound-absorbing coating layer.

시험체는 석고보드9.5mm보드를 피도체로 하여, 제조된 흡음성 코팅층 피막을 에폭시 접착제로 부착한 뒤 상온 경화시켰다.The test specimen used a 9.5mm gypsum board as a conductor, and the manufactured sound-absorbing coating layer was attached with an epoxy adhesive and cured at room temperature.

<비교예 1><Comparative Example 1>

유리섬유를 섬유 형태로 직조하고 3mm의 시트 형상으로 성형하여 흡음성 코팅층 피막을 제조하였다.Glass fiber was woven into a fiber form and molded into a 3 mm sheet shape to produce a sound-absorbing coating layer.

시험체는 석고보드9.5mm보드를 피도체로 하여, 제조된 흡음성 코팅층 피막을 에폭시 접착제로 부착한 뒤 상온 경화시켰다.The test specimen used a 9.5mm gypsum board as a conductor, and the manufactured sound-absorbing coating layer was attached with an epoxy adhesive and cured at room temperature.

1. 흡음률 시험 : 흡음율 시험방법 KS F 2805 "잔향실내의 흡음율 측정방법" 에 따라 800Hz의 주파수에 대한 흡음률 시험을 실행하였다.1. Sound absorption rate test: A sound absorption rate test was performed for a frequency of 800Hz according to KS F 2805 “Method for measuring sound absorption rate in a reverberant room”.

2. 내찰상성 평가 : #0000 스틸울에 의한 내찰상 시험을 실행하였다.(1Kg 하중, 10회 왕복) 실험 결과는 다음과 같이 나타내었다.2. Scratch resistance evaluation: A scratch resistance test using #0000 steel wool was performed (1Kg load, 10 round trips). The test results were shown as follows.

○ : 표면 손상이 없음○: No surface damage

△ : 표면 손상이 약간 있음△: There is some surface damage.

× : 표면 손상이 많음×: There is a lot of surface damage

3. 밀착성 평가 : 코팅층 도막에 대한 크로스 커트 셀로테이프 (Cross Cut Cellotape) 박리시험을 시행하였다. 즉 도막에 1mm 간격으로 기질에 달하는 도막 절단선을 가로 세로 각각 11매 넣어서 1mm2의 눈수를 100개 만들어 그 위에 셀로테이프를 붙이고 급격히 떼어내고, 이 조작을 5회 반복 실시한 뒤 결과를 다음과 같이 나타내었다.3. Adhesion evaluation: Cross Cut Cellotape peel test was performed on the coating layer film. That is, 11 cutting lines of the coating film reaching the substrate at 1mm intervals are inserted into the coating film, horizontally and vertically, to make 100 1mm2 eyes, then attach Sellotape on top of them and quickly peel them off. After repeating this operation 5 times, the results are shown as follows. It was.

○ : 도막의 박리가 없음○: No peeling of the coating film.

△ : 박리눈 수가 1-50 인 경우△: When the number of delaminated buds is 1-50

× : 박리눈 수가 51-100 인 경우×: When the number of delaminated buds is 51-100

표 1는 시험결과를 나타낸 표이다.Table 1 shows the test results. 흡음률sound absorption rate 내찰상성scratch resistance 밀착성Adhesion 실시예 1Example 1 0.460.46 실시예 2Example 2 0.410.41 비교예 1Comparative Example 1 0.240.24 ××

상술한 표 2에 나타난 바와 같이, 본 발명의 실시예 1 내지 2의 조성물은 비교예에 비해 흡음률, 내찰상성, 밀착성이 뛰어난 것을 알수 있으며, 따라서 적층된 도막이 쉽게 떨어지지 않고 강력하게 밀착이 가능할 뿐 아니라 흡음률이 보다 뛰어남을 확인할 수 있다.As shown in Table 2 above, it can be seen that the compositions of Examples 1 and 2 of the present invention have superior sound absorption, scratch resistance, and adhesion compared to the comparative examples. Therefore, not only is the laminated coating film not easily separated and strong adhesion is possible. It can be seen that the sound absorption rate is superior.

더하여 실시예 1 내지 2의 비교를 통해 보다 다양한 조성을 포함하고 있는 실시예 1의 조성물이 실시예 2에 비해 전반적인 물성이 모두 우수함을 확인할 수 있다.In addition, through comparison of Examples 1 and 2, it can be confirmed that the composition of Example 1, which contains a more diverse composition, has superior overall physical properties compared to Example 2.

지금까지 설명한 바와 같이, 본 발명에 따른 AI 기반의 버츄얼 챗봇 운영 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.As explained so far, the configuration and operation of the AI-based virtual chatbot operating system according to the present invention have been expressed in the above description and drawings, but this is only an example and the spirit of the present invention is not limited to the above description and drawings. , Of course, various changes and modifications are possible without departing from the technical spirit of the present invention.

10: 유저 단말 20: 메인 서버
100: 챗봇 인터페이스 110: 텍스트 처리부
120: 분석부 130: 답변 생성부
140: 출력부 200: 캐릭터 관리 모듈
210: 캐릭터 인터페이스 220: 실행부
230: 캐릭터 브리딩부 240: 니즈 요청부
241: 니즈 저장 파트 242: 알람 파트
300: 카운팅 모듈 400: 보안 제어 인터페이스
410: 마이크 420: 지향성 스피커
430: 커버 부재 440: 컨트롤러
450: 흡음성 코팅층
10: User terminal 20: Main server
100: chatbot interface 110: text processing unit
120: analysis unit 130: answer generation unit
140: output unit 200: character management module
210: character interface 220: execution unit
230: Character breeding department 240: Needs request department
241: Needs storage part 242: Alarm part
300: Counting module 400: Security control interface
410: Microphone 420: Directional speaker
430: cover member 440: controller
450: Sound-absorbing coating layer

Claims (8)

AI 기반의 버츄얼 챗봇 운영 시스템으로서,
유저와의 채팅을 지원하는 것으로서, 유저의 음성을 STT(Sound-to-Text)를 기반으로 텍스트로 변환하는 텍스트 처리부와, 상기 텍스트를 분석하는 분석부 및, 상기 텍스트에서 특정 문장이나 단어의 조건 일치 여부에 따라 서로 다른 답변을 생성하는 답변 생성부와, 상기 답변을 TTS(Text-to-Sound) 기반으로 음성으로 변환하여 출력하는 출력부를 포함한 챗봇 인터페이스;
복수 개의 캐릭터를 저장한 캐릭터 데이터베이스와, 상기 캐릭터 데이터베이스에서 유저로부터 선택된 캐릭터를 상기 챗봇 인터페이스와 연동하여 출력하는 실행부를 포함한 캐릭터 관리 모듈;을 포함하고,
상기 챗봇 인터페이스는 이동통신단말에서 구현되며,
상기 이동통신단말은,
마이크 및, 상기 마이크를 향해 상기 출력부에서 변환한 음성을 출력하는 지향성 스피커와, 상기 마이크 및 상기 지향성 스피커를 커버하도록 형성된 커버 부재 및, 상기 지향성 스피커를 통해 녹음된 음성을 출력하면서 하울링을 발생시켜 상기 하울링을 상기 녹음된 음성에 합성하여 저장하는 컨트롤러를 포함하는 보안 제어 인터페이스;를 포함하고,
상기 커버 부재의 내주 면에는,
유리 섬유를 포함하는 흡음 베이스 90 내지 99 중량부와, 흡음성 강화제 1 내지 10 중량부를 포함하는 흡음성 코팅층이 적층되되,
상기 흡음성 강화제는,
프로필렌글리콜 20 내지 40 중량부와 그래핀옥사이드(GO : Graphene Oxide) 60 내지 80 중량부를 혼합하여 1차 용액을 제조하는 단계;
프로필렌글리콜 30 내지 40 중량부, 증류수 10 내지 20 중량부, 질산은 40 내지 60 중량부를 포함하는 2차 용액을 제조하는 단계;
상기 1차 용액 30 내지 50 중량부와 상기 2차 용액 50 내지 70 중량부를 혼합하고 질소 상태에서 40 내지 60℃의 온도조건으로 1 내지 3시간 동안 교반 처리하여 3차 용액을 제조하는 단계;
상기 3차 용액을 100 내지 120℃까지 가열하고, 상기 3차 용액 80 내지 95 중량부와 수소화붕소나트륨(sodiumborohydride) 5 내지 20 중량부를 혼합한 뒤 1 내지 3시간 동안 교반 처리하여 4차 용액을 제조하는 단계;
상기 4차 용액을 세척하고 70 내지 90℃에서 20 내지 40시간 동안 건조하여 중간 복합체를 수득하는 단계;
상기 중간 복합체 10 내지 40 중량부와 증류수 60 내지 90 중량부를 혼합하여 5차 용액을 제조하는 단계;
증류수 80 내지 95 중량부, 아크릴아마이드(AAm : Acrylamide) 5 내지 10 중량부, 헵타플루오로부틸아미드 아크릴아마이드(MBAA : N,N-Methylbis Acrylamide) 0.1 내지 5 중량부, 2-케토글루타르산(2-ketoglutaric acid) 0.1 내지 1 중량부를 혼합하여 6차 용액을 제조하는 단계;
상기 5차 용액 30 내지 70 중량부와 상기 6차 용액 30 내지 70 중량부를 혼합하여 7차 용액을 제조하는 단계;
암실에서 상기 7차 용액에 300 내지 400nm 파장의 빛을 3시간 내지 5시간 동안 조사하고 반응되지 않은 아크릴아마이드를 제거하여 흡음성 강화제를 수득하는 단계;를 통해 제조되는 것을 특징으로 하는, 버츄얼 챗봇 운영 시스템.
As an AI-based virtual chatbot operating system,
Supporting chatting with users, it includes a text processing unit that converts the user's voice into text based on STT (Sound-to-Text), an analysis unit that analyzes the text, and conditions for specific sentences or words in the text. A chatbot interface including an answer generation unit that generates different answers depending on whether there is a match, and an output unit that converts the answers into voices based on TTS (Text-to-Sound) and outputs them;
It includes a character management module that includes a character database storing a plurality of characters, and an execution unit that outputs a character selected by a user from the character database in conjunction with the chatbot interface,
The chatbot interface is implemented in a mobile communication terminal,
The mobile communication terminal is,
A microphone and a directional speaker that outputs the voice converted by the output unit toward the microphone, a cover member formed to cover the microphone and the directional speaker, and a howling is generated while outputting the voice recorded through the directional speaker. A security control interface including a controller that synthesizes the howling into the recorded voice and stores it,
On the inner peripheral surface of the cover member,
90 to 99 parts by weight of a sound-absorbing base containing glass fiber and a sound-absorbing coating layer containing 1 to 10 parts by weight of a sound-absorbing reinforcing agent are laminated,
The sound absorption enhancer is,
Preparing a primary solution by mixing 20 to 40 parts by weight of propylene glycol and 60 to 80 parts by weight of graphene oxide (GO);
Preparing a secondary solution containing 30 to 40 parts by weight of propylene glycol, 10 to 20 parts by weight of distilled water, and 40 to 60 parts by weight of silver nitrate;
Preparing a tertiary solution by mixing 30 to 50 parts by weight of the primary solution and 50 to 70 parts by weight of the secondary solution and stirring for 1 to 3 hours under nitrogen at a temperature of 40 to 60°C;
Heat the tertiary solution to 100 to 120°C, mix 80 to 95 parts by weight of the tertiary solution with 5 to 20 parts by weight of sodium borohydride, and then stir for 1 to 3 hours to prepare a fourth solution. steps;
Obtaining an intermediate composite by washing the fourth solution and drying it at 70 to 90° C. for 20 to 40 hours;
Preparing a fifth solution by mixing 10 to 40 parts by weight of the intermediate complex and 60 to 90 parts by weight of distilled water;
80 to 95 parts by weight of distilled water, 5 to 10 parts by weight of acrylamide (AAm), 0.1 to 5 parts by weight of heptafluorobutylamide acrylamide (MBAA: N,N-Methylbis Acrylamide), 2-ketoglutaric acid ( Preparing a sixth solution by mixing 0.1 to 1 part by weight of 2-ketoglutaric acid;
Preparing a 7th solution by mixing 30 to 70 parts by weight of the 5th solution and 30 to 70 parts by weight of the 6th solution;
Irradiating light with a wavelength of 300 to 400 nm to the 7th solution in a dark room for 3 to 5 hours and removing unreacted acrylamide to obtain a sound absorption enhancer; A virtual chatbot operating system characterized in that it is manufactured through .
제 1항에 있어서,
상기 시스템은,
유저의 음성 횟수, 유저의 만족도를 표현한 단어의 횟수 중 적어도 어느 하나를 카운팅하여 카운팅 지수를 생성하는 카운팅 모듈;을 포함하고,
상기 캐릭터 관리 모듈은,
상기 카운팅 지수에 따라 상기 캐릭터의 사이즈와 모양 중 적어도 어느 하나를 가변 처리하는 캐릭터 브리딩부를 포함하는 것을 특징으로 하는, 버츄얼 챗봇 운영 시스템.
According to clause 1,
The system is,
A counting module that generates a counting index by counting at least one of the number of user voices and the number of words expressing user satisfaction,
The character management module is,
A virtual chatbot operating system comprising a character breeding unit that varies at least one of the size and shape of the character according to the counting index.
제 2항에 있어서,
상기 카운팅 모듈은,
유저의 음성 횟수, 유저의 만족도를 표현한 단어의 횟수 중 적어도 어느 하나와, 유저의 감정을 표현한 단어의 횟수를 각각 카운팅하여 카운팅 지수를 생성하는 것을 특징으로 하는, 버츄얼 챗봇 운영 시스템.
According to clause 2,
The counting module is,
A virtual chatbot operating system that generates a counting index by counting at least one of the number of voices of the user, the number of words expressing the user's satisfaction, and the number of words expressing the user's emotions.
제 3항에 있어서,
상기 챗봇 인터페이스는,
터치스크린을 포함한 스마트폰에서 구현되고,
상기 카운팅 모듈은,
유저의 음성 횟수, 유저의 만족도를 표시한 단어의 횟수 중 적어도 어느 하나와, 유저의 감정 표현 횟수 및, 상기 캐릭터가 출력된 터치스크린의 터치 회수를 각각 카운팅하여 카운팅 지수를 생성하는 것을 특징으로 하는, 버츄얼 챗봇 운영 시스템.
According to clause 3,
The chatbot interface is,
Implemented in smartphones including touch screens,
The counting module is,
Characterized in generating a counting index by counting at least one of the number of voices of the user, the number of words expressing the user's satisfaction, the number of expressions of the user's emotions, and the number of touches on the touch screen on which the character is output. , virtual chatbot operating system.
제 2항에 있어서,
상기 캐릭터 관리 모듈은,
캐릭터의 니즈를 저장한 니즈 저장 파트와, 상기 니즈에 관련된 단어를 일정 주기에 따라 유저에게 음성으로 출력하는 알람 파트를 구비한 니즈 요청부를 포함하고,
상기 카운팅 모듈은,
유저의 음성 중 상기 니즈에 관련된 단어를 카운팅하여 니즈 만족 지수를 생성하고,
상기 캐릭터 브리딩부는,
상기 니즈 만족 지수에 따라 상기 캐릭터의 표정을 가변 처리하는 것을 특징으로 하는, 버츄얼 챗봇 운영 시스템.
According to clause 2,
The character management module is,
A needs request unit including a needs storage part that stores the character's needs, and an alarm part that outputs words related to the needs as a voice to the user at a certain period,
The counting module is,
A needs satisfaction index is generated by counting words related to the needs in the user's voice,
The character breeding department,
A virtual chatbot operating system, characterized in that the facial expression of the character is variably processed according to the needs satisfaction index.
삭제delete 삭제delete 삭제delete
KR1020230081006A 2023-06-23 2023-06-23 AI-based virtual chatbot operating system KR102603035B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230081006A KR102603035B1 (en) 2023-06-23 2023-06-23 AI-based virtual chatbot operating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230081006A KR102603035B1 (en) 2023-06-23 2023-06-23 AI-based virtual chatbot operating system

Publications (1)

Publication Number Publication Date
KR102603035B1 true KR102603035B1 (en) 2023-11-15

Family

ID=88742578

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230081006A KR102603035B1 (en) 2023-06-23 2023-06-23 AI-based virtual chatbot operating system

Country Status (1)

Country Link
KR (1) KR102603035B1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775368B1 (en) * 2016-04-18 2017-09-06 주식회사 제일에스엔씨 Low noise adhesive-tape and manufacturing method
KR101871998B1 (en) * 2017-10-23 2018-06-27 양덕일 Method for providing virtual pet raising service interacting with chat content based on group chat
KR102024648B1 (en) * 2018-04-18 2019-09-24 양덕일 Method for providing of charatcer growing content based on chatting documents
KR20210004372A (en) * 2019-07-04 2021-01-13 한국과학기술원 Auxetic Porous Structure Based on Graphene and Method of Preparing the Same for Vibration and Shock Energy Dissipation
KR20210025933A (en) * 2019-08-28 2021-03-10 삼성생명보험주식회사 Computer program for providing a way to respond to customers
KR102230372B1 (en) 2020-06-10 2021-03-22 한국전자통신연구원 Chatbot apparatus and method of operation thereof using automatic question generation
KR20210035671A (en) * 2019-09-24 2021-04-01 주식회사 허그맘허그인심리상담센터 Emotional analysis method and device based on counselee questionnaire in the early stage of psychological counseling
KR20220066871A (en) * 2017-08-31 2022-05-24 삼성전자주식회사 Home appliance having voice recognizing function
KR20230015194A (en) * 2021-07-22 2023-01-31 주식회사 천재교과서 A method of inducing learning using a learning chatbot and a recording medium recording the same
KR102528878B1 (en) * 2022-10-31 2023-05-08 (주)동아건설 Flooring for noise prevention between floors
KR20230079321A (en) * 2020-07-16 2023-06-07 주식회사 에이비파트너스 Communication system providing chatbot service

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775368B1 (en) * 2016-04-18 2017-09-06 주식회사 제일에스엔씨 Low noise adhesive-tape and manufacturing method
KR20220066871A (en) * 2017-08-31 2022-05-24 삼성전자주식회사 Home appliance having voice recognizing function
KR101871998B1 (en) * 2017-10-23 2018-06-27 양덕일 Method for providing virtual pet raising service interacting with chat content based on group chat
KR102024648B1 (en) * 2018-04-18 2019-09-24 양덕일 Method for providing of charatcer growing content based on chatting documents
KR20210004372A (en) * 2019-07-04 2021-01-13 한국과학기술원 Auxetic Porous Structure Based on Graphene and Method of Preparing the Same for Vibration and Shock Energy Dissipation
KR20210025933A (en) * 2019-08-28 2021-03-10 삼성생명보험주식회사 Computer program for providing a way to respond to customers
KR20210035671A (en) * 2019-09-24 2021-04-01 주식회사 허그맘허그인심리상담센터 Emotional analysis method and device based on counselee questionnaire in the early stage of psychological counseling
KR102230372B1 (en) 2020-06-10 2021-03-22 한국전자통신연구원 Chatbot apparatus and method of operation thereof using automatic question generation
KR20230079321A (en) * 2020-07-16 2023-06-07 주식회사 에이비파트너스 Communication system providing chatbot service
KR20230015194A (en) * 2021-07-22 2023-01-31 주식회사 천재교과서 A method of inducing learning using a learning chatbot and a recording medium recording the same
KR102528878B1 (en) * 2022-10-31 2023-05-08 (주)동아건설 Flooring for noise prevention between floors

Similar Documents

Publication Publication Date Title
US11037576B2 (en) Distributed machine-learned emphatic communication for machine-to-human and machine-to-machine interactions
JP6876752B2 (en) Response method and equipment
CN112349273B (en) Speech synthesis method based on speaker, model training method and related equipment
Tolmeijer et al. Female by default?–exploring the effect of voice assistant gender and pitch on trait and trust attribution
CN107423364B (en) Method, device and storage medium for answering operation broadcasting based on artificial intelligence
US10261991B2 (en) Method and system for imposing a dynamic sentiment vector to an electronic message
US20090055186A1 (en) Method to voice id tag content to ease reading for visually impaired
CN109272984A (en) Method and apparatus for interactive voice
CN103546503B (en) Voice-based cloud social intercourse system, method and cloud analysis server
CN109144255A (en) The increased system and method for tactile for speech-to-text conversion
CN107040452B (en) Information processing method and device and computer readable storage medium
JP2023527670A (en) Speaker identity and content de-identification
US20170235724A1 (en) Systems and methods for generating personalized language models and translation using the same
AU2021347371A1 (en) Systems and methods relating to bot authoring by mining intents from conversation data using known intents for associated sample utterances
CN110147435A (en) Talk with generation method, device, equipment and storage medium
CN110032355A (en) Speech playing method, device, terminal device and computer storage medium
KR102603035B1 (en) AI-based virtual chatbot operating system
US10417572B2 (en) Reducing graphical text analysis using physiological priors
CA2715565A1 (en) System and method for providing tangible feedback according to a context and personality state
CN114566187B (en) Method of operating a system comprising an electronic device, electronic device and system thereof
Westall et al. Speech technology for telecommunications
KR102605178B1 (en) Device, method and computer program for generating voice data based on family relationship
US20070005812A1 (en) Asynchronous communicative exchange
Bauer et al. Constructing gender in audio: exploring how the curation of the voice in music and speech influences our conception of gender identity
Campbell Towards conversational speech synthesis; lessons learned from the expressive speech processing project.

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant