KR20230079321A - Communication system providing chatbot service - Google Patents

Communication system providing chatbot service Download PDF

Info

Publication number
KR20230079321A
KR20230079321A KR1020230065934A KR20230065934A KR20230079321A KR 20230079321 A KR20230079321 A KR 20230079321A KR 1020230065934 A KR1020230065934 A KR 1020230065934A KR 20230065934 A KR20230065934 A KR 20230065934A KR 20230079321 A KR20230079321 A KR 20230079321A
Authority
KR
South Korea
Prior art keywords
information
user
user terminal
artificial intelligence
management server
Prior art date
Application number
KR1020230065934A
Other languages
Korean (ko)
Inventor
권영훈
Original Assignee
주식회사 에이비파트너스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210064367A external-priority patent/KR102536992B1/en
Application filed by 주식회사 에이비파트너스 filed Critical 주식회사 에이비파트너스
Priority to KR1020230065934A priority Critical patent/KR20230079321A/en
Publication of KR20230079321A publication Critical patent/KR20230079321A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/14Plasma, i.e. ionised gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/16Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
    • A61L2/20Gaseous substances, e.g. vapours
    • A61L2/202Ozone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/16Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
    • A61L2/22Phase substances, e.g. smokes, aerosols or sprayed or atomised substances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/14Disinfection, sterilisation or deodorisation of air using sprayed or atomised substances including air-liquid contact processes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/16Disinfection, sterilisation or deodorisation of air using physical phenomena
    • A61L9/22Ionisation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F8/00Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
    • F24F8/20Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F8/00Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
    • F24F8/20Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation
    • F24F8/24Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation using sterilising media
    • F24F8/26Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation using sterilising media using ozone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • G06T3/0056
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/11Apparatus for generating biocidal substances, e.g. vaporisers, UV lamps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/17Combination with washing or cleaning means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2209/00Aspects relating to disinfection, sterilisation or deodorisation of air
    • A61L2209/20Method-related aspects
    • A61L2209/21Use of chemical compounds for treating air or the like
    • A61L2209/212Use of ozone, e.g. generated by UV radiation or electrical discharge
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • General Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Plasma & Fusion (AREA)
  • Molecular Biology (AREA)
  • Medicinal Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Disinfection, Sterilisation Or Deodorisation Of Air (AREA)
  • Water Supply & Treatment (AREA)
  • Hydrology & Water Resources (AREA)
  • Organic Chemistry (AREA)
  • Environmental & Geological Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Disinfection Or Sterilisation (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Treatment Of Water By Oxidation Or Reduction (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Details Or Accessories Of Spraying Plant Or Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Clinical Laboratory Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)

Abstract

The present invention relates to a system for a chatbot service which provides response information and changes the appearance of a character in consideration of the desired time of a user. Additionally, the present invention relates to an artificial intelligence-based communication system using time information. The communication system includes a first user terminal and a management server.

Description

챗봇 서비스를 제공하는 커뮤니케이션 시스템 {Communication system providing chatbot service}Communication system providing chatbot service {Communication system providing chatbot service}

본 발명은 챗봇 서비스를 제공하는 커뮤니케이션 시스템에 관한 것이다.The present invention relates to a communication system providing a chatbot service.

또한 본 발명은 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템에 관한 것이다.In addition, the present invention relates to a system for a chatbot service that provides response information and changes the appearance of a character in consideration of a user's desired time.

또한 본 발명은 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템에 관한 것이다.In addition, the present invention relates to an artificial intelligence-based communication system using time information.

일반적으로 개인비서 시스템, 챗봇 플랫폼(chatbot platform), 인공지능(AI) 스피커 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.In general, an artificial intelligence conversation system used in a personal assistant system, a chatbot platform, and an artificial intelligence (AI) speaker understands the intention of a person's command and provides a response phrase corresponding to it.

주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.Mainly, an artificial intelligence conversation system is a method in which a person conveys a functional request and a machine provides an answer to the person's request, receiving a user's voice input through a microphone and based on the received voice input You can control behavior or content delivery.

특허등록공보 제10-2030803호에는 챗봇의 대화처리장치 및 그 방법이 개시되어 있다.Patent Registration Publication No. 10-2030803 discloses a chatbot conversation processing apparatus and method.

상기 문헌에서 하나 이상의 사용자 단말과 네트워크를 통해 연결되며, 상기 사용자 단말로 질문을 제공하고 상기 사용자 단말로부터 전송되는 답변 음성을 처리하는 대화처리장치가 개시된다.In the above document, a conversation processing apparatus connected to one or more user terminals through a network, providing a question to the user terminal and processing a voice response transmitted from the user terminal is disclosed.

또한 상기 문헌에서의 상기 대화처리장치는 상기 사용자 단말로 전송할 질문을 생성하는 질문/대답 생성부, 상기 사용자 단말로부터 전송되는 사용자의 답변이 상기 질문에 대한 대답인지 상기 대화처리장치에의 질문인지를 구분하고, 상기 사용자의 답변이 기존 사용자의 답변과 동일한지 여부를 판단하는 사용자답변 분석부, 상기 사용자의 답변을 지식베이스 기반에 기초해서 새로운 답변으로 분류가능한지 판단하는 신규 대답/반응 생성부, 및 상기 사용자답변 분석부의 판단결과 및 상기 신규 대답/반응 생성부의 판단결과에 기초해, 상기 사용자 단말에게 전송할 질문 또는 대답을 생성해, 그 결과를 상기 질문/대답 생성부에 제공하는 사용자답변 대응부를 포함한다.In addition, the dialogue processing apparatus in the above document determines whether a question/answer generator generates a question to be transmitted to the user terminal, and whether the user's answer transmitted from the user terminal is an answer to the question or a question to the dialogue processing apparatus. A user answer analysis unit that classifies and determines whether the user's answer is the same as the existing user's answer, a new answer/reaction generator that determines whether the user's answer can be classified as a new answer based on the knowledge base, and Based on the determination result of the user answer analysis unit and the determination result of the new answer/response generation unit, a user response response unit generating a question or answer to be transmitted to the user terminal and providing the result to the question/answer generation unit do.

이에 본 발명은 보다 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안하려고 한다.Accordingly, the present invention intends to propose an artificial intelligence-based communication system using more enhanced time information.

특허등록공보 제10-2030803호Patent Registration Publication No. 10-2030803

본 발명의 일 실시예는 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.An object of one embodiment of the present invention is to provide an artificial intelligence-based communication system using time information.

또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.In addition, an object of one embodiment of the present invention is to provide an artificial intelligence-based communication system that is set in consideration of a tendency that a user may have in the future.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템에 있어서, 사용자의 사용자 단말, 및 상기 사용자 단말과 통신을 수행하고 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버를 포함하고, 상기 관리 서버는 상기 사용자의 개인 정보를 상기 사용자 단말을 통하여 획득하고, 상기 사용자의 개인 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하고, 상기 학습된 인공지능망 모델에 기반하여 챗봇을 생성하고, 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어하는 것을 특징으로 하는 커뮤니케이션 시스템을 제안한다.An embodiment of the present invention is an artificial intelligence-based communication system, wherein at least one of a user's user terminal and software, programs, websites, and mobile apps for performing communication with the user terminal and using a communication platform is provided. and a management server that operates, wherein the management server acquires the user's personal information through the user terminal, uses the user's personal information as learning data, and controls the artificial intelligence network model to be learned, and controls the learned artificial intelligence network model to be learned. We propose a communication system characterized by generating a chatbot based on an intelligent network model and controlling the chatbot to output through the user terminal.

상기 관리 서버는 상기 사용자의 희망 시간 정보를 상기 사용자 단말을 통하여 획득하고, 상기 희망 시간 정보에 기반하여 상기 챗봇의 외형을 설정하고, 상기 설정되는 외형을 갖춘 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어할 수 있다.The management server acquires the user's desired time information through the user terminal, sets the appearance of the chatbot based on the desired time information, and outputs the chatbot having the set appearance through the user terminal You can control it.

상기 관리 서버는 상기 개인 정보 및 상기 희망 시간 정보에 기반하여 응답 정보를 생성하고, 상기 설정되는 외형을 갖춘 상기 챗봇이 상기 응답 정보를 상기 사용자 단말에서 출력하도록 제어할 수 있다.The management server may generate response information based on the personal information and the desired time information, and control the chatbot having the set appearance to output the response information to the user terminal.

상기 사용자 단말은 상기 사용자의 외형을 촬영하여 이미지 정보를 생성하여 상기 관리 서버에게 전달하고, 상기 관리 서버는 상기 이미지 정보에 기반하여 상기 챗봇의 외형을 설정하는 것을 특징으로 할 수 있다.The user terminal may photograph an appearance of the user, generate image information, and transmit the image information to the management server, and the management server sets the appearance of the chatbot based on the image information.

상기 인공지능망 모델은 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 중 적어도 어느 하나를 포함할 수 있다.The artificial intelligence network model may include at least one of a recurrent neural network (RNN), a deep neural network (DNN), and a dynamic recurrent neural network (DRNN).

이와 같이 본 발명의 일 실시예는 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안할 수 있다.As such, an embodiment of the present invention may propose an artificial intelligence-based communication system using enhanced time information.

또한 본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템은 사용자의 개인 정보를 학습하기에 상기 사용자에게 최적화된 커뮤니케이션을 상기 사용자에게 제공할 수 있다.In addition, according to an embodiment of the present invention, an artificial intelligence-based communication system can provide the user with communication optimized for the user by learning the user's personal information.

또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 사용자에게 제공할 수 있다. 이를 통해 사용자는 미래의 자신과 대화를 하는 듯한 만족감을 느낄 수 있다는 측면에서 심리 치료 목적 등에서 유의미하다고 볼 수 있다.In addition, an embodiment of the present invention may provide a user with an artificial intelligence-based communication system that is set in consideration of a tendency that the user may have in the future. Through this, the user can feel the satisfaction of having a conversation with the future self, which is meaningful for the purpose of psychotherapy.

또한 본 발명의 일 실시예는 사용자의 과거 채팅 기록에 기반하여 상기 사용자가 과거에는 어떠한 결정을 하였을지에 대한 문답을 가능케 한다는 점에서도, 사용자가 참조할 수 있는 정보를 추가적으로 제공한다는 측면에서 유의미하다고 볼 수 있다.In addition, one embodiment of the present invention is meaningful in terms of providing additional information that the user can refer to in that it enables questions and answers about what decisions the user made in the past based on the user's past chatting records. can

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
Also other aspects as described above, features and benefits of certain preferred embodiments of the present invention will become more apparent from the following description taken in conjunction with the accompanying drawings.
1 is a diagram showing how an artificial intelligence-based communication system is implemented according to an embodiment of the present invention.
2 is a block diagram illustrating an artificial intelligence-based communication system according to an embodiment of the present invention.
3 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
4 is a flowchart illustrating an operation method of an artificial intelligence-based communication system according to an embodiment of the present invention.
5 is a flowchart illustrating an operating method of an artificial intelligence-based communication system according to an embodiment of the present invention.
6 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
It should be noted that throughout the drawings, like reference numbers are used to show the same or similar elements, features and structures.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring it by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, in the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. In each figure, the same reference number is assigned to the same or corresponding component.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be understood that each block of the process flow chart diagrams and combinations of the flow chart diagrams can be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates means to perform functions. These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory The instructions stored in are also capable of producing an article of manufacture containing instruction means that perform the functions described in the flowchart block(s). The computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment. Instructions for performing processing equipment may also provide steps for performing the functions described in the flowchart block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.

이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.At this time, the term '~unit' used in this embodiment means software or a hardware component such as a field-programmable gate array (FPGA) or application specific integrated circuit (ASIC), and what role does '~unit' have? perform them However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.In describing the embodiments of the present invention in detail, an example of a specific system will be the main target, but the main subject matter to be claimed in this specification extends the scope disclosed herein to other communication systems and services having a similar technical background. It can be applied within a range that does not deviate greatly, and this will be possible with the judgment of those skilled in the art.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.1 is a diagram showing how an artificial intelligence-based communication system is implemented according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 사용자 단말(120)을 통하여 사용자에게 제공될 수 있다. 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 인공지능 기반의 챗봇(10)(또는 채터봇)을 통하여 사용자에게 제공될 수 있다. 여기서 챗봇(10)(또는 채터봇)은 음성이나 문자를 통한 인간과의 대화를 통해서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램을 나타낼 수 있다.Referring to FIG. 1 , the artificial intelligence-based communication system of the present invention may be provided to a user through a user terminal 120 . The artificial intelligence-based communication system of the present invention may be provided to the user through the artificial intelligence-based chatbot 10 (or chatbot). Here, the chatbot 10 (or chatterbot) may represent a computer program designed to perform a specific task through a conversation with a human through voice or text.

또한 상기 챗봇(10)은 음성인식 비서를 폼(또는 형성, 생성)하는 형태로 구현될 수도 있다. 또한 상기 챗봇(10)은 음성인식 기술에 기반하여, 사용자가 말한 내용을 컴퓨터가 이해할 수 있도록 텍스트로 변환하고, 이를 질의로 간주하여 상기 질의에 대한 응답을 생성하고, 상기 생성되는 응답을 TTS(Text to Speech) 및/또는 음성 합성 시스템을 이용하여 음성(예; 기계음성)으로 바꾸는 과정을 통하여 구현될 수도 있다. 한편, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보에 TTS 및/또는 음성 합성 시스템을 적용하여 사용자에게 제공할 수도 있다.In addition, the chatbot 10 may be implemented in a form (or form, create) a voice recognition assistant. In addition, the chatbot 10 converts the contents spoken by the user into text so that the computer can understand it based on voice recognition technology, considers it as a query, generates a response to the query, and converts the generated response into text (TTS) Text to Speech) and/or a voice synthesizing system may be implemented through a process of converting into voice (eg, mechanical voice). Meanwhile, the output and/or response information generated by the management server 110 is information corresponding to text, and after the information is transmitted to the user terminal 120, the information corresponding to the text in the user terminal 120 It may be provided to the user by applying a TTS and/or a voice synthesis system to it.

일 예로, 본 발명의 챗봇(10) 및/또는 커뮤니케이션 시스템(100)은 사전에 정해진 키워드(즉, 시작 명령어(start command))를 기기를 활성화 하기 위한 활성 트리거에 기반하여 동작을 수행하거나 소정의 동작을 시작할 수 있다. 상기 시작 명령어는, 예를 들면, 사용자 단말(120)에 상응하는 기기명, 상기 챗봇(10)에 설정되거나 할당된 명칭 등을 포함할 수 있다. 이와 같이 본 발명의 챗봇(10)은 키워드 호출을 기반으로 음성인식 기능을 수행할 수 있으며, 일 예로, 사용자가 챗봇(10)의 이름을 부르면 사용자 단말(120) 및/또는 본 발명의 커뮤니케이션 플랫폼을 제공하는 소프트웨어(및/또는 프로그램) 및/또는 웹사이트(및/또는 모바일앱)를 활성화 하여 사용자의 음성 명령을 수집하기 위한 대기 모드로 진입할 수 있다.For example, the chatbot 10 and/or communication system 100 of the present invention performs an operation based on an activation trigger for activating a device with a predetermined keyword (ie, a start command) or a predetermined action can begin. The start command may include, for example, a device name corresponding to the user terminal 120, a name set or assigned to the chatbot 10, and the like. In this way, the chatbot 10 of the present invention can perform a voice recognition function based on a keyword call. For example, when a user calls the name of the chatbot 10, the user terminal 120 and / or the communication platform of the present invention By activating software (and/or program) and/or website (and/or mobile app) providing

도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.2 is a block diagram illustrating an artificial intelligence-based communication system according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 시스템(100)은 관리 서버(110) 및 사용자 단말(120)을 포함할 수 있다.Referring to FIG. 2 , the system 100 of the present invention may include a management server 110 and a user terminal 120 .

관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 및/또는 저장 모듈(250)을 포함할 수 있으며, 상기 관리 서버(110)는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하거나 지원하는 웹사이트 및/또는 모바일앱을 운용하는 서버일 수 있다. 또한 사용자 단말(120)은 제2 제어 모듈(260), 제2 통신 모듈(270), 제2 입력 모듈(280, 미도시), 및/또는 제2 출력 모듈(290, 미도시)을 포함할 수 있다. 또한 상기 사용자 단말(120)은 스마트폰(smart phone), 휴대폰, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등과 같은 사용자의 모바일 기기일 수도 있다. 또한 상기 사용자 단말(120)은 개인용 PC, 데스크탑일 수도 있다.The management server 110 may include a first control module 210, a first communication module 220, a first input module 230, a first output module 240, and/or a storage module 250. And, the management server 110 may be a server that operates a website and/or mobile app that provides or supports the artificial intelligence-based communication platform of the present invention. In addition, the user terminal 120 may include a second control module 260, a second communication module 270, a second input module 280 (not shown), and/or a second output module 290 (not shown). can In addition, the user terminal 120 may be a user's mobile device such as a smart phone, a mobile phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, and the like. Also, the user terminal 120 may be a personal PC or desktop.

제어 모듈(210, 260)은 본 발명의 일 실시예에 따른 동작/단계/과정을 구현할 수 있도록 관리 서버(110) 및/또는 사용자 단말(120)을 직/간접적으로 제어할 수 있다. 또한 제어 모듈(210, 260)은 적어도 하나의 프로세서를 포함할 수 있으며, 프로세서는 적어도 하나의 중앙 처리 유닛(CPU) 및/또는 적어도 하나의 그래픽 처리 디바이스(GPU)를 포함할 수 있다.The control modules 210 and 260 may directly/indirectly control the management server 110 and/or the user terminal 120 to implement an operation/step/process according to an embodiment of the present invention. Also, the control modules 210 and 260 may include at least one processor, and the processor may include at least one central processing unit (CPU) and/or at least one graphic processing unit (GPU).

또한 제어 모듈(210, 260)은 API(Application Programming Interface), IoT(Internet of Things), IIoT(Industrial Internet of Things), ICT(Information & Communication Technology) 기술에 기반하여 제어 정보(예; 명령어) 등을 생성하거나 및/또는 관리할 수 있다.In addition, the control module (210, 260) is based on API (Application Programming Interface), IoT (Internet of Things), IIoT (Industrial Internet of Things), ICT (Information & Communication Technology) technology based on control information (eg, commands), etc. can create and/or manage.

통신 모듈(220, 270)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시) 등과 각종 데이터, 신호, 정보를 송수신할 수 있다. 또한, 통신 모듈(220, 270)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 또한, 통신 모듈(220, 270)은 제1 네트워크(예: 블루투스, WiFi direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.The communication modules 220 and 270 may transmit and receive various data, signals, and information to the management server 110, the user terminal 120, and/or other network entities (not shown). In addition, the communication modules 220 and 270 may be a wireless communication module (eg, a cellular communication module, a short-distance wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (eg, a local area network (LAN) communication module). module, or a power line communication module). In addition, the communication modules 220 and 270 may be a first network (eg, a short-distance communication network such as Bluetooth, WiFi direct, or Infrared Data Association (IrDA)) or a second network (eg, a cellular network, the Internet, or a computer network (eg, a local communication network)). It may communicate with an external electronic device through a telecommunications network (such as a LAN or WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).

입력 모듈(230, 280)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시)의 구성요소(예: 제어 모듈(210) 등)에 사용될 명령 또는 데이터를 관리 서버(110) 및/또는 사용자 단말(120)의 외부(예: 사용자(예; 제1 사용자, 제2 사용자 등), 관리 서버(110)의 관리자 등)로부터 수신할 수 있다. 또한, 입력 모듈(230, 280)은 관리 서버(110) 및/또는 사용자 단말(120)에 설치된 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈, 음성인식센서, 마이크, 마우스, 또는 키보드 등을 포함할 수 있다. 여기서 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈은 감압식 및/또는 정전식 방식을 통하여 사용자의 신체(예; 손가락)를 통한 터치를 인식할 수 있다.The input modules 230 and 280 manage commands or data to be used for components (eg, control module 210, etc.) of the management server 110, the user terminal 120, and/or other network entities (not shown). It can be received from the outside of the server 110 and/or the user terminal 120 (eg, a user (eg, a first user, a second user, etc.), a manager of the management server 110, etc.). In addition, the input modules 230 and 280 include a touch recognition capable display installed in the management server 110 and/or the user terminal 120, a touch pad, a button type recognition module, a voice recognition sensor, a microphone, a mouse, or a keyboard. can do. Here, the touch-recognizable display, touchpad, and button-type recognition module may recognize a touch through a user's body (eg, a finger) through a pressure-sensitive and/or capacitive method.

출력 모듈(240, 290)은 관리 서버(110) 및/또는 사용자 단말(120)의 제어 모듈(210, 260)에 의해 생성되거나 통신 모듈(220, 270)을 통하여 획득된 신호(예; 음성 신호), 정보, 데이터, 이미지, 및/또는 각종 객체(object) 등을 표시하는 모듈이다. 예를 들면, 출력 모듈(240, 290)은 디스플레이, 스크린, 표시부(displaying unit), 스피커 및/또는 발광장치(예; LED 램프) 등을 포함할 수 있다.The output modules 240 and 290 are generated by the management server 110 and/or the control module 210 and 260 of the user terminal 120 or acquired through the communication modules 220 and 270 (eg, voice signals). ), a module that displays information, data, images, and/or various objects. For example, the output modules 240 and 290 may include a display, a screen, a displaying unit, a speaker, and/or a light emitting device (eg, an LED lamp).

저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 또한, 저장 모듈은 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.The storage module 250 stores data such as basic programs, application programs, and setting information for the operation of the management server 110 and/or the user terminal 120 . In addition, the storage module is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), Magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), PROM (Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read -Only Memory) may include at least one storage medium.

또한 저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)을 사용하는 고객(또는 제1 사용자)의 개인 정보, 관리자(또는 제2 사용자)의 개인 정보 등을 저장할 수 있다. 여기서 개인 정보는 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있다. 또한, 제어 모듈(210, 260)은 상기 저장 모듈(250)에 저장된 각종 이미지, 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the storage module 250 may store personal information of a customer (or first user) using the management server 110 and/or user terminal 120, personal information of a manager (or second user), and the like. Here, the personal information includes name, identifier (ID), password, road name address, phone number, mobile phone number, e-mail address, and/or a reward (eg, points, etc.) generated by the management server 110. information may be included. In addition, the control modules 210 and 260 may perform various operations using various images, programs, contents, and data stored in the storage module 250 .

또한 저장 모듈(250)은 사용자가 본 발명의 커뮤니케이션 플랫폼을 통하여 수행한 과거의 채팅 기록, 커뮤니케이션 기록 및/또는 소정의 질문에 대응하여 사용자가 선택한 응답 정보(또는 소정의 입력에 대응하여 사용자가 선택한 출력)을 더 저장할 수도 있다. 이 정보들은 인공지능 모듈(310)에게 전달되어, 인공지능망 모델을 학습(learning)시키기 위한 학습 데이터(learning data)로써 사용될 수 있다.In addition, the storage module 250 stores past chat records, communication records, and/or response information selected by the user in response to a predetermined question (or selected by the user in response to a predetermined input) through the communication platform of the present invention. output) can be stored further. This information is delivered to the artificial intelligence module 310 and can be used as learning data for learning the artificial intelligence network model.

도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.3 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.

도 3을 참조하면, 관리 서버(110)는 관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250), 및/또는 인공지능 모듈(310)을 포함할 수 있으며, 상기 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250)에 대한 설명은 도 2에서 전술된 내용을 참조한다.Referring to FIG. 3, the management server 110 includes a first control module 210, a first communication module 220, a first input module 230, a first output module 240, It may include a storage module 250 and/or an artificial intelligence module 310, wherein the first control module 210, the first communication module 220, the first input module 230, and the first output module 240 and the description of the storage module 250 refer to the above description in FIG. 2 .

인공지능 모듈(310)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성 처리 모듈; 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전 처리 모듈; 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화 처리 모듈; 수신된 음성에 알맞은 기능을 추천하기 위한 추천 모듈; 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 NMT(Neural Machine Translation, 인공신경망 기반 기계 번역) 모듈; 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.The artificial intelligence module 310 includes a voice processing module for recognizing the received voice and synthesizing a voice to be output; A vision processing module for analyzing and processing the received image or video; a dialog processing module for determining an appropriate dialog to output an appropriate voice according to the received voice; a recommendation module for recommending a function suitable for the received voice; NMT (Neural Machine Translation) module that supports artificial intelligence to translate language in sentence units through data learning; It may include various modules for providing voice-based services, such as the like.

인공지능 모듈(310)은 인공지능망 모델에 기반하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 데이터베이스에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 관리 서버(110)의 데이터베이스(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망을 학습시키는데, 구체적으로는 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습(learning)을 수행할 수 있다. 또한 결국 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.The artificial intelligence module 310 may generate various outputs (eg, first output) and/or various information (eg, first response information) described in the present invention based on the artificial intelligence network model. In addition, the artificial intelligence module 310 uses machine learning on big data stored in a database to perform various outputs (eg, first output) and/or various information (eg, first output) described in the present invention. first response information) may be generated. In addition, the artificial intelligence module 310 uses the big data stored in the database 250 of the management server 110 as an input variable to learn the artificial intelligence network. Specifically, a deep learning technique, which is a field of machine learning Learning can be performed so that an accurate correlation can be derived using In addition, eventually, the artificial intelligence module 310 may calculate weights of a plurality of inputs in the function through deep learning through learning. In addition, various models such as RNN (Recurrent Neural Network), DNN (Deep Neural Network), and DRNN (Dynamic Recurrent Neural Network) can be used as artificial intelligence network models used for such learning.

여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.Here, RNN is a deep learning technique that simultaneously considers current data and past data, and recurrent neural network (RNN) represents a neural network in which connections between units constituting an artificial neural network constitute a directed cycle. Furthermore, various methods can be used for the structure capable of configuring the recurrent neural network (RNN), for example, a Fully Recurrent Network, a Hopfield Network, an Elman Network, ESN (Echo state network), long short term memory network (LSTM), bi-directional RNN, continuous-time RNN (CTRNN), hierarchical RNN, and quadratic RNN are representative examples. In addition, as a method for learning a recurrent neural network (RNN), methods such as gradient descent, Hessian Free Optimization, and Global Optimization Method may be used.

또한 인공지능 모듈(310)은 사용자의 발화에 따라 수신되는 입력(예; 음성 입력)(예; "인테리어 변경", "코스피 구매" 등)를 직접 인식 및 분석하여 출력(예; 음성 출력)할 수 있다. 또한 관리 서버(110)(및/또는 제어 모듈(210))가 사용자의 제1 입력(예; 음성 입력)을 텍스트에 상응하는 제2 입력(예; "인테리어 변경", "코스피 구매" 등)으로 변환하여 상기 인공지능 모듈(310)에게 전달하면, 상기 인공지능 모듈(310)은 상기 제2 입력에 상응하는 제1 출력(예; 텍스트 정보)을 생성하여 상기 제어 모듈(210)에게 전달하면, 상기 제어 모듈(210)은 상기 제1 출력에 기반하여 제2 출력(예; 음성 출력)을 생성하여 상기 사용자 단말(120)에게 전달할 수도 있다.In addition, the artificial intelligence module 310 directly recognizes and analyzes input (eg, voice input) received according to the user's speech (eg, "interior change", "KOSPI purchase", etc.) and outputs (eg, voice output). can In addition, the management server 110 (and/or the control module 210) converts the user's first input (eg, voice input) into a second input corresponding to text (eg, "interior change", "KOSPI purchase", etc.) When converted to and transmitted to the artificial intelligence module 310, the artificial intelligence module 310 generates a first output (eg text information) corresponding to the second input and transmits it to the control module 210. , The control module 210 may generate a second output (eg, audio output) based on the first output and transmit it to the user terminal 120 .

일 예로, 사용자가 "(집) 인테리어 변경"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 추천 인테리어에 대한 정보를 획득하고, 획득한 정보를 "추천하는 인테리어는..."와 같이 음성으로 출력할 수 있다. 또한 후술하는 내용에 기반하여 희망 시간 정보가 '20년 뒤'로 설정된 경우에는 '20년 뒤'의 사용자가 판단하였을 결과를 추정하여, 그 추정 결과를 "아직 인테리어를 변경하기에는 빠릅니다..."와 같은 음성으로 출력할 수도 있으며, 이에 대한 구체적인 동작은 후술하도록 한다.For example, when a user utters “(house) interior change”, the user terminal 120 obtains it through a microphone, which is an input module 380, and transmits it to the management server 120 so that the artificial intelligence module It can be input to 310 as an input. At this time, the artificial intelligence module 310 may obtain information on recommended interiors from an external server through an external network based on the input, and output the obtained information in voice as "Recommended interiors are..." . In addition, based on the information described below, when the desired time information is set to '20 years later', the result of the judgment of the user '20 years later' is estimated, and the estimated result is "It is still too early to change the interior..." It can also be output with a voice such as, and a specific operation for this will be described later.

다른 예로, 사용자가 "코스피 구매"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 최근 코스피 동향에 대한 정보(예; 코스피 지수에 대한 통계, 기사, 정보 등)를 획득하고, 획득한 정보에 기반하여 "코스피 구매는 하지 말아요..."와 같이 음성으로 출력할 수 있다.As another example, when the user utters the content of "KOSPI purchase", the user terminal 120 acquires it through the microphone of the input module 380, and transfers it to the management server 120 so that the artificial intelligence module 310 can be entered as an input. At this time, the artificial intelligence module 310 obtains information on the recent KOSPI trend (eg, statistics, articles, information, etc. on the KOSPI index) from an external server through an external network based on the above input, and based on the acquired information It can be output by voice, such as "Don't buy KOSPI...".

도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.4 is a flowchart illustrating an operation method of an artificial intelligence-based communication system according to an embodiment of the present invention.

도 4를 참조하면, 본 발명은 관리 서버가 사용자의 제1 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S410).Referring to FIG. 4 , the present invention may include obtaining, by a management server, first information of a user through a user terminal (S410).

사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제1 정보를 입력할 수 있다. 상기 제1 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.The user receives the first information through the program (and/or software) and/or website (and/or mobile app) of the present invention that provides the artificial intelligence-based communication platform of the present invention executed through the user terminal 120. can be entered. The first information may be transmitted from the user terminal 120 to the management server 110 and recorded in the management server 110 and/or the storage module 250 .

제1 정보는 상기 사용자의 개인 정보를 포함할 수 있으며, 여기서 개인 정보는 사용자의 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있으며, 상기 사용자가 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 결제한 금액 및/또는 내역(결제내역)에 대한 정보, 상기 사용자가 지급받거나 사용한 리워드(포인트)에 대한 정보를 더 포함할 수도 있다.The first information may include the user's personal information, where the personal information is the user's name, ID (identifier), password, road name address, phone number, mobile phone number, e-mail address, and/or a management server ( 110) may include information indicating a reward (eg, points, etc.) generated by the program (and/or software) and/or website (and/or mobile app) of the present invention by the user. ), information on the payment amount and/or details (payment details), and information on rewards (points) paid or used by the user may be further included.

또한 상기 사용자의 개인 정보는 상기 사용자의 업종을 나타내는 정보를 더 포함할 수도 있다. 또한 사용자의 업종을 나타내는 정보는 '제1 직업 정보' 및 '제2 직업 정보'를 포함할 수 있으며, 상기 제2 직업 정보는 상기 제1 직업 정보가 나타내는 업종의 하위 업종을 나타내는 정보로서, 직업을 나타내는 정보를 포함할 수 있다.In addition, the user's personal information may further include information indicating the user's type of business. In addition, the information indicating the user's type of business may include 'first job information' and 'second job information', and the second job information is information indicating a sub-type of the type of business indicated by the first job information, may include information indicating

제1 직업 정보는 직업과 관련되는 상위 개념의 카테고리를 나타낼 수 있으며, 개발, 경영/비즈니스, 마케팅/광고, 디자인, 영업, 고객서비스/리테일(소매, 유통), 인사/교육, 미디어, 엔지니어링/설계, 투자/분석/부동산, 제조/생산, 게임 제작, 물류/무역, F&B(Food and Beverage), 법률/법집행기관, 의료/제약/바이오, 정부/비영리, 건설/시설을 포함할 수 있다.The first job information may represent categories of higher concepts related to jobs, such as development, management/business, marketing/advertisement, design, sales, customer service/retail (retail, distribution), personnel/education, media, engineering/ May include Design, Investment/Analysis/Real Estate, Manufacturing/Production, Game Production, Logistics/Trade, Food and Beverage (F&B), Legal/Law Enforcement, Medical/Pharma/Bio, Government/Non-Profit, Construction/Facilities .

제2 직업 정보는 직업과 관련되는 하위 개념의 카테고리를 나타낼 수 있으며, 제2 직업 정보는 상기 제1 직업 정보에 매칭될 수 있다.The second job information may indicate a category of a sub-concept related to a job, and the second job information may be matched with the first job information.

제2 직업 정보는, 예를 들면, 개발(제1 직업 정보)과 관련되거나 매칭되는 웹 개발자, 서버 개발자, 프론트엔드 개발자, 자바 개발자, 안드로이드 개발자, iOS 개발자, 파이썬 개발자, DevOps/시스템 관리자, 데이터 엔지니어, Node.js 개발자, 시스템/네트워크 관리자, C/C++ 개발자, 개발 매니저, 머신러닝 엔지니어, 데이터 사이언티스트 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 경영/비즈니스(제1 직업 정보)와 관련되거나 매칭되는 서비스 기획자, 사업개발/기획자, 프로젝트 매니저, 전략 기획자, 운영 매니저, 데이터 분석가, 회계원/경리 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 마케팅/광고(제1 직업 정보)와 관련되거나 매칭되는 디지털 마케터, 마케터, 마케팅 전략 기획자, 콘텐츠 마케터, 브랜드 마케터, 소셜 마케팅, 광고 기획자(AE) 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 디자인(제1 직업 정보)과 관련되거나 매칭되는 UX 디자이너, UI/GUI 디자이너, 웹 디자이너, 그래픽 디자이너, 모바일 디자이너, 영상/모션 디자이너, 제품 디자이너 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 영업(제1 직업 정보)과 관련되거나 매칭되는 기업영업 담당자, 영업 관리자, 기술영업 전문가, 외부영업 전문가, 주요고객사 담당자, 솔루션 컨설턴트, 고객성공매니저 등을 포함할 수 있다.The second job information is, for example, web developer, server developer, front-end developer, Java developer, Android developer, iOS developer, Python developer, DevOps/system manager, data related to or matching development (first job information). This can include engineers, Node.js developers, system/network administrators, C/C++ developers, development managers, machine learning engineers, data scientists, and more. In addition, the second job information is, for example, service planner, business developer / planner, project manager, strategic planner, operation manager, data analyst, accountant / bookkeeper, etc. related to or matched with management / business (first job information). can include In addition, the second job information is, for example, digital marketers, marketers, marketing strategy planners, content marketers, brand marketers, social marketing, advertising planners (AE) that are related to or matched with marketing/advertising (first job information). can include In addition, the second job information includes, for example, UX designer, UI / GUI designer, web designer, graphic designer, mobile designer, video / motion designer, product designer, etc. related to or matching design (first job information) can do. In addition, the second job information includes, for example, a corporate sales manager, a sales manager, a technical sales specialist, an external sales specialist, a major customer company manager, a solution consultant, and a customer success manager that are related to or matched with sales (first job information). can include

또한 제2 직업 정보는, 예를 들면, 고객서비스/리테일(제1 직업 정보)과 관련되거나 매칭되는 CS 매니저, MD, CS 어드바이저, 리테일 MD, CRM 전문가, 패션 MD, 매장점원 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 인사/교육(제1 직업 정보)과 관련되거나 매칭되는 인사 담당자, 리크루터, 조직 관리 전문가, 인사평가 전문가, HRD/교육 전문가, 급여/보상 전문가, HRBP 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 미디어(제1 직업 정보)와 관련되거나 매칭되는 콘텐츠 크리에이터, 영상 편집가, 프로듀서, 에디터, 비디오 제작, 작가, 음향 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 엔지니어링/설계(제1 직업 정보)와 관련되거나 매칭되는 자동차 공학자, 기계 엔지니어, 전기 엔지니어, 제품 엔지니어, 전기기계 공학자, 제어 엔지니어, 전자 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 투자/분석/부동산(제1 직업 정보)과 관련되거나 매칭되는 회계 담당자, 재무 분석가, 회계사/회계원, 애널리스트, IR, CPA, 준법감시인 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 제조/생산(제1 직업 정보)과 관련되거나 매칭되는 품질 관리자, 생산 관리자, 제조 엔지니어, 테스트 엔지니어, 공정 관리자, 기계제작 기술자, 기계/설비조작, 안전 관리자, 화학자, 자재 관리자, 생산직 종사자 등을 포함할 수 있다.In addition, the second job information may include, for example, CS manager, MD, CS advisor, retail MD, CRM specialist, fashion MD, store clerk, etc. related to or matched with customer service/retail (first job information). there is. In addition, the second job information is, for example, a human resource manager, recruiter, organization management expert, personnel evaluation expert, HRD / education expert, salary / compensation expert, HRBP, etc. related to or matched with human resources / education (first job information). can include In addition, the second job information may include, for example, content creator, video editor, producer, editor, video producer, writer, sound engineer, etc. related to or matched with media (first job information). In addition, the second job information may include, for example, an automotive engineer, a mechanical engineer, an electrical engineer, a product engineer, an electrical mechanical engineer, a control engineer, an electronic engineer, and the like that are related to or matched with engineering/design (first job information). can In addition, the second job information may include, for example, an accountant related to or matched with investment/analysis/real estate (first job information), a financial analyst, an accountant/accountant, an analyst, an IR, a CPA, a compliance officer, and the like. can In addition, the second job information is, for example, quality manager, production manager, manufacturing engineer, test engineer, process manager, machine manufacturing technician, machine / facility operation, safety related to or matching manufacturing / production (first job information) This may include managers, chemists, materials managers, and production workers.

또한 제2 직업 정보는, 예를 들면, 게임제작(제1 직업 정보)과 관련되거나 매칭되는 게임 클라이언트 개발자, 게임 기획자, 모바일 게임 개발자, 유니티 개발자, 게임 서버 개발자, 게임 아티스트, 게임 그래픽 디자이너, 게임 운영자(GM), 언리얼 개발자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 물류/무역(제1 직업 정보)과 관련되거나 매칭되는 물류 담당자, 물류 분석가, 운송 관리자, 배송 담당자, 웨어하우스 전문가, 선적/발송 사무원, 운행 관리원, 화물트럭 운전기사, 무역사무 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, F&B(제1 직업 정보)와 관련되거나 매칭되는 요리사, 식품 MD, 외식업 종사자, 외식업 메뉴 개발자, 영양사, 바텐더, 레스토랑 관리자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 법률/법집행기관(제1 직업 정보)과 관련되거나 매칭되는 법무담당자, 법무 자문위원, 변호사, 변리사, 명세사 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 의료/제약/바이오(제1 직업 정보)과 관련되거나 매칭되는 연구원, 생명공학 연구원, 임상시험 연구원, 증례 관리자, 수의사, 약학 분석 화학자, 임상시험 간호사, 미생물학자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 정부/비영리(제1 직업 정보)와 관련되거나 매칭되는 정보 분석가, 카운셀러, 공무원, 직업군인, 환경 전문가, 지역 전문가, 자원봉사자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 건설/시설(제1 직업 정보)과 관련되거나 매칭되는 유지보수 관리자, 견적 기술자, 정비공, 관리인 등을 포함할 수 있다.In addition, the second job information is, for example, a game client developer, game planner, mobile game developer, unity developer, game server developer, game artist, game graphic designer, game related to or matched with game production (first job information). May include operators (GM), Unreal developers, and the like. In addition, the second job information is, for example, logistics/trade (first job information) related or matched logistics manager, logistics analyst, transport manager, delivery manager, warehouse specialist, shipping/delivery clerk, transportation manager, cargo This may include truck driver, trade office, etc. Also, the second job information may include, for example, a chef, a food MD, a restaurant worker, a food service menu developer, a nutritionist, a bartender, a restaurant manager, and the like that are related to or matched with F&B (first job information). In addition, the second job information may include, for example, a legal person in charge or matched with a law/law enforcement agency (first job information), a legal advisor, a lawyer, a patent attorney, a specifier, and the like. In addition, the second job information is, for example, a researcher related to or matching medical/pharmaceutical/bio (first job information), a biotechnology researcher, a clinical trial researcher, a case manager, a veterinarian, a pharmaceutical analytical chemist, a clinical trial nurse, microbiologists, and the like. In addition, the second job information may include, for example, information analysts, counselors, civil servants, occupational soldiers, environmental experts, regional experts, volunteers, etc. related to or matched with government/non-profit (first job information). Also, the second job information may include, for example, a maintenance manager, a estimator, a mechanic, a manager, and the like that are related to or matched with construction/facility (first job information).

또한 상기 제1 정보는 '제3 직업 정보'와 '제4 직업 정보'를 더 포함할 수 있으며, 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사 등을 직접적으로 나타내는 정보를 포함할 수 있다. 또한 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.In addition, the first information may further include 'third job information' and 'fourth job information', and the third job information directly identifies the place of work, office and/or company where the user is (currently) working. may contain information indicated by In addition, the third job information may include information indicating an upper category and/or a lower category corresponding to the place of work, office, and/or company where the user (currently) works. On the other hand, for specific details of the information indicating the upper category and/or the information indicating the lower category, refer to the above-described information related to the first job information and/or the second job information.

또한 상기 제4 직업 정보는 상기 사용자가 복수의 근무지(또는 사무소 또는 회사)에서 일하거나, 복수의 근무지(또는 사무소 또는 회사)에서 일했거나, 및/또는 이직을 한 경력이 있는 경우, 사용자와 관련되는 복수의 근무지, 사무소 및/또는 회사에 대한 정보를 포함할 수 있다. 일 예로, 상기 제4 직업 정보는 사용자가 종사하였던 복수의 근무지(또는 사무소 또는 회사) 각각에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.In addition, the fourth job information is related to the user if the user has worked at multiple workplaces (or offices or companies), worked at multiple workplaces (or offices or companies), and/or has a career of changing jobs. It may include information about a plurality of workplaces, offices and/or companies. For example, the fourth occupational information may include information indicating an upper category of business and/or information indicating a lower category of business corresponding to a plurality of workplaces (or offices or companies) in which the user was engaged. On the other hand, for specific details of the information indicating the upper category and/or the information indicating the lower category, refer to the above-described information related to the first job information and/or the second job information.

이를 통해 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하여 학습된 인공지능망 모델은 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.Through this, the artificial intelligence network model learned using at least one of the first job information to the fourth job information as learning data outputs the same output that would have been selected by a person matching at least one of the first job information to the fourth job information ( and/or response information).

또한 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)는 상기 사용자의 제1 정보를 통하여 소정의 인증 절차가 완료된 경우에만 후술하는 S420 단계 내지 S440, 도 5의 흐름도에 기반하여 설명되는 동작들이 수행될 수 있다.In addition, the program (and/or software) and/or website (and/or mobile app) of the present invention performs steps S420 to S440 of FIG. 5 only when a predetermined authentication process is completed through the first information of the user. Operations described based on the flow chart may be performed.

일 예로, 상기 소정의 기준은 소정의 인증 절차를 포함할 수 있으며, 상기 소정의 인증 절차는 상기 사용자의 개인 정보에 기반하여 진행되는 본인 인증 프로세스를 포함할 수 있다.For example, the predetermined criterion may include a predetermined authentication procedure, and the predetermined authentication procedure may include a user authentication process based on personal information of the user.

그리고, 상기 방법은 제1 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하는 단계를 포함할 수 있다(S420).And, the method may include the step of controlling to learn the artificial intelligence network model by using the first information as learning data (S420).

관리 서버(110) 및/또는 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터(learning data)로 설정하고, 상기 설정된 학습 데이터를 이용하여 상기 인공지능 모듈(310)이 운용하는 인공지능망 모델을 학습시킬 수 있다. 다시 말해 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 이용하여 i) 인공지능망 모델을 학습시키거나 ii) 상기 인공지능망 모델을 업데이트하거나, 및/또는 iii) 상기 사용자에 맞춤화된 적응형 인공지능망 모델을 생성하도록 제어할 수 있다. 이러한 과정을 통해 학습된 인공지능망 모델은 사용자와 같은 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.The management server 110 and/or the artificial intelligence module 310 sets at least one of the user's personal information and the first job information to the fourth job information as learning data, and the set learning data It is possible to learn the artificial intelligence network model operated by the artificial intelligence module 310 by using. In other words, the artificial intelligence module 310 uses at least one of the user's personal information and the first to fourth job information to i) learn the artificial intelligence network model, ii) update the artificial intelligence network model, and/or iii) control to generate an adaptive artificial intelligence network model customized for the user. The artificial intelligence network model learned through this process can generate an output (and/or response information) that would have been selected by a person matching at least one of personal information such as the user and first job information to fourth job information. .

그리고, 상기 방법은 학습된 인공지능망 모델에 기반하여 사용자 맞춤의 챗봇을 생성하는 단계를 포함할 수 있다(S430).And, the method may include generating a user-customized chatbot based on the learned artificial intelligence network model (S430).

관리 서버(110)는 상기 학습된 인공지능망 모델의 출력을 텍스트, 음성 등으로 표시하거나, 표정 등으로 표현하는 챗봇을 생성할 수 있다.The management server 110 may generate a chatbot that displays the output of the learned artificial intelligence network model as text, voice, or the like, or expresses it as a facial expression.

일 예로, 상기 출력(및/또는 응답 정보)이 부정적인 내용을 포함하는 경우 상기 챗봇(10)은 부정적인 표정, 예를 들면, 우는 표정, 슬픈 표정, 화난 표정 등을 할 수 있으며, 다른 예로, 상기 출력(및/또는 응답 정보)이 긍정적인 내용을 포함하는 경우 상기 챗봇(10)은 긍정적인 표정, 예를 들면, 웃는 표정, 신난 표정 등을 할 수 있다.For example, when the output (and/or response information) includes negative content, the chatbot 10 may make a negative expression, for example, a crying expression, a sad expression, an angry expression, and the like. If the output (and/or response information) includes positive content, the chatbot 10 may make a positive expression, for example, a smiling expression or an excited expression.

또한 관리 서버(110)는, 예를 들면, 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 모델링, 랜더링, 캐릭터화된 2차원 및/또는 3차원 외형 이미지를 생성할 수 있으며, 상기 생성되는 2차원 및/또는 3차원 외형 이미지를 이용하여 상기 챗봇의 외형을 결정하거나 설정할 수 있다. 이에 대한 구체적인 동작은 카메라 모듈(620)을 참조하여 후술되는 부분을 참조한다.In addition, the management server 110, for example, models, renders, and characterizes 2D and/or 3D external images based on video and/or image information captured through a camera device of the user terminal 120. The external appearance of the chatbot may be determined or set using the generated 2D and/or 3D external image. A specific operation for this will be described later with reference to the camera module 620 .

그리고, 상기 방법은 사용자 맞춤의 챗봇을 이용하여 사용자에게 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S440).And, the method may include providing a communication platform and/or system to a user using a user-customized chatbot (S440).

예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제1 입력이 획득될 수 있다. 그리고 상기 제1 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제1 출력을 생성하면, 관리 서버(110)는 상기 제1 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제2 출력을 생성하고, 상기 챗봇을 통하여 상기 제2 출력이 출력되거나 표시되도록 제어할 수 있다.For example, a first input from a user may be obtained through the communication platform and/or system of the present invention. And, when the first input is transmitted to the learned artificial intelligence network model and the learned artificial intelligence network model generates a first output based on the input, the management server 110 generates the chatbot based on the first output. A second output that can be output through is generated, and the second output can be controlled to be output or displayed through the chatbot.

이와 같이 사용자의 개인 정보 등에 기반하여 학습된 인공지능망 모델 기반의 챗봇이 생성될 수 있으며, 이렇게 생성된 챗봇에 사용자의 입력(예; 질문)이 획득되면 상기 입력에 기반하여 소정의 출력(예; 응답, 대답)이 상기 챗봇을 통하여 사용자(및/또는 사용자 단말(120))에게 제공될 수 있다.In this way, a chatbot based on an artificial intelligence network model learned based on the user's personal information, etc. can be created, and when the user's input (eg, question) is acquired in the chatbot created in this way, a predetermined output (eg; Responses and answers) may be provided to the user (and/or the user terminal 120) through the chatbot.

한편, 상기 S410 내지 S440은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S410 내지 S440 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.Meanwhile, the S410 to S440 may be implemented sequentially, but the order may be changed and implemented, and only some of the S410 to S440 may be implemented in combination with other descriptions (methods) of the present invention.

도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an operating method of an artificial intelligence-based communication system according to an embodiment of the present invention.

도 5를 참조하면, 본 발명은 사용자의 희망 시간 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S510).Referring to FIG. 5 , the present invention may include acquiring desired time information of a user through a user terminal (S510).

사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제2 정보를 입력할 수 있다. 상기 제2 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.The user inputs the second information through the program (and/or software) and/or website (and/or mobile app) that provides the artificial intelligence-based communication platform of the present invention executed through the user terminal 120. can The second information may be transmitted from the user terminal 120 to the management server 110 and recorded in the management server 110 and/or the storage module 250 .

제2 정보는 사용자의 희망 시간 정보를 포함할 수 있으며, 여기서의 희망 시간 정보는 사용자에 의해 (임의로) 설정되는 시간일 수 있다. 상기 희망 시간 정보는, 일 예로, 현재 시간을 기준으로 미래를 나타내는 시간일 수 있다(예; '20XX년XX월XX일', 'XX년 후에' 등). 또한 상기 희망 시간 정보는, 다른 예로, 현재 시간을 기준으로 과거를 나타내는 시간일 수 있다(예; '19XX년XX월XX일', '20XX년XX월XX일', 'XX년 전에' 등).The second information may include user's desired time information, and the desired time information herein may be a time (arbitrarily) set by the user. The desired time information may be, for example, a time representing the future based on the current time (eg, '20XX year XX month XX day', 'XX years later', etc.). In addition, the desired time information, as another example, may be a time representing the past based on the current time (e.g., 'XX day, XX month, 19XX', 'XX day, XX month, 20XX', 'XX years ago', etc.) .

또한 상기 제2 정보는 희망 나이 정보를 포함할 수도 있으며, 여기서의 희망 나이 정보는 사용자에 의해 (임의로) 설정되는 나이일 수 있다. 일 예로, 상기 희망 나이 정보는 'XX살(예; 16살, 56살 등)', 'XX세(예; 25세, 73세 등)', 'XX대(예; 10대, 20대 등)'와 같이 설정될 수도 있다.Also, the second information may include desired age information, and the desired age information herein may be an age set (arbitrarily) by a user. For example, the desired age information is 'XX years old (eg 16 years old, 56 years old, etc.)', 'XX years old (eg 25 years old, 73 years old, etc.)', 'XX generations (eg 10 years old, 20 years old, etc.)' )'.

그리고, 상기 방법은 희망 시간 정보에 기반하여 챗봇의 외형을 설정하는 단계를 포함할 수 있다(S520).And, the method may include setting the appearance of the chatbot based on the desired time information (S520).

예를 들면, 사용자 단말(120)의 입력 모듈(280)은 카메라 장치를 포함할 수 있으며, 상기 카메라 장치를 통하여 상기 사용자의 외형을 촬영한 영상 및/또는 이미지 정보에서 추출되는 객체를 이용하여 상기 챗봇의 외형을 설정할 수 있으며, 이에 대해서는 도 6의 카메라 모듈에 기반하여 구체적으로 서술하도록 한다.For example, the input module 280 of the user terminal 120 may include a camera device, and the user's appearance is photographed through the camera device and/or an object extracted from image information is used to perform the The appearance of the chatbot can be set, and this will be described in detail based on the camera module of FIG. 6 .

예를 들면, 관리 서버(110)는 희망 시간 정보가 나타내는 시간에 상응하는 외형으로 챗봇의 외형을 변형할 수 있다. 일 예로, 상기 희망 시간 정보가 현재를 기준으로 미래에 해당되는 시간을 나타내는 경우에는, 상기 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 생성된 챗봇의 외형(예; 제1 외형 정보)을 나타내는 정보에 에이징 처리(aging processing)를 하여, 상기 희망 시간 정보에 상응하는 모습인 챗봇의 외형(예; 제2 외형 정보)을 생성하거나 설정할 수 있다. 여기서 에지징 처리는 제1 외형 정보에 주름, 검버섯, 흰머리, 머리카락 개수의 감소, 탈모 등과 같이 사람이 나이가 듬에 따라 얼굴, 피부, 머리카락 등에 생길 수 있는 생체적인 변화를 반영하거나 추가하는 이미지 처리 등을 포함될 수 있다.For example, the management server 110 may transform the appearance of the chatbot into an appearance corresponding to the time indicated by the desired time information. For example, when the desired time information indicates a time corresponding to the future based on the present, the appearance of the chatbot generated based on the video and / or image information captured through the camera device (e.g., first appearance information ), an appearance (eg, second appearance information) of a chatbot corresponding to the desired time information may be created or set. Here, edging processing is image processing that reflects or adds biological changes that may occur to the face, skin, hair, etc. as a person ages, such as wrinkles, age spots, gray hair, reduction in the number of hairs, and hair loss, to the first appearance information. etc. may be included.

그리고, 상기 방법은 제1 정보 및 희망 시간 정보에 기반하여 응답 정보를 생성하는 단계를 포함할 수 있다(S530).And, the method may include generating response information based on the first information and desired time information (S530).

예를 들면, 희망 시간 정보가 나타내는 시간에 상응하는 대상이 해줄 것으로 예상되는 응답 및/또는 답변을 출력으로써 생성할 수 있다.For example, a response and/or an answer expected to be given by an object corresponding to the time indicated by the desired time information may be generated as an output.

그리고, 상기 방법은 상기 생성되는 응답 정보를 상기 설정되는 외형을 갖춘 챗봇을 통하여 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S540).And, the method may include providing the generated response information to a communication platform and/or system through a chatbot having the set appearance (S540).

예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제2 입력이 획득될 수 있다. 그리고 상기 제2 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제3 출력을 생성하면, 관리 서버(110)는 상기 제3 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제4 출력을 생성하고, 상기 챗봇을 통하여 상기 제4 출력이 출력되거나 표시되도록 제어할 수 있다.For example, a user's second input may be obtained through the communication platform and/or system of the present invention. And, when the second input is transmitted to the learned artificial intelligence network model and the learned artificial intelligence network model generates a third output based on the input, the management server 110 generates the chatbot based on the third output. A fourth output that can be output through is generated, and the fourth output can be controlled to be output or displayed through the chatbot.

한편, 상기 S510 내지 S540은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S510 내지 S540 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.Meanwhile, the S510 to S540 may be implemented sequentially, but the order may be changed and implemented, and only some of the S510 to S540 may be implemented in combination with other descriptions (methods) of the present invention.

그리고, 본 발명의 일 실시예는 복수의 챗봇의 외형들을 생성하여 사용자에게 제공하거나 추천하는 특징을 포함할 수도 있다. 예를 들면, 관리 서버(120)는 복수의 추천 시간 정보를 설정할 수 있으며, 상기 복수의 추천 시간 정보 각각에 상응하는 복수의 챗봇의 외형(예; 복수의 제3 외형 정보)을 생성할 수도 있다. 또한 관리 서버(120)는 이와 같이 생성되는 복수의 제3 외형 정보를 사용자 단말(120)에게 전달하여 상기 사용자 단말(120)을 통하여 출력되거나 표시되도록 제어할 수 있다. 또한 관리 서버(120)가 상기 복수의 제3 외형 정보를 사용자 단말(120)에게 전달할 때, 상기 복수의 제3 외형 정보가 블록체인 기술을 통화여 그룹화 및/또는 해시화되어 상기 사용자 단말(120)에게 전달될 수 있으며, 이는 블록체인 모듈(620)에 대하여 후술하는 내용을 참조할 수 있다.In addition, an embodiment of the present invention may include a feature of generating or recommending appearances of a plurality of chatbots to a user. For example, the management server 120 may set a plurality of recommended time information, and may generate a plurality of chatbot appearances (eg, a plurality of third appearance information) corresponding to each of the plurality of recommended time information. . In addition, the management server 120 may transmit the plurality of third appearance information generated in this way to the user terminal 120 so that they are output or displayed through the user terminal 120 . In addition, when the management server 120 transmits the plurality of third appearance information to the user terminal 120, the plurality of third appearance information is grouped and/or hashed using blockchain technology, and the user terminal 120 ), which can be referred to the following description of the blockchain module 620.

그리고, 본 발명의 일 실시예는 희망 시간 정보가 과거에 해당되는 시간을 나타내는 경우, 관리 서버(110)의 저장 모듈(250)에 기록된 사용자의 채팅 기록, 커뮤니케이션 기록 등에 기반하여 제1 출력, 제2 출력, 응답 정보 등을 생성할 수 있다. 또한 인공지능 모듈(310)은 상기 사용자의 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하고, 상기 사용자의 채팅 이력을 추가 학습 데이터로 더 설정하여 상기 인공지능 모듈(310)의 인공지능망 모델을 학습시킬 수 있다. 또한 이렇게 학습된 인공지능망 모델에 기반하여 상기 관리 서버(110)는 사용자의 입력 및/또는 질문 정보에 대한 출력 및/또는 응답 정보를 생성할 수 있으며, 이렇게 생성되는 출력 및/또는 응답 정보는 마치 사용자가 과거에는 어떠한 결정 및/또는 응답을 했었는지(기록) 및/또는 하였을지(추정)에 대한 정보를 획득할 수 있다. 이를 통해 사용자는 과거의 자신과의 대화를 할 수 있는 효과 및/또는 재미를 얻을 수 있다.And, in one embodiment of the present invention, when the desired time information indicates a time corresponding to the past, the first output based on the user's chat record, communication record, etc. recorded in the storage module 250 of the management server 110, A second output, response information, and the like may be generated. In addition, the artificial intelligence module 310 sets at least one of the user's personal information and first to fourth job information as learning data, and further sets the user's chatting history as additional learning data, so that the artificial intelligence module The artificial intelligence network model of (310) can be trained. In addition, based on the artificial intelligence network model learned in this way, the management server 110 may generate output and/or response information for user input and/or question information, and the output and/or response information thus generated is as if Information on what decisions and/or responses the user has made (record) and/or what decisions and/or responses may have been made (estimation) in the past can be obtained. Through this, the user can obtain an effect and/or enjoyment of having a conversation with himself in the past.

또한 본 발명의 출력 및/또는 응답 정보는, 예를 들면, 관리 서버(110) 및 사용자 단말(120)이 아닌 다른 네트워크 노드(미도시)로부터 수신되는 정보에 기반할 수도 있다. 이때 상기 네트워크 노드는 블록체인 노드(block chain node)일 수도 있다. 일 예로, 제1 사용자의 개인 정보가 제1 사용자의 나이를 '32세'로 나타내고, 상기 제1 사용자의 희망 시간 정보가 '10년 뒤'로 설정된 경우, '42세'에 상응하는 다른 사용자(제4 사용자)(및/또는 '42세'에 근접한 나이를 갖는 다른 사용자(제4 사용자))가 사용하는 다른 네트워크 노드(또는 블록체인 노드)에게 제1 사용자가 입력하는 입력(및/또는 질문 정보)를 전달하고, 상기 다른 사용자(제4 사용자)가 상기 입력(및/또는 질문 정보)에 응답하여 답변(및/또는 응답 정보)을 입력하면 이를 수신하여 사용자에게 제공할 수도 있다.Also, the output and/or response information of the present invention may be based on information received from other network nodes (not shown) other than the management server 110 and the user terminal 120, for example. In this case, the network node may be a block chain node. For example, when the personal information of the first user indicates the age of the first user as '32 years old' and the desired time information of the first user is set as '10 years later', another user corresponding to '42 years old' Input (and/or question information), and when the other user (fourth user) inputs an answer (and/or response information) in response to the input (and/or question information), it may be received and provided to the user.

도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.6 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 관리 서버(110)는 인공지능 모듈(310), 카메라 모듈(610), 블록체인 모듈(620), 및/또는 IoT 모듈(630)을 포함한다. 상기 인공지능 모듈(310)에 대한 설명은 도 3 내지 도 5를 참조하여 전술된 내용을 참조한다.Referring to FIG. 6 , the management server 110 of the present invention includes an artificial intelligence module 310, a camera module 610, a blockchain module 620, and/or an IoT module 630. A description of the artificial intelligence module 310 refers to the contents described above with reference to FIGS. 3 to 5 .

인공지능 모듈(310)은 인공지능망 모델에 기반하여 전술한 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다. 또한, 인공지능 모듈(310)은 저장 모듈(250)에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 상기 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다.The artificial intelligence module 310 may generate or set the aforementioned first output and/or second output based on the artificial intelligence network model. In addition, the artificial intelligence module 310 may generate or set the first output and/or the second output by using machine learning on big data stored in the storage module 250 .

또한, 인공지능 모듈(310)은 관리 서버(110)의 저장 모듈(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망 모델을 학습시킬 수 있다. 예를 들면, 인공지능 모듈(310)은 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습을 수행할 수 있다. 예를 들면, 인공지능 모듈(310)은 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용하는 제1 사용자 이전에 상기 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용했던 복수의 제3 사용자(즉, 이전 고객들)가 입력한 정보들을 학습데이터로 하여 상기 인공지능망을 학습시킬 수 있다.In addition, the artificial intelligence module 310 may train an artificial intelligence network model by using big data stored in the storage module 250 of the management server 110 as an input variable. For example, the artificial intelligence module 310 may perform learning so that an accurate correlation can be derived using a deep learning technique, which is a field of machine learning. For example, the artificial intelligence module 310 prior to the first user using the program (and/or software) and/or website (and/or mobile app) of the present invention, the program (and/or software) and/or Alternatively, the artificial intelligence network may be trained using information input by a plurality of third users (ie, previous customers) who used the website (and/or mobile app) as learning data.

일 예로, 인공지능 모듈(310)은 제1 학습 모드(first learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보 및 제1 직업 정보를 제1 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다.For example, the artificial intelligence module 310 may train the artificial intelligence network model according to a first learning mode, and the artificial intelligence module 310 may perform the user's personal information in the first learning mode. And it is possible to learn the artificial intelligence network model by using the first job information as first learning data.

일 예로, 인공지능 모듈(310)은 제2 학습 모드(second learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보, 및 제2 직업 정보 내지 제4 직업 정보를 제2 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다. For example, the artificial intelligence module 310 may train the artificial intelligence network model according to a second learning mode, and the artificial intelligence module 310 may perform the personal information of the user in the first learning mode. , and the second to fourth job information as the second learning data (learning data) to learn the artificial intelligence network model.

예를 들면, 인공지능 모듈(310)은 전술한 바와 같이 학습된 인공지능망에 입력되는 입력(input)(예; 제1 입력, 제2 입력 등)에 기반하여, 상기 학습된 인공지능망 모델로부터 출력(output)(예; 제1 출력, 제2 출력, 제3 출력, 제4 출력 등)을 획득할 수 있다.For example, the artificial intelligence module 310 outputs from the learned artificial intelligence network model based on inputs (eg, first input, second input, etc.) input to the learned artificial intelligence network as described above. (output) (eg, first output, second output, third output, fourth output, etc.) may be obtained.

또한 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.In addition, the artificial intelligence module 310 may calculate weights of a plurality of inputs in the function through deep learning through learning. In addition, various models such as RNN (Recurrent Neural Network), DNN (Deep Neural Network), and DRNN (Dynamic Recurrent Neural Network) can be used as artificial intelligence network models used for such learning.

여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.Here, RNN is a deep learning technique that simultaneously considers current data and past data, and recurrent neural network (RNN) represents a neural network in which connections between units constituting an artificial neural network constitute a directed cycle. Furthermore, various methods can be used for the structure capable of configuring the recurrent neural network (RNN), for example, a Fully Recurrent Network, a Hopfield Network, an Elman Network, ESN (Echo state network), long short term memory network (LSTM), bi-directional RNN, continuous-time RNN (CTRNN), hierarchical RNN, and quadratic RNN are representative examples. In addition, as a method for learning a recurrent neural network (RNN), methods such as gradient descent, Hessian Free Optimization, and Global Optimization Method may be used.

카메라 모듈(610)은 사용자 단말(120)의 입력 모듈(280)에 포함되는 카메라 장치를 통하여 촬영되는 영상 및/또는 획득되는 이미지 정보(예; 정적 이미지, 동적 이미지 등)을 수신하거나 획득할 수 있다.The camera module 610 may receive or obtain an image captured and/or obtained image information (eg, a static image, a dynamic image, etc.) through a camera device included in the input module 280 of the user terminal 120. there is.

카메라 모듈(610)은 획득된 영상 및/또는 이미지 정보 내에 포함되는 객체를 추출함으로써 제1 객체 정보를 획득할 수 있다. 카메라 모듈(610)은 HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여, 상기 카메라 장치를 통하여 획득되는 영상(및/또는 이미지 정보)에서 영상 내 객체의 윤곽선 또는 상기 객체에서 추출할 수 있는 글씨(또는 정보를 나타내는 윤곽선(또는 외형))를 획득할 수 있다. 또한 카메라 모듈(610)은 획득한 영상(및/또는 이미지 정보)에서 객체를 영상 분석을 통해 인식(또는 식별)하고, 상기 인식된 객체에 대응되는 영역을 마스킹 처리하여 마스킹 영상 정보를 생성할 수 있다. 이때 마스킹 처리 과정은, 예를 들면, 차분영상 방법, GMM(Gaussian Mixture Models)을 이용하는 MOG(Model of Gaussian) 알고리즘, 코드북(Codebook) 알고리즘 등과 같은 객체와 배경을 분리하기 위한 배경 모델링을 통해 객체에 해당하는 객체 후보 영역을 추출하는 방법을 이용함으로써 제1 객체 정보를 추출 및/또는 획득할 수 있다.The camera module 610 may obtain first object information by extracting an object included in the obtained image and/or image information. The camera module 610 uses various algorithms for extracting object features such as Histogram of Oriented Gradient (HOG), Haar-like feature, Co-occurrence HOG, local binary pattern (LBP), and features from accelerated segment test (FAST). , From the image (and/or image information) obtained through the camera device, an outline of an object in an image or a text (or an outline (or shape) representing information) that can be extracted from the object may be obtained. In addition, the camera module 610 may recognize (or identify) an object from the acquired image (and/or image information) through image analysis, and mask a region corresponding to the recognized object to generate masking image information. there is. At this time, the masking process is, for example, a difference image method, a model of Gaussian (MOG) algorithm using GMM (Gaussian Mixture Models), a codebook algorithm, etc. First object information may be extracted and/or acquired by using a method of extracting a corresponding object candidate region.

또한 카메라 모듈(610)은 카메라 장치를 통하여 복수의 영상(및/또는 복수의 이미지 정보)를 획득할 수 있으며, 상기 복수의 영상(및/또는 복수의 이미지 정보) 내에 포함되는 객체를 추출하는 과정을 반복함으로써 복수의 제1 객체 정보를 획득할 수도 있다.In addition, the camera module 610 may acquire a plurality of images (and/or a plurality of image information) through the camera device, and a process of extracting an object included in the plurality of images (and/or a plurality of image information) A plurality of pieces of first object information may be obtained by repeating.

일 예로, 상기 인공지능 모듈(610)은 상기 복수의 제1 객체 정보를 학습 데이터로서 더 고려하여 상기 인공지능망 모델을 더 학습시킬 수 있다.For example, the artificial intelligence module 610 may further learn the artificial intelligence network model by further considering the plurality of first object information as learning data.

다른 예로, 상기 인공지능 모듈(610)은 제1 인공지능망 모델과 제2 인공지능망 모델을 포함할 수 있으며, 사용자의 제1 정보 및/또는 제2 정보를 제1 학습 데이터로서 이용하여 상기 제1 인공지능망 모델을 학습시키고, 상기 복수의 제1 객체 정보를 학습 데이터로서 이용하여 상기 제2 인공지능망 모델을 학습시킬 수 있다. 이때 관리 서버(110)는 상기 (학습된) 제1 인공지능망 모델을 이용하여 전술한 제1 출력 내지 제4 출력 중 적어도 어느 하나를 생성할 수 있으며, 상기 (학습된) 제2 인공지능망 모델을 이용하여 챗봇(10)의 외형을 설정하거나 재설정(또는 업데이트)할 수 있다.As another example, the artificial intelligence module 610 may include a first artificial intelligence network model and a second artificial intelligence network model, and may use the user's first information and/or second information as first learning data to perform the first learning data. The artificial intelligence network model may be trained, and the second artificial intelligence network model may be trained by using the plurality of first object information as training data. At this time, the management server 110 may generate at least one of the first to fourth outputs using the (learned) first artificial intelligence network model, and the (learned) second artificial intelligence network model. You can set or reset (or update) the appearance of the chatbot 10 by using it.

블록체인 모듈(620)은 전술한 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보가 블록체인 기술에 기반하여 사용자 단말(120) 및/또는 다른 네트워크 노드에게 전달될 수 있도록, 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보에 기반하여 적어도 하나의 블록 데이터를 생성할 수 있다. 상기 블록체인 모듈(620)에 의해 생성되는 적어도 하나의 블록 데이터는 통신 모듈(220)을 통하여 사용자 단말(120)에게 전달될 수 있다. 또한 상기 관리 서버(110)는 상기 적어도 하나의 블록 데이터에 포함된 적어도 하나의 요소들을 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장할 수 있다.The blockchain module 620 is a user terminal 120 and / or information indicating the above-described first information, second information, first to fourth inputs, first outputs, and second outputs based on blockchain technology. At least one piece of block data may be generated based on the information indicating the first information, the second information, the first to fourth inputs, the first output, and the second output so as to be delivered to other network nodes. At least one piece of block data generated by the blockchain module 620 may be transmitted to the user terminal 120 through the communication module 220 . In addition, the management server 110 may store at least one element included in the at least one piece of block data in a block chain (not shown) implemented in the storage module 250 .

일반적으로 블록 체인(block chain)은 P2P(peer-to-peer) 네트워크에 의해 생성되고 관리되는 위조 및/또는 변조 불가능한 분산 저장소이다. 블록 체인은 트랜잭션(쌍방간의 쪼갤 수 없는 단위 작업)으로 생성된 데이터 블록들을 체인(chain) 형태로 잇따라 연결한 모음을 의미한다. 이전 블록에 다름 블록을 연이어 암호화하고 과반수가 넘는 사용자가 동의한 데이터를 실제 데이터로 인정하기 때문에, 한번 기록된 데이터는 위조 및/또는 변조가 불가능하다. 블록 체인의 대표적인 응용사례는 암호화폐의 거래 과정을 기록하는 분산화된 전자 화폐인 비트코인(bitcoin)이 있다. 블록 체인에는 일정 시간 동안 사용자들 간에 발생되는 확정된 거래 내역이 저장될 수 있다. 그리고, 많은 사용자들은 블록 체인 사본을 각자 갖고 있으며, 거래 내역은 모두에게 공개될 수 있다. 이와 같이, 과반수가 넘는 사용자가 동의한 거래 내역만 실제 데이터로 인정되고, 영구적으로 보관할 블록으로 묶여 저장될 수 있다.In general, a block chain is a tamper-proof distributed storage created and managed by a peer-to-peer (P2P) network. Block chain refers to a collection of data blocks created by transactions (indivisible unit operations between both parties) connected one after another in the form of a chain. Since the previous block is successively encrypted and the data agreed upon by more than half of the users is recognized as real data, data once recorded cannot be forged and/or tampered with. A typical application of block chain is bitcoin, a decentralized electronic currency that records the transaction process of cryptocurrency. Confirmed transaction details occurring between users for a certain period of time can be stored in the block chain. And, many users each have their own copy of the block chain, and transaction details can be made public to everyone. In this way, only the transaction details agreed upon by more than half of the users are recognized as actual data, and can be stored in a block to be permanently stored.

한편, 본 발명의 관리 서버(110), 사용자 단말(120), 및 다른 네트워크 노드 각각은 블록체인을 포함하거나 블록 데이터를 제어할 수 있는 블록체인 노드일 수 있다. 예를 들면, 관리 서버(110)는 사용자 단말(120)로부터 수신되는(또는 사용자 단말(120)을 통하여 획득되는) 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화 및/또는 해시(hash)하여 블록 체인에 저장한 후 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 대한 위조 및/또는 변조를 검증하거나 판단할 수 있다. 일 예로, 블록체인 모듈(620)은 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 기반하여 머클 해쉬(Merkle hash)를 포함하는 사용자 정보 블록 데이터(matching score block data)를 생성하고, 상기 생성된 머클 해쉬가 포함되도록 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화할 수 있다.On the other hand, each of the management server 110, the user terminal 120, and other network nodes of the present invention may include a blockchain or may be a blockchain node capable of controlling block data. For example, the management server 110 receives first information from the user terminal 120 (or is obtained through the user terminal 120), second information, first to fourth inputs, first output, Information representing the second output, etc. is grouped and/or hashed and stored in the block chain, and then information representing the first information, the second information, the first to fourth inputs, the first output, the second output, etc. Forgery and / or tampering can be verified or determined. For example, the blockchain module 620 includes a Merkle hash based on information representing the first information, the second information, the first to fourth inputs, the first output, and the second output. Information indicating the first information, the second information, the first to fourth inputs, the first output, the second output, etc. so that user information block data (matching score block data) is generated and the generated merkle hash is included. can be grouped.

관리 서버(110)는 미리 결정된 시간 및 상기 저장된 매칭 점수를 나타내는 정보의 개수 중 적어도 하나에 기반하여 상기 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장된 적어도 하나의 요소와 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 포함된 적어도 하나의 요소를 비교하여 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성을 검증할 수 있다. 상기 관리 서버(110)는 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 무결성하지 않는 경우, 출력 모듈(240, 290)을 통해 상기 무결성 여부를 출력할 수 있다. The management server 110 includes at least one element stored in a blockchain (not shown) implemented in the storage module 250 and the first element based on at least one of a predetermined time and the number of pieces of information indicating the stored matching score. At least one element included in the information representing information, second information, first input to fourth input, first output, second output, etc. is compared, and the first information, second information, first input to fourth input, etc. are compared. Integrity of information representing inputs, first outputs, second outputs, etc. may be verified. The management server 110, if the information representing the first information, the second information, the first to fourth inputs, the first output, the second output, etc. is not integrity, through the output module (240, 290) Whether or not the integrity is present can be output.

관리 서버(110)는 상기 저장 모듈(250)에 저장된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 위조 및/또는 변조되거나 손상된 경우, 상기 관리 서버(110)를 관리하는 관리자(예; 제2 사용자)가 이러한 사항을 알 수 있도록 출력 모듈(240)을 통해 상기 무결성 여부를 출력할 수 있다. 상기 제어 모듈(210)는 상기 저장된 블록체인의 무결성 여부를 판단하기 위한 증명서(certificate)를 생성하여 상기 사용자 단말(120) 및/또는 다른 블록체인 노드에게 전송할 수 있다. 상기 증명서는 상기 저장된 상기 그룹화된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 포함할 수 있다. 상기 증명서는 관리 서버(110)가 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성 여부를 판단하는데 이용될 수 있다.The management server 110 stores information representing the first information, second information, first to fourth inputs, first outputs, second outputs, etc. stored in the storage module 250 forged and/or altered or damaged. In this case, the integrity status can be output through the output module 240 so that an administrator (eg, a second user) who manages the management server 110 can know this. The control module 210 may generate a certificate for determining the integrity of the stored blockchain and transmit it to the user terminal 120 and/or other blockchain nodes. The certificate may include information indicating the stored grouped first information, second information, first to fourth inputs, first outputs, second outputs, and the like. The certificate may be used by the management server 110 to determine whether the information indicating the first information, the second information, the first to fourth inputs, the first output, and the second output is integrity.

그리고 블록체인 모듈(620)은 사용자가 사용자 단말(120)을 통하여 입력하는 복수의 입력 및/또는 복수의 질문 정보에 상응하는 프라이버시 레벨(privacy level)에 기반하여, 상기 입력 및/또는 질문 정보를 i) 해시화 및/또는 그룹화 하여 해쉬 데이터 형태로 다른 네트워크 노드에게 전달하거나 ii) 해시화 및/또는 그룹화 과정을 생략하고 상기 입력 및/또는 질문 정보를 그대로 다른 네트워크 노드에게 전달할 수 있다. 이는 사용자의 프라이버시와 관련되는 정보는 블록체인 기술을 적용하여(또는 변형/변환하여) 다른 네트워크 노드에게 전달하여 사용자의 프라이버시 보호 및/또는 개인 정보 보호를 도모하되, 그렇지 않는 정보의 경우 별다른 변형/변환 없이 다른 네트워크 노드에게 불필요한 과정을 생략하여 에너지 자원 및/또는 처리 시간 자원 등을 절약하는 기술적인 효과를 기대할 수 있다.In addition, the blockchain module 620 converts the input and/or question information based on a privacy level corresponding to the plurality of inputs and/or the plurality of question information input by the user through the user terminal 120. i) hashing and/or grouping and forwarding it to other network nodes in the form of hash data, or ii) skipping the hashing and/or grouping process and forwarding the input and/or question information as it is to other network nodes. This means that information related to the user's privacy is transmitted to other network nodes by applying (or transforming/converting) blockchain technology to protect the user's privacy and/or personal information, but in the case of information that is not, there is no transformation/conversion. A technical effect of saving energy resources and/or processing time resources can be expected by omitting unnecessary processes for other network nodes without conversion.

IoT 모듈(630)은 IoT 기술에 기반하여 본 발명에서 필요로 하는 각종 정보 및/또는 신호를 입력 받기 위해, 및/또는 본 발명에서 생성되는 각종 정보 및/또는 신호를 출력하기 위해, 상기 사용자 단말(120) 및/또는 다른 네트워크 노드(미도시)와 통신을 수행하기 위한 정보의 변형을 할 수 있다. 일 예로, 상기 IoT 모듈(630)은 통신 모듈(220)에 포함되거나, 상기 통신 모듈(220)로서 구현될 수 있다.The IoT module 630 is the user terminal in order to receive various information and/or signals required by the present invention based on IoT technology and/or to output various information and/or signals generated in the present invention. 120 and/or information to perform communication with other network nodes (not shown) may be modified. For example, the IoT module 630 may be included in the communication module 220 or implemented as the communication module 220 .

그리고, 관리 서버(110)는 사용자 단말(120)의 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보를 상기 사용자 단말(120)로부터 수신하고, 상기 잔류 전력 정보와 소정의 임계값 사이의 비교 결과에 기반하여 챗봇(10)의 외형에 대한 정보를 상이하게 생성(및/또는 표시)하거나 및/또는 챗봇(10)이 출력 및/또는 응답 정보를 출력하는 방식을 상이하게 선택(및/또는 설정)하도록 제어할 수 있다. 이를 위해 사용자 단말(120)은 상기 사용자 단말(120))의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)를 상기 관리 서버(110)에게 전송할 수 있으며, 상기 관리 서버(110)의 통신 모듈(220)는 상기 사용자 단말(120)의 잔류 전력 정보를 수신할 수 있다.Then, the management server 110 receives residual power information representing the residual power of the internal battery of the user terminal 120 from the user terminal 120, and based on a comparison result between the residual power information and a predetermined threshold value. to generate (and/or display) information about the appearance of the chatbot 10 differently and/or to select (and/or set) differently how the chatbot 10 outputs output and/or response information You can control it. To this end, the user terminal 120 may transmit information indicating the residual power of the user terminal 120 (ie, residual power information) to the management server 110, and the communication module of the management server 110 ( 220) may receive residual power information of the user terminal 120.

상기 관리 서버(110)(및/또는 제어 모듈(210))는 잔류 전력에 대한 제1 임계값, 상기 제1 임계값보다 낮은 제2 임계값을 설정할 수 있다(예; 제1 임계값 - 70%, 제2 임계값 - 30%).The management server 110 (and/or the control module 210) may set a first threshold value for residual power and a second threshold value lower than the first threshold value (eg, the first threshold value - 70). %, second threshold - 30%).

예를 들면 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)가 상기 제1 임계값보다 높은 전력을 나타내는 경우, 상기 사용자 단말(120)가 제1 동작 모드로서 동작하도록 제어할 수 있다. 상기 제1 동작 모드는 사용자의 얼굴을 촬영하여 생성되는 3차원 캐릭터와 광고와 관련되어 생성되는 3차원 이미지를 함께 출력하는 모드일 수 있다. 예를 들면, 상기 제1 동작 모드의 경우 상기 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 상기 사용자 단말(120)의 사용자의 얼굴을 촬영하여 사용자 얼굴에 대한 이미지 정보를 획득하고, 상기 사용자 얼굴에 대한 이미지 정보에 기반하여 챗봇(10)의 외형에 대한 정보 나타내는 정보(예를 들어, 챗봇(10)의 형태, 색상 또는 텍스처 중 적어도 하나)를 생성하거나 상기 3차원 캐릭터의 외형을 결정할 수 있다. 예를 들면, 제1 동작 모드로 동작하는 경우에는 상기 사용자 얼굴에 대한 이미지 정보를 렌더링 한 후에, 렌더링된 결과에 기반하여 상기 챗봇(10)의 외형에 대한 정보를 생성할 수 있다. 즉, 본 발명의 관리 서버(110)는 사용자의 얼굴을 2차원 또는 3차원 이미지화한 외형의 챗봇(10)이 사용자 단말을 통하여 표시되도록 제어할 수 있다.For example, the management server 110, when information indicating the residual power of the user terminal 120 (ie, residual power information) indicates power higher than the first threshold value, the user terminal 120 It can be controlled to operate as 1 operation mode. The first operation mode may be a mode in which a 3D character generated by photographing a user's face and a 3D image generated in relation to an advertisement are output together. For example, in the first operation mode, the user's face of the user terminal 120 is photographed through the camera device of the user terminal 120 to obtain image information on the user's face, and the user's face Based on the image information for , information indicating information on the appearance of the chatbot 10 (eg, at least one of the shape, color, or texture of the chatbot 10) may be generated or the appearance of the 3D character may be determined. . For example, in the case of operating in the first operation mode, after image information on the user's face is rendered, information on the appearance of the chatbot 10 may be generated based on the rendered result. That is, the management server 110 of the present invention can control the chatbot 10 having a 2D or 3D image of the user's face to be displayed through the user terminal.

또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제1 임계값 미만 상기 제2 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제2 동작 모드로서 동작하도록 제어할 수 있다. 상기 제2 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 이와 같이 제2 동작 모드는 카메라 장치를 통하여 사용자의 얼굴을 촬영하는 과정을 생략하기에, 상기 제1 동작 모드에 비하여 저전력 모드라고 볼 수 있다.In addition, when the remaining power information of the user terminal 120 indicates power less than the first threshold and greater than or equal to the second threshold, the management server 110 causes the user terminal 120 to operate in a second operation mode. You can control it. The second operation mode may be a mode in which a 3D character of a preset appearance is displayed as the chatbot 10 according to a user's selection and/or preset by the management server 110 0 . As such, the second operation mode omits the process of photographing the user's face through the camera device, so it can be regarded as a low-power mode compared to the first operation mode.

또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제2 임계값 미만 상기 제3 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제3 동작 모드로서 동작하도록 제어할 수 있다. 상기 제3 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 또한 상기 제3 동작 모드로 설정되는 경우 제어 모듈(210) 및/또는 인공지능 모듈(310)에 의해 생성되는 출력 및/또는 응답 정보는 일종의 텍스트 메시지(예; 말풍선) 및/또는 기 녹음된 음성 만을 표시하거나 출력하는 모드일 수 있다. 다시 말해 TTS와 같은 음성 합성 과정이 생략될 수 있다. 일 예로, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보가 TTS 및/또는 음성 합성 시스템 등이 적용되지 않고, 텍스트 형태로 및/또는 상기 텍스트에 상응하는 기 녹음된 정보만이 사용자 단말을 통하여 출력될 수 있다.In addition, when the remaining power information of the user terminal 120 indicates power less than the second threshold and greater than or equal to the third threshold, the management server 110 causes the user terminal 120 to operate in a third operation mode. You can control it. The third operation mode may be a mode in which a 3D character of a preset appearance is displayed as the chatbot 10 according to a user's selection and/or preset by the management server 110 0 . In addition, when set to the third operation mode, the output and/or response information generated by the control module 210 and/or the artificial intelligence module 310 is a kind of text message (eg, speech bubble) and/or a pre-recorded voice. It may be a mode that displays or outputs only. In other words, a voice synthesis process such as TTS may be omitted. For example, the output and/or response information generated by the management server 110 is information corresponding to text, and after the information is transmitted to the user terminal 120, the user terminal 120 corresponds to the text. TTS and/or voice synthesis system are not applied to the information, and only pre-recorded information in text form and/or corresponding to the text may be output through the user terminal.

이와 같이 제3 동작 모드는, 사용자의 얼굴을 촬영하여 실시간으로 챗봇(10)의 외형에 대한 정보 생성하거나 렌더링하는 것이 아닌, 기 설정되는 챗봇(10)의 외형에 대한 정보 출력하기에 상기 제1 동작 모드 및 상기 제2 동작 모드에 비해 저전력 모드로서 구현될 수 있다.In this way, the third operation mode is to output information about the appearance of the chatbot 10 that is preset, rather than generating or rendering information about the appearance of the chatbot 10 in real time by photographing the user's face. It may be implemented as a low power mode compared to the operation mode and the second operation mode.

본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명의 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한 상기 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 본 발명의 모든 실시예는 일부분들이 서로 조합되어 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등에 의해 구현될 수 있다.Embodiments of the present invention disclosed in this specification and drawings are only presented as specific examples to easily explain the technical content of the present invention and help understanding of the present invention, and are not intended to limit the scope of the present invention. That is, it is obvious to those skilled in the art that other modifications based on the technical idea of the present invention can be implemented. In addition, each of the above embodiments may be operated in combination with each other as needed. For example, all embodiments of the present invention may be implemented by the system 100, the management server 110, and/or the user terminal 120 by combining parts with each other.

또한, 본 발명에 따른 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등을 제어하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.In addition, the method for controlling the system 100, the management server 110, and/or the user terminal 120 according to the present invention is implemented in the form of program commands that can be executed through various computer means, and is stored in a computer readable medium. can be recorded.

이와 같이, 본 발명의 다양한 실시예들은 특정 관점에서 컴퓨터 리드 가능 기록 매체(computer readable recording medium)에서 컴퓨터 리드 가능 코드(computer readable code)로서 구현될 수 있다. 컴퓨터 리드 가능 기록 매체는 컴퓨터 시스템에 의해 리드될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 컴퓨터 리드 가능 기록 매체의 예들은 읽기 전용 메모리(read only memory: ROM)와, 랜덤-접속 메모리(random access memory: RAM)와, 컴팩트 디스크- 리드 온니 메모리(compact disk-read only memory: CD-ROM)들과, 마그네틱 테이프(magnetic tape)들과, 플로피 디스크(floppy disk)들과, 광 데이터 저장 디바이스들, 및 캐리어 웨이브(carrier wave)들(인터넷을 통한 데이터 송신 등)을 포함할 수 있다. 컴퓨터 리드 가능 기록 매체는 또한 네트워크 연결된 컴퓨터 시스템들을 통해 분산될 수 있고, 따라서 컴퓨터 리드 가능 코드는 분산 방식으로 저장 및 실행된다. 또한, 본 발명의 다양한 실시예들을 성취하기 위한 기능적 프로그램들, 코드, 및 코드 세그먼트(segment)들은 본 발명이 적용되는 분야에서 숙련된 프로그래머들에 의해 쉽게 해석될 수 있다.As such, various embodiments of the present invention may be implemented as computer readable codes in a computer readable recording medium from a specific point of view. A computer readable recording medium is any data storage device capable of storing data readable by a computer system. Examples of computer readable recording media include read only memory (ROM), random access memory (RAM), and compact disk-read only memory (CD-ROM). ), magnetic tapes, floppy disks, optical data storage devices, and carrier waves (such as data transmission over the Internet). The computer readable recording medium may also be distributed across networked computer systems, so that computer readable code is stored and executed in a distributed manner. In addition, functional programs, code, and code segments for achieving various embodiments of the present invention can be easily interpreted by programmers skilled in the field to which the present invention is applied.

또한 본 발명의 다양한 실시예들에 따른 장치 및 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 콤팩트 디스크(compact disk: CD), DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 다양한 실시예들에 따른 방법은 제어부(제어 모듈(210, 260)) 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 이러한 메모리는 본 발명의 실시예들을 구현하는 명령들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. It will also be appreciated that the apparatus and method according to various embodiments of the present invention can be realized in the form of hardware, software, or a combination of hardware and software. Such software may include, for example, volatile or non-volatile storage devices such as ROM, whether removable or rewritable, or memory, such as RAM, memory chips, devices or integrated circuits, or For example, it may be stored in an optically or magnetically recordable and machine (eg, computer) readable storage medium such as a compact disk (CD), DVD, magnetic disk, or magnetic tape. Methods according to various embodiments of the present invention may be implemented by a computer or portable terminal including a control unit (control module 210, 260) and a memory, and such a memory contains instructions for implementing the embodiments of the present invention. It will be appreciated that this is an example of a machine-readable storage medium suitable for storing a program or programs including.

따라서, 본 발명은 본 명세서의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.Accordingly, the present invention includes a program including code for implementing the device or method described in the claims of this specification and a storage medium readable by a machine (such as a computer) storing such a program. In addition, such a program may be transmitted electronically through any medium, such as a communication signal transmitted through a wired or wireless connection, and the present invention appropriately includes equivalents thereto.

본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고, 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 또한 앞서 설명된 본 발명에 따른 실시예들은 예시적인 것에 불과하며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.The embodiments of the present invention disclosed in the present specification and drawings are only presented as specific examples to easily explain the technical content of the present invention and help understanding of the present invention, and are not intended to limit the scope of the present invention. In addition, the embodiments according to the present invention described above are merely illustrative, and those skilled in the art will understand that various modifications and embodiments of equivalent range are possible therefrom. Therefore, the true technical protection scope of the present invention should be defined by the following claims.

Claims (1)

챗봇 서비스(chatbot service)를 제공하는 커뮤니케이션 시스템에 있어서,
상기 챗봇 서비스를 이용하는 제1 사용자의 제1 사용자 단말; 및
상기 챗봇 서비스를 상기 사용자에게 제공하기 위한 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버; 를 포함하고,
상기 제1 사용자 단말은,
상기 제1 사용자 단말의 내부 배터리의 잔량을 나타내는 전력 정보를 상기 제1 사용자 단말로부터 수신하고,
상기 제1 사용자의 외형에 상응하는 제1 이미지 정보를 설정하되, 상기 전력 정보가 임계치 이상을 나타내는 경우에는 카메라를 이용하여 상기 제1 사용자의 외형을 촬영하고 모델링(modeling) 또는 렌더링(rendering) 중 적어도 어느 하나를 수행함으로써 상기 제1 이미지 정보를 생성하는 제1 모드가 설정되고, 상기 전력 정보가 상기 임계치 미만을 나타내는 경우에는 상기 관리 서버에 기 설정된 3차원 캐릭터를 상기 제1 이미지 정보로써 설정하는 제2 모드가 설정되고,
명령어 음성을 입력 모듈을 통하여 상기 제1 사용자로부터 입력 받고,
상기 제1 사용자의 나이를 나타내는 개인정보를 상기 제1 사용자로부터 입력 받고,
상기 제1 이미지 정보 및 상기 명령어 음성을 상기 관리 서버에게 전달하고, - 상기 명령어 음성은, 상기 명령어 음성이 나타내는 질문에 대한 응답의 시간 기준을 나타내는 희망시간을 포함함 -
상기 관리 서버는,
상기 명령어 음성으로부터 상기 명령어 음성이 나타내는 질문에 상응하는 제1 텍스트를 추출하고,
상기 제1 텍스트로부터 상기 희망시간을 나타내는 정보를 추출하고,
상기 제1 이미지 정보가 나타내는 상기 제1 사용자의 외형이 상기 희망시간 만큼 노화된(aging) 모습을 나타내는 제2 이미지 정보로 변환하고, - 상기 노화된 모습은 상기 희망시간에 비례하여 주름, 검버섯, 흰머리의 개수 및 탈모의 정도가 증가된 모습으로 설정됨 -
상기 제1 텍스트를, 상기 제1 사용자의 나이와 상기 희망시간에 기반하여 결정되는 나이를 갖는 제2 사용자의 제2 사용자 단말에게 전달하고,
상기 제1 텍스트가 나타내는 상기 질문에 대한 상기 제2 사용자의 응답을 나타내는 제2 텍스트를 상기 제2 사용자 단말로부터 수신하고,
상기 제2 텍스트를 TTS(Text to Speech)에 적용함으로써 상기 응답에 상응하는 음성이 상기 챗봇 서비스를 통하여 상기 제1 사용자 단말에서 출력(output)되도록 제어하되, 상기 제2 이미지 정보에 기반하여 외형이 결정되는 상기 챗봇 서비스를 위한 캐릭터 객체가 상기 제1 사용자 단말의 디스플레이에서 표시되도록 제어하는 것을 특징으로 하는,
커뮤니케이션 시스템.
In a communication system providing a chatbot service,
A first user terminal of a first user using the chatbot service; and
A management server that operates at least one of software, programs, websites, and mobile apps for using a communication platform for providing the chatbot service to the user; including,
The first user terminal,
Receiving power information indicating a remaining amount of an internal battery of the first user terminal from the first user terminal;
First image information corresponding to the appearance of the first user is set, but when the power information indicates a threshold or higher, the appearance of the first user is photographed using a camera and modeling or rendering is performed. A first mode for generating the first image information is set by performing at least one, and when the power information indicates less than the threshold, setting a three-dimensional character preset in the management server as the first image information A second mode is set,
receiving a command voice from the first user through an input module;
receiving personal information representing the age of the first user from the first user;
Delivering the first image information and the voice command to the management server, -The voice command includes a desired time indicating a time reference for a response to a question indicated by the voice command -
The management server,
Extracting a first text corresponding to a question indicated by the command voice from the command voice;
Extracting information indicating the desired time from the first text;
Converting the appearance of the first user represented by the first image information into second image information representing an aged appearance by the desired time; The number of gray hairs and the degree of hair loss are set to increase -
Delivering the first text to a second user terminal of a second user whose age is determined based on the age of the first user and the desired time;
Receiving second text indicating a response of the second user to the question indicated by the first text from the second user terminal;
By applying the second text to Text to Speech (TTS), the voice corresponding to the response is controlled to be output from the first user terminal through the chatbot service, and the appearance is based on the second image information Characterized in that the character object for the determined chatbot service is controlled to be displayed on the display of the first user terminal,
communication system.
KR1020230065934A 2020-07-16 2023-05-22 Communication system providing chatbot service KR20230079321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230065934A KR20230079321A (en) 2020-07-16 2023-05-22 Communication system providing chatbot service

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200088106A KR20220010632A (en) 2020-07-16 2020-07-16 Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler
KR1020210064367A KR102536992B1 (en) 2020-05-18 2021-05-18 Communication system providing chatbot service
KR1020230065934A KR20230079321A (en) 2020-07-16 2023-05-22 Communication system providing chatbot service

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210064367A Division KR102536992B1 (en) 2020-05-18 2021-05-18 Communication system providing chatbot service

Publications (1)

Publication Number Publication Date
KR20230079321A true KR20230079321A (en) 2023-06-07

Family

ID=80049320

Family Applications (14)

Application Number Title Priority Date Filing Date
KR1020200088106A KR20220010632A (en) 2020-07-16 2020-07-16 Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler
KR1020210101100A KR20220009921A (en) 2020-07-16 2021-08-02 construction, cleaning drone, airplane
KR1020210101102A KR20220009923A (en) 2020-07-16 2021-08-02 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler
KR1020210101101A KR20220009922A (en) 2020-07-16 2021-08-02 Separator, crusher, treatment facility
KR1020210101099A KR20220009920A (en) 2020-07-16 2021-08-02 Drone, airplane and construction, cleaning method
KR1020210101097A KR20220009919A (en) 2020-07-16 2021-08-02 Drone and construction, cleaning method
KR1020210187081A KR20220020798A (en) 2020-07-16 2021-12-24 Drone, equipment, cleaner and cleaning, washing, purification method
KR1020210187091A KR20220016449A (en) 2020-07-16 2021-12-24 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler
KR1020220104772A KR20220122580A (en) 2020-07-16 2022-08-22 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler
KR1020230065934A KR20230079321A (en) 2020-07-16 2023-05-22 Communication system providing chatbot service
KR1020230068807A KR20230079342A (en) 2020-07-16 2023-05-30 Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler
KR1020230142936A KR20230152628A (en) 2020-07-16 2023-10-24 Purifier, water purifier, filter purifier, electrolysis purifier
KR1020240013038A KR20240017049A (en) 2020-07-16 2024-01-29 Cleaner, washer, sprayer, clarifier, purifier, collector, separator, treater
KR1020240037759A KR20240038954A (en) 2020-07-16 2024-03-19 Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler

Family Applications Before (9)

Application Number Title Priority Date Filing Date
KR1020200088106A KR20220010632A (en) 2020-07-16 2020-07-16 Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler
KR1020210101100A KR20220009921A (en) 2020-07-16 2021-08-02 construction, cleaning drone, airplane
KR1020210101102A KR20220009923A (en) 2020-07-16 2021-08-02 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler
KR1020210101101A KR20220009922A (en) 2020-07-16 2021-08-02 Separator, crusher, treatment facility
KR1020210101099A KR20220009920A (en) 2020-07-16 2021-08-02 Drone, airplane and construction, cleaning method
KR1020210101097A KR20220009919A (en) 2020-07-16 2021-08-02 Drone and construction, cleaning method
KR1020210187081A KR20220020798A (en) 2020-07-16 2021-12-24 Drone, equipment, cleaner and cleaning, washing, purification method
KR1020210187091A KR20220016449A (en) 2020-07-16 2021-12-24 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler
KR1020220104772A KR20220122580A (en) 2020-07-16 2022-08-22 Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020230068807A KR20230079342A (en) 2020-07-16 2023-05-30 Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler
KR1020230142936A KR20230152628A (en) 2020-07-16 2023-10-24 Purifier, water purifier, filter purifier, electrolysis purifier
KR1020240013038A KR20240017049A (en) 2020-07-16 2024-01-29 Cleaner, washer, sprayer, clarifier, purifier, collector, separator, treater
KR1020240037759A KR20240038954A (en) 2020-07-16 2024-03-19 Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler

Country Status (1)

Country Link
KR (14) KR20220010632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603035B1 (en) * 2023-06-23 2023-11-15 김민수 AI-based virtual chatbot operating system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102594886B1 (en) * 2022-02-28 2023-10-27 주식회사 한국산업기술원 IoT based things, vest, helmet, band, watch, form, scaffold, excavator, pumpcar, portable, crane, tripod and works, construction, management, method, system
CN115364250B (en) * 2022-07-25 2023-09-05 福寿堂制药有限公司 Far infrared sterilization equipment and sterilization process for ginseng and antler tonic paste preparation
KR102689683B1 (en) * 2022-10-07 2024-07-30 주식회사 힘펠 Air conditioning system for entrance
CN115957355B (en) * 2022-12-20 2023-12-01 兰立生物科技(苏州)有限公司 Animal experiment center protection device, system and method based on air flow regulation barrier
CN118001437B (en) * 2024-04-09 2024-06-21 齐齐哈尔市中医医院(齐齐哈尔市第三医院、黑龙江中医药大学齐齐哈尔临床医学院) Surgical instrument disinfection nursing device
CN118289489B (en) * 2024-05-07 2024-09-10 江苏禾泰玻璃科技有限公司 Glass material block conveying device for microfiber glass wool production

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030803B1 (en) 2017-05-17 2019-11-08 주식회사 에이아이리소프트 An appratus and a method for processing conversation of chatter robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030803B1 (en) 2017-05-17 2019-11-08 주식회사 에이아이리소프트 An appratus and a method for processing conversation of chatter robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603035B1 (en) * 2023-06-23 2023-11-15 김민수 AI-based virtual chatbot operating system

Also Published As

Publication number Publication date
KR20220010632A (en) 2022-01-26
KR20240017049A (en) 2024-02-06
KR20220122580A (en) 2022-09-02
KR20220009921A (en) 2022-01-25
KR20220020798A (en) 2022-02-21
KR20220016449A (en) 2022-02-09
KR20220009923A (en) 2022-01-25
KR20220009922A (en) 2022-01-25
KR20230152628A (en) 2023-11-03
KR20220009919A (en) 2022-01-25
KR20240038954A (en) 2024-03-26
KR20230079342A (en) 2023-06-07
KR20220009920A (en) 2022-01-25

Similar Documents

Publication Publication Date Title
KR20230079321A (en) Communication system providing chatbot service
US12035005B2 (en) Sensitivity assessment for media production using artificial intelligence
Juska Integrated marketing communication: advertising and promotion in a digital world
Mohammad Artificial intelligence in information technology
KR102270217B1 (en) Blockchain system that generates job seeker information based on commute time
KR102166371B1 (en) APPARATUS AND METHOD FOR ARTIFICIAL INTELLIGENCE MARKETING BASED ON Internet-of-Things
KR102176249B1 (en) Server for managing online service providing customized commercial platform and system thereof
Garon A practical introduction to generative AI, synthetic media, and the messages found in the latest medium
KR102585298B1 (en) system that provides a gallery platform based on virtual reality technology
Murphy et al. AI: A museum planning toolkit
KR20200031959A (en) Method for evaluating social intelligence and apparatus using the same
KR102536992B1 (en) Communication system providing chatbot service
KR102176151B1 (en) Server for providing commercial platform including artificial intelligence module and block chain module
KR102176268B1 (en) Method for providing customized commercial information based on matching point and system thereof
Marko Applying generative AI and large language models in business applications
Schmitt et al. The role of AI-based artifacts’ voice capabilities for agency attribution
KR102176256B1 (en) management server and method for generating information representing a plurality of recommended advertisement companies and outputting them through a user terminal
KR102176290B1 (en) Method for providing marketing information including matching information and system thereof
KR102176242B1 (en) System including user terminal and server related to advertisement platform recommending advertisement company
KR102317579B1 (en) Server providing commercial platform and system thereof
KR20210136403A (en) Smart system for searching of advertisement company based on big data
KR20210136527A (en) Network entity for advertisement recommendation service based on artificial neural network model learned using private information and career information of user
KR102176245B1 (en) SERVER AND METHOD for generating information representing a plurality of recommended advertisement companies and providing them to terminal
KR102176259B1 (en) Control device for generating advertisment information based on artificial intelligence and block chain technology
KR102176251B1 (en) method and system for providing online advertisement service that provides advertisement information to users by advertisement category

Legal Events

Date Code Title Description
A107 Divisional application of patent