KR20230079321A - Communication system providing chatbot service - Google Patents
Communication system providing chatbot service Download PDFInfo
- Publication number
- KR20230079321A KR20230079321A KR1020230065934A KR20230065934A KR20230079321A KR 20230079321 A KR20230079321 A KR 20230079321A KR 1020230065934 A KR1020230065934 A KR 1020230065934A KR 20230065934 A KR20230065934 A KR 20230065934A KR 20230079321 A KR20230079321 A KR 20230079321A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- user terminal
- artificial intelligence
- management server
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 70
- 230000004044 response Effects 0.000 claims abstract description 39
- 210000004209 hair Anatomy 0.000 claims description 4
- 201000004384 Alopecia Diseases 0.000 claims description 2
- 208000024963 hair loss Diseases 0.000 claims description 2
- 230000003676 hair loss Effects 0.000 claims description 2
- 238000009877 rendering Methods 0.000 claims description 2
- 230000003718 aged appearance Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 106
- 238000007726 management method Methods 0.000 description 73
- 238000000034 method Methods 0.000 description 51
- 238000003860 storage Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 230000015654 memory Effects 0.000 description 15
- 230000000306 recurrent effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 101800001244 Histidine-rich basic peptide Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007688 edging Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000001671 psychotherapy Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/02—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/02—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
- A61L2/14—Plasma, i.e. ionised gases
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/16—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
- A61L2/20—Gaseous substances, e.g. vapours
- A61L2/202—Ozone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/16—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
- A61L2/22—Phase substances, e.g. smokes, aerosols or sprayed or atomised substances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L9/00—Disinfection, sterilisation or deodorisation of air
- A61L9/14—Disinfection, sterilisation or deodorisation of air using sprayed or atomised substances including air-liquid contact processes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L9/00—Disinfection, sterilisation or deodorisation of air
- A61L9/16—Disinfection, sterilisation or deodorisation of air using physical phenomena
- A61L9/22—Ionisation
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24F—AIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
- F24F8/00—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
- F24F8/20—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24F—AIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
- F24F8/00—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
- F24F8/20—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation
- F24F8/24—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation using sterilising media
- F24F8/26—Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by sterilisation using sterilising media using ozone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G06T3/0056—
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2202/00—Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
- A61L2202/10—Apparatus features
- A61L2202/11—Apparatus for generating biocidal substances, e.g. vaporisers, UV lamps
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2202/00—Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
- A61L2202/10—Apparatus features
- A61L2202/17—Combination with washing or cleaning means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2209/00—Aspects relating to disinfection, sterilisation or deodorisation of air
- A61L2209/20—Method-related aspects
- A61L2209/21—Use of chemical compounds for treating air or the like
- A61L2209/212—Use of ozone, e.g. generated by UV radiation or electrical discharge
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B30/00—Energy efficient heating, ventilation or air conditioning [HVAC]
- Y02B30/70—Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Epidemiology (AREA)
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- General Chemical & Material Sciences (AREA)
- Physics & Mathematics (AREA)
- Plasma & Fusion (AREA)
- Molecular Biology (AREA)
- Medicinal Chemistry (AREA)
- Biomedical Technology (AREA)
- Disinfection, Sterilisation Or Deodorisation Of Air (AREA)
- Water Supply & Treatment (AREA)
- Hydrology & Water Resources (AREA)
- Organic Chemistry (AREA)
- Environmental & Geological Engineering (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Disinfection Or Sterilisation (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Treatment Of Water By Oxidation Or Reduction (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Details Or Accessories Of Spraying Plant Or Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Clinical Laboratory Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
Abstract
Description
본 발명은 챗봇 서비스를 제공하는 커뮤니케이션 시스템에 관한 것이다.The present invention relates to a communication system providing a chatbot service.
또한 본 발명은 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템에 관한 것이다.In addition, the present invention relates to a system for a chatbot service that provides response information and changes the appearance of a character in consideration of a user's desired time.
또한 본 발명은 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템에 관한 것이다.In addition, the present invention relates to an artificial intelligence-based communication system using time information.
일반적으로 개인비서 시스템, 챗봇 플랫폼(chatbot platform), 인공지능(AI) 스피커 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.In general, an artificial intelligence conversation system used in a personal assistant system, a chatbot platform, and an artificial intelligence (AI) speaker understands the intention of a person's command and provides a response phrase corresponding to it.
주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.Mainly, an artificial intelligence conversation system is a method in which a person conveys a functional request and a machine provides an answer to the person's request, receiving a user's voice input through a microphone and based on the received voice input You can control behavior or content delivery.
특허등록공보 제10-2030803호에는 챗봇의 대화처리장치 및 그 방법이 개시되어 있다.Patent Registration Publication No. 10-2030803 discloses a chatbot conversation processing apparatus and method.
상기 문헌에서 하나 이상의 사용자 단말과 네트워크를 통해 연결되며, 상기 사용자 단말로 질문을 제공하고 상기 사용자 단말로부터 전송되는 답변 음성을 처리하는 대화처리장치가 개시된다.In the above document, a conversation processing apparatus connected to one or more user terminals through a network, providing a question to the user terminal and processing a voice response transmitted from the user terminal is disclosed.
또한 상기 문헌에서의 상기 대화처리장치는 상기 사용자 단말로 전송할 질문을 생성하는 질문/대답 생성부, 상기 사용자 단말로부터 전송되는 사용자의 답변이 상기 질문에 대한 대답인지 상기 대화처리장치에의 질문인지를 구분하고, 상기 사용자의 답변이 기존 사용자의 답변과 동일한지 여부를 판단하는 사용자답변 분석부, 상기 사용자의 답변을 지식베이스 기반에 기초해서 새로운 답변으로 분류가능한지 판단하는 신규 대답/반응 생성부, 및 상기 사용자답변 분석부의 판단결과 및 상기 신규 대답/반응 생성부의 판단결과에 기초해, 상기 사용자 단말에게 전송할 질문 또는 대답을 생성해, 그 결과를 상기 질문/대답 생성부에 제공하는 사용자답변 대응부를 포함한다.In addition, the dialogue processing apparatus in the above document determines whether a question/answer generator generates a question to be transmitted to the user terminal, and whether the user's answer transmitted from the user terminal is an answer to the question or a question to the dialogue processing apparatus. A user answer analysis unit that classifies and determines whether the user's answer is the same as the existing user's answer, a new answer/reaction generator that determines whether the user's answer can be classified as a new answer based on the knowledge base, and Based on the determination result of the user answer analysis unit and the determination result of the new answer/response generation unit, a user response response unit generating a question or answer to be transmitted to the user terminal and providing the result to the question/answer generation unit do.
이에 본 발명은 보다 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안하려고 한다.Accordingly, the present invention intends to propose an artificial intelligence-based communication system using more enhanced time information.
본 발명의 일 실시예는 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.An object of one embodiment of the present invention is to provide an artificial intelligence-based communication system using time information.
또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.In addition, an object of one embodiment of the present invention is to provide an artificial intelligence-based communication system that is set in consideration of a tendency that a user may have in the future.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템에 있어서, 사용자의 사용자 단말, 및 상기 사용자 단말과 통신을 수행하고 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버를 포함하고, 상기 관리 서버는 상기 사용자의 개인 정보를 상기 사용자 단말을 통하여 획득하고, 상기 사용자의 개인 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하고, 상기 학습된 인공지능망 모델에 기반하여 챗봇을 생성하고, 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어하는 것을 특징으로 하는 커뮤니케이션 시스템을 제안한다.An embodiment of the present invention is an artificial intelligence-based communication system, wherein at least one of a user's user terminal and software, programs, websites, and mobile apps for performing communication with the user terminal and using a communication platform is provided. and a management server that operates, wherein the management server acquires the user's personal information through the user terminal, uses the user's personal information as learning data, and controls the artificial intelligence network model to be learned, and controls the learned artificial intelligence network model to be learned. We propose a communication system characterized by generating a chatbot based on an intelligent network model and controlling the chatbot to output through the user terminal.
상기 관리 서버는 상기 사용자의 희망 시간 정보를 상기 사용자 단말을 통하여 획득하고, 상기 희망 시간 정보에 기반하여 상기 챗봇의 외형을 설정하고, 상기 설정되는 외형을 갖춘 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어할 수 있다.The management server acquires the user's desired time information through the user terminal, sets the appearance of the chatbot based on the desired time information, and outputs the chatbot having the set appearance through the user terminal You can control it.
상기 관리 서버는 상기 개인 정보 및 상기 희망 시간 정보에 기반하여 응답 정보를 생성하고, 상기 설정되는 외형을 갖춘 상기 챗봇이 상기 응답 정보를 상기 사용자 단말에서 출력하도록 제어할 수 있다.The management server may generate response information based on the personal information and the desired time information, and control the chatbot having the set appearance to output the response information to the user terminal.
상기 사용자 단말은 상기 사용자의 외형을 촬영하여 이미지 정보를 생성하여 상기 관리 서버에게 전달하고, 상기 관리 서버는 상기 이미지 정보에 기반하여 상기 챗봇의 외형을 설정하는 것을 특징으로 할 수 있다.The user terminal may photograph an appearance of the user, generate image information, and transmit the image information to the management server, and the management server sets the appearance of the chatbot based on the image information.
상기 인공지능망 모델은 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 중 적어도 어느 하나를 포함할 수 있다.The artificial intelligence network model may include at least one of a recurrent neural network (RNN), a deep neural network (DNN), and a dynamic recurrent neural network (DRNN).
이와 같이 본 발명의 일 실시예는 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안할 수 있다.As such, an embodiment of the present invention may propose an artificial intelligence-based communication system using enhanced time information.
또한 본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템은 사용자의 개인 정보를 학습하기에 상기 사용자에게 최적화된 커뮤니케이션을 상기 사용자에게 제공할 수 있다.In addition, according to an embodiment of the present invention, an artificial intelligence-based communication system can provide the user with communication optimized for the user by learning the user's personal information.
또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 사용자에게 제공할 수 있다. 이를 통해 사용자는 미래의 자신과 대화를 하는 듯한 만족감을 느낄 수 있다는 측면에서 심리 치료 목적 등에서 유의미하다고 볼 수 있다.In addition, an embodiment of the present invention may provide a user with an artificial intelligence-based communication system that is set in consideration of a tendency that the user may have in the future. Through this, the user can feel the satisfaction of having a conversation with the future self, which is meaningful for the purpose of psychotherapy.
또한 본 발명의 일 실시예는 사용자의 과거 채팅 기록에 기반하여 상기 사용자가 과거에는 어떠한 결정을 하였을지에 대한 문답을 가능케 한다는 점에서도, 사용자가 참조할 수 있는 정보를 추가적으로 제공한다는 측면에서 유의미하다고 볼 수 있다.In addition, one embodiment of the present invention is meaningful in terms of providing additional information that the user can refer to in that it enables questions and answers about what decisions the user made in the past based on the user's past chatting records. can
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.Also other aspects as described above, features and benefits of certain preferred embodiments of the present invention will become more apparent from the following description taken in conjunction with the accompanying drawings.
1 is a diagram showing how an artificial intelligence-based communication system is implemented according to an embodiment of the present invention.
2 is a block diagram illustrating an artificial intelligence-based communication system according to an embodiment of the present invention.
3 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
4 is a flowchart illustrating an operation method of an artificial intelligence-based communication system according to an embodiment of the present invention.
5 is a flowchart illustrating an operating method of an artificial intelligence-based communication system according to an embodiment of the present invention.
6 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
It should be noted that throughout the drawings, like reference numbers are used to show the same or similar elements, features and structures.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring it by omitting unnecessary description.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, in the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. In each figure, the same reference number is assigned to the same or corresponding component.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be understood that each block of the process flow chart diagrams and combinations of the flow chart diagrams can be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates means to perform functions. These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory The instructions stored in are also capable of producing an article of manufacture containing instruction means that perform the functions described in the flowchart block(s). The computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment. Instructions for performing processing equipment may also provide steps for performing the functions described in the flowchart block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.At this time, the term '~unit' used in this embodiment means software or a hardware component such as a field-programmable gate array (FPGA) or application specific integrated circuit (ASIC), and what role does '~unit' have? perform them However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.
본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.In describing the embodiments of the present invention in detail, an example of a specific system will be the main target, but the main subject matter to be claimed in this specification extends the scope disclosed herein to other communication systems and services having a similar technical background. It can be applied within a range that does not deviate greatly, and this will be possible with the judgment of those skilled in the art.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.1 is a diagram showing how an artificial intelligence-based communication system is implemented according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 사용자 단말(120)을 통하여 사용자에게 제공될 수 있다. 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 인공지능 기반의 챗봇(10)(또는 채터봇)을 통하여 사용자에게 제공될 수 있다. 여기서 챗봇(10)(또는 채터봇)은 음성이나 문자를 통한 인간과의 대화를 통해서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램을 나타낼 수 있다.Referring to FIG. 1 , the artificial intelligence-based communication system of the present invention may be provided to a user through a
또한 상기 챗봇(10)은 음성인식 비서를 폼(또는 형성, 생성)하는 형태로 구현될 수도 있다. 또한 상기 챗봇(10)은 음성인식 기술에 기반하여, 사용자가 말한 내용을 컴퓨터가 이해할 수 있도록 텍스트로 변환하고, 이를 질의로 간주하여 상기 질의에 대한 응답을 생성하고, 상기 생성되는 응답을 TTS(Text to Speech) 및/또는 음성 합성 시스템을 이용하여 음성(예; 기계음성)으로 바꾸는 과정을 통하여 구현될 수도 있다. 한편, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보에 TTS 및/또는 음성 합성 시스템을 적용하여 사용자에게 제공할 수도 있다.In addition, the
일 예로, 본 발명의 챗봇(10) 및/또는 커뮤니케이션 시스템(100)은 사전에 정해진 키워드(즉, 시작 명령어(start command))를 기기를 활성화 하기 위한 활성 트리거에 기반하여 동작을 수행하거나 소정의 동작을 시작할 수 있다. 상기 시작 명령어는, 예를 들면, 사용자 단말(120)에 상응하는 기기명, 상기 챗봇(10)에 설정되거나 할당된 명칭 등을 포함할 수 있다. 이와 같이 본 발명의 챗봇(10)은 키워드 호출을 기반으로 음성인식 기능을 수행할 수 있으며, 일 예로, 사용자가 챗봇(10)의 이름을 부르면 사용자 단말(120) 및/또는 본 발명의 커뮤니케이션 플랫폼을 제공하는 소프트웨어(및/또는 프로그램) 및/또는 웹사이트(및/또는 모바일앱)를 활성화 하여 사용자의 음성 명령을 수집하기 위한 대기 모드로 진입할 수 있다.For example, the
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.2 is a block diagram illustrating an artificial intelligence-based communication system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 시스템(100)은 관리 서버(110) 및 사용자 단말(120)을 포함할 수 있다.Referring to FIG. 2 , the
관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 및/또는 저장 모듈(250)을 포함할 수 있으며, 상기 관리 서버(110)는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하거나 지원하는 웹사이트 및/또는 모바일앱을 운용하는 서버일 수 있다. 또한 사용자 단말(120)은 제2 제어 모듈(260), 제2 통신 모듈(270), 제2 입력 모듈(280, 미도시), 및/또는 제2 출력 모듈(290, 미도시)을 포함할 수 있다. 또한 상기 사용자 단말(120)은 스마트폰(smart phone), 휴대폰, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등과 같은 사용자의 모바일 기기일 수도 있다. 또한 상기 사용자 단말(120)은 개인용 PC, 데스크탑일 수도 있다.The management server 110 may include a
제어 모듈(210, 260)은 본 발명의 일 실시예에 따른 동작/단계/과정을 구현할 수 있도록 관리 서버(110) 및/또는 사용자 단말(120)을 직/간접적으로 제어할 수 있다. 또한 제어 모듈(210, 260)은 적어도 하나의 프로세서를 포함할 수 있으며, 프로세서는 적어도 하나의 중앙 처리 유닛(CPU) 및/또는 적어도 하나의 그래픽 처리 디바이스(GPU)를 포함할 수 있다.The
또한 제어 모듈(210, 260)은 API(Application Programming Interface), IoT(Internet of Things), IIoT(Industrial Internet of Things), ICT(Information & Communication Technology) 기술에 기반하여 제어 정보(예; 명령어) 등을 생성하거나 및/또는 관리할 수 있다.In addition, the control module (210, 260) is based on API (Application Programming Interface), IoT (Internet of Things), IIoT (Industrial Internet of Things), ICT (Information & Communication Technology) technology based on control information (eg, commands), etc. can create and/or manage.
통신 모듈(220, 270)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시) 등과 각종 데이터, 신호, 정보를 송수신할 수 있다. 또한, 통신 모듈(220, 270)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 또한, 통신 모듈(220, 270)은 제1 네트워크(예: 블루투스, WiFi direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.The
입력 모듈(230, 280)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시)의 구성요소(예: 제어 모듈(210) 등)에 사용될 명령 또는 데이터를 관리 서버(110) 및/또는 사용자 단말(120)의 외부(예: 사용자(예; 제1 사용자, 제2 사용자 등), 관리 서버(110)의 관리자 등)로부터 수신할 수 있다. 또한, 입력 모듈(230, 280)은 관리 서버(110) 및/또는 사용자 단말(120)에 설치된 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈, 음성인식센서, 마이크, 마우스, 또는 키보드 등을 포함할 수 있다. 여기서 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈은 감압식 및/또는 정전식 방식을 통하여 사용자의 신체(예; 손가락)를 통한 터치를 인식할 수 있다.The input modules 230 and 280 manage commands or data to be used for components (eg,
출력 모듈(240, 290)은 관리 서버(110) 및/또는 사용자 단말(120)의 제어 모듈(210, 260)에 의해 생성되거나 통신 모듈(220, 270)을 통하여 획득된 신호(예; 음성 신호), 정보, 데이터, 이미지, 및/또는 각종 객체(object) 등을 표시하는 모듈이다. 예를 들면, 출력 모듈(240, 290)은 디스플레이, 스크린, 표시부(displaying unit), 스피커 및/또는 발광장치(예; LED 램프) 등을 포함할 수 있다.The
저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 또한, 저장 모듈은 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.The
또한 저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)을 사용하는 고객(또는 제1 사용자)의 개인 정보, 관리자(또는 제2 사용자)의 개인 정보 등을 저장할 수 있다. 여기서 개인 정보는 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있다. 또한, 제어 모듈(210, 260)은 상기 저장 모듈(250)에 저장된 각종 이미지, 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the
또한 저장 모듈(250)은 사용자가 본 발명의 커뮤니케이션 플랫폼을 통하여 수행한 과거의 채팅 기록, 커뮤니케이션 기록 및/또는 소정의 질문에 대응하여 사용자가 선택한 응답 정보(또는 소정의 입력에 대응하여 사용자가 선택한 출력)을 더 저장할 수도 있다. 이 정보들은 인공지능 모듈(310)에게 전달되어, 인공지능망 모델을 학습(learning)시키기 위한 학습 데이터(learning data)로써 사용될 수 있다.In addition, the
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.3 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
도 3을 참조하면, 관리 서버(110)는 관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250), 및/또는 인공지능 모듈(310)을 포함할 수 있으며, 상기 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250)에 대한 설명은 도 2에서 전술된 내용을 참조한다.Referring to FIG. 3, the management server 110 includes a
인공지능 모듈(310)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성 처리 모듈; 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전 처리 모듈; 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화 처리 모듈; 수신된 음성에 알맞은 기능을 추천하기 위한 추천 모듈; 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 NMT(Neural Machine Translation, 인공신경망 기반 기계 번역) 모듈; 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.The artificial intelligence module 310 includes a voice processing module for recognizing the received voice and synthesizing a voice to be output; A vision processing module for analyzing and processing the received image or video; a dialog processing module for determining an appropriate dialog to output an appropriate voice according to the received voice; a recommendation module for recommending a function suitable for the received voice; NMT (Neural Machine Translation) module that supports artificial intelligence to translate language in sentence units through data learning; It may include various modules for providing voice-based services, such as the like.
인공지능 모듈(310)은 인공지능망 모델에 기반하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 데이터베이스에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 관리 서버(110)의 데이터베이스(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망을 학습시키는데, 구체적으로는 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습(learning)을 수행할 수 있다. 또한 결국 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.The artificial intelligence module 310 may generate various outputs (eg, first output) and/or various information (eg, first response information) described in the present invention based on the artificial intelligence network model. In addition, the artificial intelligence module 310 uses machine learning on big data stored in a database to perform various outputs (eg, first output) and/or various information (eg, first output) described in the present invention. first response information) may be generated. In addition, the artificial intelligence module 310 uses the big data stored in the
여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.Here, RNN is a deep learning technique that simultaneously considers current data and past data, and recurrent neural network (RNN) represents a neural network in which connections between units constituting an artificial neural network constitute a directed cycle. Furthermore, various methods can be used for the structure capable of configuring the recurrent neural network (RNN), for example, a Fully Recurrent Network, a Hopfield Network, an Elman Network, ESN (Echo state network), long short term memory network (LSTM), bi-directional RNN, continuous-time RNN (CTRNN), hierarchical RNN, and quadratic RNN are representative examples. In addition, as a method for learning a recurrent neural network (RNN), methods such as gradient descent, Hessian Free Optimization, and Global Optimization Method may be used.
또한 인공지능 모듈(310)은 사용자의 발화에 따라 수신되는 입력(예; 음성 입력)(예; "인테리어 변경", "코스피 구매" 등)를 직접 인식 및 분석하여 출력(예; 음성 출력)할 수 있다. 또한 관리 서버(110)(및/또는 제어 모듈(210))가 사용자의 제1 입력(예; 음성 입력)을 텍스트에 상응하는 제2 입력(예; "인테리어 변경", "코스피 구매" 등)으로 변환하여 상기 인공지능 모듈(310)에게 전달하면, 상기 인공지능 모듈(310)은 상기 제2 입력에 상응하는 제1 출력(예; 텍스트 정보)을 생성하여 상기 제어 모듈(210)에게 전달하면, 상기 제어 모듈(210)은 상기 제1 출력에 기반하여 제2 출력(예; 음성 출력)을 생성하여 상기 사용자 단말(120)에게 전달할 수도 있다.In addition, the artificial intelligence module 310 directly recognizes and analyzes input (eg, voice input) received according to the user's speech (eg, "interior change", "KOSPI purchase", etc.) and outputs (eg, voice output). can In addition, the management server 110 (and/or the control module 210) converts the user's first input (eg, voice input) into a second input corresponding to text (eg, "interior change", "KOSPI purchase", etc.) When converted to and transmitted to the artificial intelligence module 310, the artificial intelligence module 310 generates a first output (eg text information) corresponding to the second input and transmits it to the
일 예로, 사용자가 "(집) 인테리어 변경"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 추천 인테리어에 대한 정보를 획득하고, 획득한 정보를 "추천하는 인테리어는..."와 같이 음성으로 출력할 수 있다. 또한 후술하는 내용에 기반하여 희망 시간 정보가 '20년 뒤'로 설정된 경우에는 '20년 뒤'의 사용자가 판단하였을 결과를 추정하여, 그 추정 결과를 "아직 인테리어를 변경하기에는 빠릅니다..."와 같은 음성으로 출력할 수도 있으며, 이에 대한 구체적인 동작은 후술하도록 한다.For example, when a user utters “(house) interior change”, the
다른 예로, 사용자가 "코스피 구매"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 최근 코스피 동향에 대한 정보(예; 코스피 지수에 대한 통계, 기사, 정보 등)를 획득하고, 획득한 정보에 기반하여 "코스피 구매는 하지 말아요..."와 같이 음성으로 출력할 수 있다.As another example, when the user utters the content of "KOSPI purchase", the
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.4 is a flowchart illustrating an operation method of an artificial intelligence-based communication system according to an embodiment of the present invention.
도 4를 참조하면, 본 발명은 관리 서버가 사용자의 제1 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S410).Referring to FIG. 4 , the present invention may include obtaining, by a management server, first information of a user through a user terminal (S410).
사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제1 정보를 입력할 수 있다. 상기 제1 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.The user receives the first information through the program (and/or software) and/or website (and/or mobile app) of the present invention that provides the artificial intelligence-based communication platform of the present invention executed through the
제1 정보는 상기 사용자의 개인 정보를 포함할 수 있으며, 여기서 개인 정보는 사용자의 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있으며, 상기 사용자가 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 결제한 금액 및/또는 내역(결제내역)에 대한 정보, 상기 사용자가 지급받거나 사용한 리워드(포인트)에 대한 정보를 더 포함할 수도 있다.The first information may include the user's personal information, where the personal information is the user's name, ID (identifier), password, road name address, phone number, mobile phone number, e-mail address, and/or a management server ( 110) may include information indicating a reward (eg, points, etc.) generated by the program (and/or software) and/or website (and/or mobile app) of the present invention by the user. ), information on the payment amount and/or details (payment details), and information on rewards (points) paid or used by the user may be further included.
또한 상기 사용자의 개인 정보는 상기 사용자의 업종을 나타내는 정보를 더 포함할 수도 있다. 또한 사용자의 업종을 나타내는 정보는 '제1 직업 정보' 및 '제2 직업 정보'를 포함할 수 있으며, 상기 제2 직업 정보는 상기 제1 직업 정보가 나타내는 업종의 하위 업종을 나타내는 정보로서, 직업을 나타내는 정보를 포함할 수 있다.In addition, the user's personal information may further include information indicating the user's type of business. In addition, the information indicating the user's type of business may include 'first job information' and 'second job information', and the second job information is information indicating a sub-type of the type of business indicated by the first job information, may include information indicating
제1 직업 정보는 직업과 관련되는 상위 개념의 카테고리를 나타낼 수 있으며, 개발, 경영/비즈니스, 마케팅/광고, 디자인, 영업, 고객서비스/리테일(소매, 유통), 인사/교육, 미디어, 엔지니어링/설계, 투자/분석/부동산, 제조/생산, 게임 제작, 물류/무역, F&B(Food and Beverage), 법률/법집행기관, 의료/제약/바이오, 정부/비영리, 건설/시설을 포함할 수 있다.The first job information may represent categories of higher concepts related to jobs, such as development, management/business, marketing/advertisement, design, sales, customer service/retail (retail, distribution), personnel/education, media, engineering/ May include Design, Investment/Analysis/Real Estate, Manufacturing/Production, Game Production, Logistics/Trade, Food and Beverage (F&B), Legal/Law Enforcement, Medical/Pharma/Bio, Government/Non-Profit, Construction/Facilities .
제2 직업 정보는 직업과 관련되는 하위 개념의 카테고리를 나타낼 수 있으며, 제2 직업 정보는 상기 제1 직업 정보에 매칭될 수 있다.The second job information may indicate a category of a sub-concept related to a job, and the second job information may be matched with the first job information.
제2 직업 정보는, 예를 들면, 개발(제1 직업 정보)과 관련되거나 매칭되는 웹 개발자, 서버 개발자, 프론트엔드 개발자, 자바 개발자, 안드로이드 개발자, iOS 개발자, 파이썬 개발자, DevOps/시스템 관리자, 데이터 엔지니어, Node.js 개발자, 시스템/네트워크 관리자, C/C++ 개발자, 개발 매니저, 머신러닝 엔지니어, 데이터 사이언티스트 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 경영/비즈니스(제1 직업 정보)와 관련되거나 매칭되는 서비스 기획자, 사업개발/기획자, 프로젝트 매니저, 전략 기획자, 운영 매니저, 데이터 분석가, 회계원/경리 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 마케팅/광고(제1 직업 정보)와 관련되거나 매칭되는 디지털 마케터, 마케터, 마케팅 전략 기획자, 콘텐츠 마케터, 브랜드 마케터, 소셜 마케팅, 광고 기획자(AE) 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 디자인(제1 직업 정보)과 관련되거나 매칭되는 UX 디자이너, UI/GUI 디자이너, 웹 디자이너, 그래픽 디자이너, 모바일 디자이너, 영상/모션 디자이너, 제품 디자이너 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 영업(제1 직업 정보)과 관련되거나 매칭되는 기업영업 담당자, 영업 관리자, 기술영업 전문가, 외부영업 전문가, 주요고객사 담당자, 솔루션 컨설턴트, 고객성공매니저 등을 포함할 수 있다.The second job information is, for example, web developer, server developer, front-end developer, Java developer, Android developer, iOS developer, Python developer, DevOps/system manager, data related to or matching development (first job information). This can include engineers, Node.js developers, system/network administrators, C/C++ developers, development managers, machine learning engineers, data scientists, and more. In addition, the second job information is, for example, service planner, business developer / planner, project manager, strategic planner, operation manager, data analyst, accountant / bookkeeper, etc. related to or matched with management / business (first job information). can include In addition, the second job information is, for example, digital marketers, marketers, marketing strategy planners, content marketers, brand marketers, social marketing, advertising planners (AE) that are related to or matched with marketing/advertising (first job information). can include In addition, the second job information includes, for example, UX designer, UI / GUI designer, web designer, graphic designer, mobile designer, video / motion designer, product designer, etc. related to or matching design (first job information) can do. In addition, the second job information includes, for example, a corporate sales manager, a sales manager, a technical sales specialist, an external sales specialist, a major customer company manager, a solution consultant, and a customer success manager that are related to or matched with sales (first job information). can include
또한 제2 직업 정보는, 예를 들면, 고객서비스/리테일(제1 직업 정보)과 관련되거나 매칭되는 CS 매니저, MD, CS 어드바이저, 리테일 MD, CRM 전문가, 패션 MD, 매장점원 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 인사/교육(제1 직업 정보)과 관련되거나 매칭되는 인사 담당자, 리크루터, 조직 관리 전문가, 인사평가 전문가, HRD/교육 전문가, 급여/보상 전문가, HRBP 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 미디어(제1 직업 정보)와 관련되거나 매칭되는 콘텐츠 크리에이터, 영상 편집가, 프로듀서, 에디터, 비디오 제작, 작가, 음향 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 엔지니어링/설계(제1 직업 정보)와 관련되거나 매칭되는 자동차 공학자, 기계 엔지니어, 전기 엔지니어, 제품 엔지니어, 전기기계 공학자, 제어 엔지니어, 전자 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 투자/분석/부동산(제1 직업 정보)과 관련되거나 매칭되는 회계 담당자, 재무 분석가, 회계사/회계원, 애널리스트, IR, CPA, 준법감시인 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 제조/생산(제1 직업 정보)과 관련되거나 매칭되는 품질 관리자, 생산 관리자, 제조 엔지니어, 테스트 엔지니어, 공정 관리자, 기계제작 기술자, 기계/설비조작, 안전 관리자, 화학자, 자재 관리자, 생산직 종사자 등을 포함할 수 있다.In addition, the second job information may include, for example, CS manager, MD, CS advisor, retail MD, CRM specialist, fashion MD, store clerk, etc. related to or matched with customer service/retail (first job information). there is. In addition, the second job information is, for example, a human resource manager, recruiter, organization management expert, personnel evaluation expert, HRD / education expert, salary / compensation expert, HRBP, etc. related to or matched with human resources / education (first job information). can include In addition, the second job information may include, for example, content creator, video editor, producer, editor, video producer, writer, sound engineer, etc. related to or matched with media (first job information). In addition, the second job information may include, for example, an automotive engineer, a mechanical engineer, an electrical engineer, a product engineer, an electrical mechanical engineer, a control engineer, an electronic engineer, and the like that are related to or matched with engineering/design (first job information). can In addition, the second job information may include, for example, an accountant related to or matched with investment/analysis/real estate (first job information), a financial analyst, an accountant/accountant, an analyst, an IR, a CPA, a compliance officer, and the like. can In addition, the second job information is, for example, quality manager, production manager, manufacturing engineer, test engineer, process manager, machine manufacturing technician, machine / facility operation, safety related to or matching manufacturing / production (first job information) This may include managers, chemists, materials managers, and production workers.
또한 제2 직업 정보는, 예를 들면, 게임제작(제1 직업 정보)과 관련되거나 매칭되는 게임 클라이언트 개발자, 게임 기획자, 모바일 게임 개발자, 유니티 개발자, 게임 서버 개발자, 게임 아티스트, 게임 그래픽 디자이너, 게임 운영자(GM), 언리얼 개발자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 물류/무역(제1 직업 정보)과 관련되거나 매칭되는 물류 담당자, 물류 분석가, 운송 관리자, 배송 담당자, 웨어하우스 전문가, 선적/발송 사무원, 운행 관리원, 화물트럭 운전기사, 무역사무 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, F&B(제1 직업 정보)와 관련되거나 매칭되는 요리사, 식품 MD, 외식업 종사자, 외식업 메뉴 개발자, 영양사, 바텐더, 레스토랑 관리자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 법률/법집행기관(제1 직업 정보)과 관련되거나 매칭되는 법무담당자, 법무 자문위원, 변호사, 변리사, 명세사 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 의료/제약/바이오(제1 직업 정보)과 관련되거나 매칭되는 연구원, 생명공학 연구원, 임상시험 연구원, 증례 관리자, 수의사, 약학 분석 화학자, 임상시험 간호사, 미생물학자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 정부/비영리(제1 직업 정보)와 관련되거나 매칭되는 정보 분석가, 카운셀러, 공무원, 직업군인, 환경 전문가, 지역 전문가, 자원봉사자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 건설/시설(제1 직업 정보)과 관련되거나 매칭되는 유지보수 관리자, 견적 기술자, 정비공, 관리인 등을 포함할 수 있다.In addition, the second job information is, for example, a game client developer, game planner, mobile game developer, unity developer, game server developer, game artist, game graphic designer, game related to or matched with game production (first job information). May include operators (GM), Unreal developers, and the like. In addition, the second job information is, for example, logistics/trade (first job information) related or matched logistics manager, logistics analyst, transport manager, delivery manager, warehouse specialist, shipping/delivery clerk, transportation manager, cargo This may include truck driver, trade office, etc. Also, the second job information may include, for example, a chef, a food MD, a restaurant worker, a food service menu developer, a nutritionist, a bartender, a restaurant manager, and the like that are related to or matched with F&B (first job information). In addition, the second job information may include, for example, a legal person in charge or matched with a law/law enforcement agency (first job information), a legal advisor, a lawyer, a patent attorney, a specifier, and the like. In addition, the second job information is, for example, a researcher related to or matching medical/pharmaceutical/bio (first job information), a biotechnology researcher, a clinical trial researcher, a case manager, a veterinarian, a pharmaceutical analytical chemist, a clinical trial nurse, microbiologists, and the like. In addition, the second job information may include, for example, information analysts, counselors, civil servants, occupational soldiers, environmental experts, regional experts, volunteers, etc. related to or matched with government/non-profit (first job information). Also, the second job information may include, for example, a maintenance manager, a estimator, a mechanic, a manager, and the like that are related to or matched with construction/facility (first job information).
또한 상기 제1 정보는 '제3 직업 정보'와 '제4 직업 정보'를 더 포함할 수 있으며, 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사 등을 직접적으로 나타내는 정보를 포함할 수 있다. 또한 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.In addition, the first information may further include 'third job information' and 'fourth job information', and the third job information directly identifies the place of work, office and/or company where the user is (currently) working. may contain information indicated by In addition, the third job information may include information indicating an upper category and/or a lower category corresponding to the place of work, office, and/or company where the user (currently) works. On the other hand, for specific details of the information indicating the upper category and/or the information indicating the lower category, refer to the above-described information related to the first job information and/or the second job information.
또한 상기 제4 직업 정보는 상기 사용자가 복수의 근무지(또는 사무소 또는 회사)에서 일하거나, 복수의 근무지(또는 사무소 또는 회사)에서 일했거나, 및/또는 이직을 한 경력이 있는 경우, 사용자와 관련되는 복수의 근무지, 사무소 및/또는 회사에 대한 정보를 포함할 수 있다. 일 예로, 상기 제4 직업 정보는 사용자가 종사하였던 복수의 근무지(또는 사무소 또는 회사) 각각에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.In addition, the fourth job information is related to the user if the user has worked at multiple workplaces (or offices or companies), worked at multiple workplaces (or offices or companies), and/or has a career of changing jobs. It may include information about a plurality of workplaces, offices and/or companies. For example, the fourth occupational information may include information indicating an upper category of business and/or information indicating a lower category of business corresponding to a plurality of workplaces (or offices or companies) in which the user was engaged. On the other hand, for specific details of the information indicating the upper category and/or the information indicating the lower category, refer to the above-described information related to the first job information and/or the second job information.
이를 통해 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하여 학습된 인공지능망 모델은 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.Through this, the artificial intelligence network model learned using at least one of the first job information to the fourth job information as learning data outputs the same output that would have been selected by a person matching at least one of the first job information to the fourth job information ( and/or response information).
또한 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)는 상기 사용자의 제1 정보를 통하여 소정의 인증 절차가 완료된 경우에만 후술하는 S420 단계 내지 S440, 도 5의 흐름도에 기반하여 설명되는 동작들이 수행될 수 있다.In addition, the program (and/or software) and/or website (and/or mobile app) of the present invention performs steps S420 to S440 of FIG. 5 only when a predetermined authentication process is completed through the first information of the user. Operations described based on the flow chart may be performed.
일 예로, 상기 소정의 기준은 소정의 인증 절차를 포함할 수 있으며, 상기 소정의 인증 절차는 상기 사용자의 개인 정보에 기반하여 진행되는 본인 인증 프로세스를 포함할 수 있다.For example, the predetermined criterion may include a predetermined authentication procedure, and the predetermined authentication procedure may include a user authentication process based on personal information of the user.
그리고, 상기 방법은 제1 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하는 단계를 포함할 수 있다(S420).And, the method may include the step of controlling to learn the artificial intelligence network model by using the first information as learning data (S420).
관리 서버(110) 및/또는 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터(learning data)로 설정하고, 상기 설정된 학습 데이터를 이용하여 상기 인공지능 모듈(310)이 운용하는 인공지능망 모델을 학습시킬 수 있다. 다시 말해 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 이용하여 i) 인공지능망 모델을 학습시키거나 ii) 상기 인공지능망 모델을 업데이트하거나, 및/또는 iii) 상기 사용자에 맞춤화된 적응형 인공지능망 모델을 생성하도록 제어할 수 있다. 이러한 과정을 통해 학습된 인공지능망 모델은 사용자와 같은 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.The management server 110 and/or the artificial intelligence module 310 sets at least one of the user's personal information and the first job information to the fourth job information as learning data, and the set learning data It is possible to learn the artificial intelligence network model operated by the artificial intelligence module 310 by using. In other words, the artificial intelligence module 310 uses at least one of the user's personal information and the first to fourth job information to i) learn the artificial intelligence network model, ii) update the artificial intelligence network model, and/or iii) control to generate an adaptive artificial intelligence network model customized for the user. The artificial intelligence network model learned through this process can generate an output (and/or response information) that would have been selected by a person matching at least one of personal information such as the user and first job information to fourth job information. .
그리고, 상기 방법은 학습된 인공지능망 모델에 기반하여 사용자 맞춤의 챗봇을 생성하는 단계를 포함할 수 있다(S430).And, the method may include generating a user-customized chatbot based on the learned artificial intelligence network model (S430).
관리 서버(110)는 상기 학습된 인공지능망 모델의 출력을 텍스트, 음성 등으로 표시하거나, 표정 등으로 표현하는 챗봇을 생성할 수 있다.The management server 110 may generate a chatbot that displays the output of the learned artificial intelligence network model as text, voice, or the like, or expresses it as a facial expression.
일 예로, 상기 출력(및/또는 응답 정보)이 부정적인 내용을 포함하는 경우 상기 챗봇(10)은 부정적인 표정, 예를 들면, 우는 표정, 슬픈 표정, 화난 표정 등을 할 수 있으며, 다른 예로, 상기 출력(및/또는 응답 정보)이 긍정적인 내용을 포함하는 경우 상기 챗봇(10)은 긍정적인 표정, 예를 들면, 웃는 표정, 신난 표정 등을 할 수 있다.For example, when the output (and/or response information) includes negative content, the
또한 관리 서버(110)는, 예를 들면, 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 모델링, 랜더링, 캐릭터화된 2차원 및/또는 3차원 외형 이미지를 생성할 수 있으며, 상기 생성되는 2차원 및/또는 3차원 외형 이미지를 이용하여 상기 챗봇의 외형을 결정하거나 설정할 수 있다. 이에 대한 구체적인 동작은 카메라 모듈(620)을 참조하여 후술되는 부분을 참조한다.In addition, the management server 110, for example, models, renders, and characterizes 2D and/or 3D external images based on video and/or image information captured through a camera device of the
그리고, 상기 방법은 사용자 맞춤의 챗봇을 이용하여 사용자에게 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S440).And, the method may include providing a communication platform and/or system to a user using a user-customized chatbot (S440).
예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제1 입력이 획득될 수 있다. 그리고 상기 제1 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제1 출력을 생성하면, 관리 서버(110)는 상기 제1 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제2 출력을 생성하고, 상기 챗봇을 통하여 상기 제2 출력이 출력되거나 표시되도록 제어할 수 있다.For example, a first input from a user may be obtained through the communication platform and/or system of the present invention. And, when the first input is transmitted to the learned artificial intelligence network model and the learned artificial intelligence network model generates a first output based on the input, the management server 110 generates the chatbot based on the first output. A second output that can be output through is generated, and the second output can be controlled to be output or displayed through the chatbot.
이와 같이 사용자의 개인 정보 등에 기반하여 학습된 인공지능망 모델 기반의 챗봇이 생성될 수 있으며, 이렇게 생성된 챗봇에 사용자의 입력(예; 질문)이 획득되면 상기 입력에 기반하여 소정의 출력(예; 응답, 대답)이 상기 챗봇을 통하여 사용자(및/또는 사용자 단말(120))에게 제공될 수 있다.In this way, a chatbot based on an artificial intelligence network model learned based on the user's personal information, etc. can be created, and when the user's input (eg, question) is acquired in the chatbot created in this way, a predetermined output (eg; Responses and answers) may be provided to the user (and/or the user terminal 120) through the chatbot.
한편, 상기 S410 내지 S440은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S410 내지 S440 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.Meanwhile, the S410 to S440 may be implemented sequentially, but the order may be changed and implemented, and only some of the S410 to S440 may be implemented in combination with other descriptions (methods) of the present invention.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an operating method of an artificial intelligence-based communication system according to an embodiment of the present invention.
도 5를 참조하면, 본 발명은 사용자의 희망 시간 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S510).Referring to FIG. 5 , the present invention may include acquiring desired time information of a user through a user terminal (S510).
사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제2 정보를 입력할 수 있다. 상기 제2 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.The user inputs the second information through the program (and/or software) and/or website (and/or mobile app) that provides the artificial intelligence-based communication platform of the present invention executed through the
제2 정보는 사용자의 희망 시간 정보를 포함할 수 있으며, 여기서의 희망 시간 정보는 사용자에 의해 (임의로) 설정되는 시간일 수 있다. 상기 희망 시간 정보는, 일 예로, 현재 시간을 기준으로 미래를 나타내는 시간일 수 있다(예; '20XX년XX월XX일', 'XX년 후에' 등). 또한 상기 희망 시간 정보는, 다른 예로, 현재 시간을 기준으로 과거를 나타내는 시간일 수 있다(예; '19XX년XX월XX일', '20XX년XX월XX일', 'XX년 전에' 등).The second information may include user's desired time information, and the desired time information herein may be a time (arbitrarily) set by the user. The desired time information may be, for example, a time representing the future based on the current time (eg, '20XX year XX month XX day', 'XX years later', etc.). In addition, the desired time information, as another example, may be a time representing the past based on the current time (e.g., 'XX day, XX month, 19XX', 'XX day, XX month, 20XX', 'XX years ago', etc.) .
또한 상기 제2 정보는 희망 나이 정보를 포함할 수도 있으며, 여기서의 희망 나이 정보는 사용자에 의해 (임의로) 설정되는 나이일 수 있다. 일 예로, 상기 희망 나이 정보는 'XX살(예; 16살, 56살 등)', 'XX세(예; 25세, 73세 등)', 'XX대(예; 10대, 20대 등)'와 같이 설정될 수도 있다.Also, the second information may include desired age information, and the desired age information herein may be an age set (arbitrarily) by a user. For example, the desired age information is 'XX years old (eg 16 years old, 56 years old, etc.)', 'XX years old (eg 25 years old, 73 years old, etc.)', 'XX generations (
그리고, 상기 방법은 희망 시간 정보에 기반하여 챗봇의 외형을 설정하는 단계를 포함할 수 있다(S520).And, the method may include setting the appearance of the chatbot based on the desired time information (S520).
예를 들면, 사용자 단말(120)의 입력 모듈(280)은 카메라 장치를 포함할 수 있으며, 상기 카메라 장치를 통하여 상기 사용자의 외형을 촬영한 영상 및/또는 이미지 정보에서 추출되는 객체를 이용하여 상기 챗봇의 외형을 설정할 수 있으며, 이에 대해서는 도 6의 카메라 모듈에 기반하여 구체적으로 서술하도록 한다.For example, the input module 280 of the
예를 들면, 관리 서버(110)는 희망 시간 정보가 나타내는 시간에 상응하는 외형으로 챗봇의 외형을 변형할 수 있다. 일 예로, 상기 희망 시간 정보가 현재를 기준으로 미래에 해당되는 시간을 나타내는 경우에는, 상기 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 생성된 챗봇의 외형(예; 제1 외형 정보)을 나타내는 정보에 에이징 처리(aging processing)를 하여, 상기 희망 시간 정보에 상응하는 모습인 챗봇의 외형(예; 제2 외형 정보)을 생성하거나 설정할 수 있다. 여기서 에지징 처리는 제1 외형 정보에 주름, 검버섯, 흰머리, 머리카락 개수의 감소, 탈모 등과 같이 사람이 나이가 듬에 따라 얼굴, 피부, 머리카락 등에 생길 수 있는 생체적인 변화를 반영하거나 추가하는 이미지 처리 등을 포함될 수 있다.For example, the management server 110 may transform the appearance of the chatbot into an appearance corresponding to the time indicated by the desired time information. For example, when the desired time information indicates a time corresponding to the future based on the present, the appearance of the chatbot generated based on the video and / or image information captured through the camera device (e.g., first appearance information ), an appearance (eg, second appearance information) of a chatbot corresponding to the desired time information may be created or set. Here, edging processing is image processing that reflects or adds biological changes that may occur to the face, skin, hair, etc. as a person ages, such as wrinkles, age spots, gray hair, reduction in the number of hairs, and hair loss, to the first appearance information. etc. may be included.
그리고, 상기 방법은 제1 정보 및 희망 시간 정보에 기반하여 응답 정보를 생성하는 단계를 포함할 수 있다(S530).And, the method may include generating response information based on the first information and desired time information (S530).
예를 들면, 희망 시간 정보가 나타내는 시간에 상응하는 대상이 해줄 것으로 예상되는 응답 및/또는 답변을 출력으로써 생성할 수 있다.For example, a response and/or an answer expected to be given by an object corresponding to the time indicated by the desired time information may be generated as an output.
그리고, 상기 방법은 상기 생성되는 응답 정보를 상기 설정되는 외형을 갖춘 챗봇을 통하여 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S540).And, the method may include providing the generated response information to a communication platform and/or system through a chatbot having the set appearance (S540).
예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제2 입력이 획득될 수 있다. 그리고 상기 제2 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제3 출력을 생성하면, 관리 서버(110)는 상기 제3 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제4 출력을 생성하고, 상기 챗봇을 통하여 상기 제4 출력이 출력되거나 표시되도록 제어할 수 있다.For example, a user's second input may be obtained through the communication platform and/or system of the present invention. And, when the second input is transmitted to the learned artificial intelligence network model and the learned artificial intelligence network model generates a third output based on the input, the management server 110 generates the chatbot based on the third output. A fourth output that can be output through is generated, and the fourth output can be controlled to be output or displayed through the chatbot.
한편, 상기 S510 내지 S540은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S510 내지 S540 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.Meanwhile, the S510 to S540 may be implemented sequentially, but the order may be changed and implemented, and only some of the S510 to S540 may be implemented in combination with other descriptions (methods) of the present invention.
그리고, 본 발명의 일 실시예는 복수의 챗봇의 외형들을 생성하여 사용자에게 제공하거나 추천하는 특징을 포함할 수도 있다. 예를 들면, 관리 서버(120)는 복수의 추천 시간 정보를 설정할 수 있으며, 상기 복수의 추천 시간 정보 각각에 상응하는 복수의 챗봇의 외형(예; 복수의 제3 외형 정보)을 생성할 수도 있다. 또한 관리 서버(120)는 이와 같이 생성되는 복수의 제3 외형 정보를 사용자 단말(120)에게 전달하여 상기 사용자 단말(120)을 통하여 출력되거나 표시되도록 제어할 수 있다. 또한 관리 서버(120)가 상기 복수의 제3 외형 정보를 사용자 단말(120)에게 전달할 때, 상기 복수의 제3 외형 정보가 블록체인 기술을 통화여 그룹화 및/또는 해시화되어 상기 사용자 단말(120)에게 전달될 수 있으며, 이는 블록체인 모듈(620)에 대하여 후술하는 내용을 참조할 수 있다.In addition, an embodiment of the present invention may include a feature of generating or recommending appearances of a plurality of chatbots to a user. For example, the
그리고, 본 발명의 일 실시예는 희망 시간 정보가 과거에 해당되는 시간을 나타내는 경우, 관리 서버(110)의 저장 모듈(250)에 기록된 사용자의 채팅 기록, 커뮤니케이션 기록 등에 기반하여 제1 출력, 제2 출력, 응답 정보 등을 생성할 수 있다. 또한 인공지능 모듈(310)은 상기 사용자의 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하고, 상기 사용자의 채팅 이력을 추가 학습 데이터로 더 설정하여 상기 인공지능 모듈(310)의 인공지능망 모델을 학습시킬 수 있다. 또한 이렇게 학습된 인공지능망 모델에 기반하여 상기 관리 서버(110)는 사용자의 입력 및/또는 질문 정보에 대한 출력 및/또는 응답 정보를 생성할 수 있으며, 이렇게 생성되는 출력 및/또는 응답 정보는 마치 사용자가 과거에는 어떠한 결정 및/또는 응답을 했었는지(기록) 및/또는 하였을지(추정)에 대한 정보를 획득할 수 있다. 이를 통해 사용자는 과거의 자신과의 대화를 할 수 있는 효과 및/또는 재미를 얻을 수 있다.And, in one embodiment of the present invention, when the desired time information indicates a time corresponding to the past, the first output based on the user's chat record, communication record, etc. recorded in the
또한 본 발명의 출력 및/또는 응답 정보는, 예를 들면, 관리 서버(110) 및 사용자 단말(120)이 아닌 다른 네트워크 노드(미도시)로부터 수신되는 정보에 기반할 수도 있다. 이때 상기 네트워크 노드는 블록체인 노드(block chain node)일 수도 있다. 일 예로, 제1 사용자의 개인 정보가 제1 사용자의 나이를 '32세'로 나타내고, 상기 제1 사용자의 희망 시간 정보가 '10년 뒤'로 설정된 경우, '42세'에 상응하는 다른 사용자(제4 사용자)(및/또는 '42세'에 근접한 나이를 갖는 다른 사용자(제4 사용자))가 사용하는 다른 네트워크 노드(또는 블록체인 노드)에게 제1 사용자가 입력하는 입력(및/또는 질문 정보)를 전달하고, 상기 다른 사용자(제4 사용자)가 상기 입력(및/또는 질문 정보)에 응답하여 답변(및/또는 응답 정보)을 입력하면 이를 수신하여 사용자에게 제공할 수도 있다.Also, the output and/or response information of the present invention may be based on information received from other network nodes (not shown) other than the management server 110 and the
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.6 is a block diagram illustrating a management server of an artificial intelligence-based communication system according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 관리 서버(110)는 인공지능 모듈(310), 카메라 모듈(610), 블록체인 모듈(620), 및/또는 IoT 모듈(630)을 포함한다. 상기 인공지능 모듈(310)에 대한 설명은 도 3 내지 도 5를 참조하여 전술된 내용을 참조한다.Referring to FIG. 6 , the management server 110 of the present invention includes an artificial intelligence module 310, a camera module 610, a blockchain module 620, and/or an IoT module 630. A description of the artificial intelligence module 310 refers to the contents described above with reference to FIGS. 3 to 5 .
인공지능 모듈(310)은 인공지능망 모델에 기반하여 전술한 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다. 또한, 인공지능 모듈(310)은 저장 모듈(250)에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 상기 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다.The artificial intelligence module 310 may generate or set the aforementioned first output and/or second output based on the artificial intelligence network model. In addition, the artificial intelligence module 310 may generate or set the first output and/or the second output by using machine learning on big data stored in the
또한, 인공지능 모듈(310)은 관리 서버(110)의 저장 모듈(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망 모델을 학습시킬 수 있다. 예를 들면, 인공지능 모듈(310)은 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습을 수행할 수 있다. 예를 들면, 인공지능 모듈(310)은 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용하는 제1 사용자 이전에 상기 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용했던 복수의 제3 사용자(즉, 이전 고객들)가 입력한 정보들을 학습데이터로 하여 상기 인공지능망을 학습시킬 수 있다.In addition, the artificial intelligence module 310 may train an artificial intelligence network model by using big data stored in the
일 예로, 인공지능 모듈(310)은 제1 학습 모드(first learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보 및 제1 직업 정보를 제1 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다.For example, the artificial intelligence module 310 may train the artificial intelligence network model according to a first learning mode, and the artificial intelligence module 310 may perform the user's personal information in the first learning mode. And it is possible to learn the artificial intelligence network model by using the first job information as first learning data.
일 예로, 인공지능 모듈(310)은 제2 학습 모드(second learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보, 및 제2 직업 정보 내지 제4 직업 정보를 제2 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다. For example, the artificial intelligence module 310 may train the artificial intelligence network model according to a second learning mode, and the artificial intelligence module 310 may perform the personal information of the user in the first learning mode. , and the second to fourth job information as the second learning data (learning data) to learn the artificial intelligence network model.
예를 들면, 인공지능 모듈(310)은 전술한 바와 같이 학습된 인공지능망에 입력되는 입력(input)(예; 제1 입력, 제2 입력 등)에 기반하여, 상기 학습된 인공지능망 모델로부터 출력(output)(예; 제1 출력, 제2 출력, 제3 출력, 제4 출력 등)을 획득할 수 있다.For example, the artificial intelligence module 310 outputs from the learned artificial intelligence network model based on inputs (eg, first input, second input, etc.) input to the learned artificial intelligence network as described above. (output) (eg, first output, second output, third output, fourth output, etc.) may be obtained.
또한 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.In addition, the artificial intelligence module 310 may calculate weights of a plurality of inputs in the function through deep learning through learning. In addition, various models such as RNN (Recurrent Neural Network), DNN (Deep Neural Network), and DRNN (Dynamic Recurrent Neural Network) can be used as artificial intelligence network models used for such learning.
여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.Here, RNN is a deep learning technique that simultaneously considers current data and past data, and recurrent neural network (RNN) represents a neural network in which connections between units constituting an artificial neural network constitute a directed cycle. Furthermore, various methods can be used for the structure capable of configuring the recurrent neural network (RNN), for example, a Fully Recurrent Network, a Hopfield Network, an Elman Network, ESN (Echo state network), long short term memory network (LSTM), bi-directional RNN, continuous-time RNN (CTRNN), hierarchical RNN, and quadratic RNN are representative examples. In addition, as a method for learning a recurrent neural network (RNN), methods such as gradient descent, Hessian Free Optimization, and Global Optimization Method may be used.
카메라 모듈(610)은 사용자 단말(120)의 입력 모듈(280)에 포함되는 카메라 장치를 통하여 촬영되는 영상 및/또는 획득되는 이미지 정보(예; 정적 이미지, 동적 이미지 등)을 수신하거나 획득할 수 있다.The camera module 610 may receive or obtain an image captured and/or obtained image information (eg, a static image, a dynamic image, etc.) through a camera device included in the input module 280 of the
카메라 모듈(610)은 획득된 영상 및/또는 이미지 정보 내에 포함되는 객체를 추출함으로써 제1 객체 정보를 획득할 수 있다. 카메라 모듈(610)은 HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여, 상기 카메라 장치를 통하여 획득되는 영상(및/또는 이미지 정보)에서 영상 내 객체의 윤곽선 또는 상기 객체에서 추출할 수 있는 글씨(또는 정보를 나타내는 윤곽선(또는 외형))를 획득할 수 있다. 또한 카메라 모듈(610)은 획득한 영상(및/또는 이미지 정보)에서 객체를 영상 분석을 통해 인식(또는 식별)하고, 상기 인식된 객체에 대응되는 영역을 마스킹 처리하여 마스킹 영상 정보를 생성할 수 있다. 이때 마스킹 처리 과정은, 예를 들면, 차분영상 방법, GMM(Gaussian Mixture Models)을 이용하는 MOG(Model of Gaussian) 알고리즘, 코드북(Codebook) 알고리즘 등과 같은 객체와 배경을 분리하기 위한 배경 모델링을 통해 객체에 해당하는 객체 후보 영역을 추출하는 방법을 이용함으로써 제1 객체 정보를 추출 및/또는 획득할 수 있다.The camera module 610 may obtain first object information by extracting an object included in the obtained image and/or image information. The camera module 610 uses various algorithms for extracting object features such as Histogram of Oriented Gradient (HOG), Haar-like feature, Co-occurrence HOG, local binary pattern (LBP), and features from accelerated segment test (FAST). , From the image (and/or image information) obtained through the camera device, an outline of an object in an image or a text (or an outline (or shape) representing information) that can be extracted from the object may be obtained. In addition, the camera module 610 may recognize (or identify) an object from the acquired image (and/or image information) through image analysis, and mask a region corresponding to the recognized object to generate masking image information. there is. At this time, the masking process is, for example, a difference image method, a model of Gaussian (MOG) algorithm using GMM (Gaussian Mixture Models), a codebook algorithm, etc. First object information may be extracted and/or acquired by using a method of extracting a corresponding object candidate region.
또한 카메라 모듈(610)은 카메라 장치를 통하여 복수의 영상(및/또는 복수의 이미지 정보)를 획득할 수 있으며, 상기 복수의 영상(및/또는 복수의 이미지 정보) 내에 포함되는 객체를 추출하는 과정을 반복함으로써 복수의 제1 객체 정보를 획득할 수도 있다.In addition, the camera module 610 may acquire a plurality of images (and/or a plurality of image information) through the camera device, and a process of extracting an object included in the plurality of images (and/or a plurality of image information) A plurality of pieces of first object information may be obtained by repeating.
일 예로, 상기 인공지능 모듈(610)은 상기 복수의 제1 객체 정보를 학습 데이터로서 더 고려하여 상기 인공지능망 모델을 더 학습시킬 수 있다.For example, the artificial intelligence module 610 may further learn the artificial intelligence network model by further considering the plurality of first object information as learning data.
다른 예로, 상기 인공지능 모듈(610)은 제1 인공지능망 모델과 제2 인공지능망 모델을 포함할 수 있으며, 사용자의 제1 정보 및/또는 제2 정보를 제1 학습 데이터로서 이용하여 상기 제1 인공지능망 모델을 학습시키고, 상기 복수의 제1 객체 정보를 학습 데이터로서 이용하여 상기 제2 인공지능망 모델을 학습시킬 수 있다. 이때 관리 서버(110)는 상기 (학습된) 제1 인공지능망 모델을 이용하여 전술한 제1 출력 내지 제4 출력 중 적어도 어느 하나를 생성할 수 있으며, 상기 (학습된) 제2 인공지능망 모델을 이용하여 챗봇(10)의 외형을 설정하거나 재설정(또는 업데이트)할 수 있다.As another example, the artificial intelligence module 610 may include a first artificial intelligence network model and a second artificial intelligence network model, and may use the user's first information and/or second information as first learning data to perform the first learning data. The artificial intelligence network model may be trained, and the second artificial intelligence network model may be trained by using the plurality of first object information as training data. At this time, the management server 110 may generate at least one of the first to fourth outputs using the (learned) first artificial intelligence network model, and the (learned) second artificial intelligence network model. You can set or reset (or update) the appearance of the
블록체인 모듈(620)은 전술한 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보가 블록체인 기술에 기반하여 사용자 단말(120) 및/또는 다른 네트워크 노드에게 전달될 수 있도록, 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보에 기반하여 적어도 하나의 블록 데이터를 생성할 수 있다. 상기 블록체인 모듈(620)에 의해 생성되는 적어도 하나의 블록 데이터는 통신 모듈(220)을 통하여 사용자 단말(120)에게 전달될 수 있다. 또한 상기 관리 서버(110)는 상기 적어도 하나의 블록 데이터에 포함된 적어도 하나의 요소들을 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장할 수 있다.The blockchain module 620 is a
일반적으로 블록 체인(block chain)은 P2P(peer-to-peer) 네트워크에 의해 생성되고 관리되는 위조 및/또는 변조 불가능한 분산 저장소이다. 블록 체인은 트랜잭션(쌍방간의 쪼갤 수 없는 단위 작업)으로 생성된 데이터 블록들을 체인(chain) 형태로 잇따라 연결한 모음을 의미한다. 이전 블록에 다름 블록을 연이어 암호화하고 과반수가 넘는 사용자가 동의한 데이터를 실제 데이터로 인정하기 때문에, 한번 기록된 데이터는 위조 및/또는 변조가 불가능하다. 블록 체인의 대표적인 응용사례는 암호화폐의 거래 과정을 기록하는 분산화된 전자 화폐인 비트코인(bitcoin)이 있다. 블록 체인에는 일정 시간 동안 사용자들 간에 발생되는 확정된 거래 내역이 저장될 수 있다. 그리고, 많은 사용자들은 블록 체인 사본을 각자 갖고 있으며, 거래 내역은 모두에게 공개될 수 있다. 이와 같이, 과반수가 넘는 사용자가 동의한 거래 내역만 실제 데이터로 인정되고, 영구적으로 보관할 블록으로 묶여 저장될 수 있다.In general, a block chain is a tamper-proof distributed storage created and managed by a peer-to-peer (P2P) network. Block chain refers to a collection of data blocks created by transactions (indivisible unit operations between both parties) connected one after another in the form of a chain. Since the previous block is successively encrypted and the data agreed upon by more than half of the users is recognized as real data, data once recorded cannot be forged and/or tampered with. A typical application of block chain is bitcoin, a decentralized electronic currency that records the transaction process of cryptocurrency. Confirmed transaction details occurring between users for a certain period of time can be stored in the block chain. And, many users each have their own copy of the block chain, and transaction details can be made public to everyone. In this way, only the transaction details agreed upon by more than half of the users are recognized as actual data, and can be stored in a block to be permanently stored.
한편, 본 발명의 관리 서버(110), 사용자 단말(120), 및 다른 네트워크 노드 각각은 블록체인을 포함하거나 블록 데이터를 제어할 수 있는 블록체인 노드일 수 있다. 예를 들면, 관리 서버(110)는 사용자 단말(120)로부터 수신되는(또는 사용자 단말(120)을 통하여 획득되는) 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화 및/또는 해시(hash)하여 블록 체인에 저장한 후 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 대한 위조 및/또는 변조를 검증하거나 판단할 수 있다. 일 예로, 블록체인 모듈(620)은 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 기반하여 머클 해쉬(Merkle hash)를 포함하는 사용자 정보 블록 데이터(matching score block data)를 생성하고, 상기 생성된 머클 해쉬가 포함되도록 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화할 수 있다.On the other hand, each of the management server 110, the
관리 서버(110)는 미리 결정된 시간 및 상기 저장된 매칭 점수를 나타내는 정보의 개수 중 적어도 하나에 기반하여 상기 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장된 적어도 하나의 요소와 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 포함된 적어도 하나의 요소를 비교하여 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성을 검증할 수 있다. 상기 관리 서버(110)는 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 무결성하지 않는 경우, 출력 모듈(240, 290)을 통해 상기 무결성 여부를 출력할 수 있다. The management server 110 includes at least one element stored in a blockchain (not shown) implemented in the
관리 서버(110)는 상기 저장 모듈(250)에 저장된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 위조 및/또는 변조되거나 손상된 경우, 상기 관리 서버(110)를 관리하는 관리자(예; 제2 사용자)가 이러한 사항을 알 수 있도록 출력 모듈(240)을 통해 상기 무결성 여부를 출력할 수 있다. 상기 제어 모듈(210)는 상기 저장된 블록체인의 무결성 여부를 판단하기 위한 증명서(certificate)를 생성하여 상기 사용자 단말(120) 및/또는 다른 블록체인 노드에게 전송할 수 있다. 상기 증명서는 상기 저장된 상기 그룹화된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 포함할 수 있다. 상기 증명서는 관리 서버(110)가 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성 여부를 판단하는데 이용될 수 있다.The management server 110 stores information representing the first information, second information, first to fourth inputs, first outputs, second outputs, etc. stored in the
그리고 블록체인 모듈(620)은 사용자가 사용자 단말(120)을 통하여 입력하는 복수의 입력 및/또는 복수의 질문 정보에 상응하는 프라이버시 레벨(privacy level)에 기반하여, 상기 입력 및/또는 질문 정보를 i) 해시화 및/또는 그룹화 하여 해쉬 데이터 형태로 다른 네트워크 노드에게 전달하거나 ii) 해시화 및/또는 그룹화 과정을 생략하고 상기 입력 및/또는 질문 정보를 그대로 다른 네트워크 노드에게 전달할 수 있다. 이는 사용자의 프라이버시와 관련되는 정보는 블록체인 기술을 적용하여(또는 변형/변환하여) 다른 네트워크 노드에게 전달하여 사용자의 프라이버시 보호 및/또는 개인 정보 보호를 도모하되, 그렇지 않는 정보의 경우 별다른 변형/변환 없이 다른 네트워크 노드에게 불필요한 과정을 생략하여 에너지 자원 및/또는 처리 시간 자원 등을 절약하는 기술적인 효과를 기대할 수 있다.In addition, the blockchain module 620 converts the input and/or question information based on a privacy level corresponding to the plurality of inputs and/or the plurality of question information input by the user through the
IoT 모듈(630)은 IoT 기술에 기반하여 본 발명에서 필요로 하는 각종 정보 및/또는 신호를 입력 받기 위해, 및/또는 본 발명에서 생성되는 각종 정보 및/또는 신호를 출력하기 위해, 상기 사용자 단말(120) 및/또는 다른 네트워크 노드(미도시)와 통신을 수행하기 위한 정보의 변형을 할 수 있다. 일 예로, 상기 IoT 모듈(630)은 통신 모듈(220)에 포함되거나, 상기 통신 모듈(220)로서 구현될 수 있다.The IoT module 630 is the user terminal in order to receive various information and/or signals required by the present invention based on IoT technology and/or to output various information and/or signals generated in the present invention. 120 and/or information to perform communication with other network nodes (not shown) may be modified. For example, the IoT module 630 may be included in the
그리고, 관리 서버(110)는 사용자 단말(120)의 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보를 상기 사용자 단말(120)로부터 수신하고, 상기 잔류 전력 정보와 소정의 임계값 사이의 비교 결과에 기반하여 챗봇(10)의 외형에 대한 정보를 상이하게 생성(및/또는 표시)하거나 및/또는 챗봇(10)이 출력 및/또는 응답 정보를 출력하는 방식을 상이하게 선택(및/또는 설정)하도록 제어할 수 있다. 이를 위해 사용자 단말(120)은 상기 사용자 단말(120))의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)를 상기 관리 서버(110)에게 전송할 수 있으며, 상기 관리 서버(110)의 통신 모듈(220)는 상기 사용자 단말(120)의 잔류 전력 정보를 수신할 수 있다.Then, the management server 110 receives residual power information representing the residual power of the internal battery of the
상기 관리 서버(110)(및/또는 제어 모듈(210))는 잔류 전력에 대한 제1 임계값, 상기 제1 임계값보다 낮은 제2 임계값을 설정할 수 있다(예; 제1 임계값 - 70%, 제2 임계값 - 30%).The management server 110 (and/or the control module 210) may set a first threshold value for residual power and a second threshold value lower than the first threshold value (eg, the first threshold value - 70). %, second threshold - 30%).
예를 들면 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)가 상기 제1 임계값보다 높은 전력을 나타내는 경우, 상기 사용자 단말(120)가 제1 동작 모드로서 동작하도록 제어할 수 있다. 상기 제1 동작 모드는 사용자의 얼굴을 촬영하여 생성되는 3차원 캐릭터와 광고와 관련되어 생성되는 3차원 이미지를 함께 출력하는 모드일 수 있다. 예를 들면, 상기 제1 동작 모드의 경우 상기 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 상기 사용자 단말(120)의 사용자의 얼굴을 촬영하여 사용자 얼굴에 대한 이미지 정보를 획득하고, 상기 사용자 얼굴에 대한 이미지 정보에 기반하여 챗봇(10)의 외형에 대한 정보 나타내는 정보(예를 들어, 챗봇(10)의 형태, 색상 또는 텍스처 중 적어도 하나)를 생성하거나 상기 3차원 캐릭터의 외형을 결정할 수 있다. 예를 들면, 제1 동작 모드로 동작하는 경우에는 상기 사용자 얼굴에 대한 이미지 정보를 렌더링 한 후에, 렌더링된 결과에 기반하여 상기 챗봇(10)의 외형에 대한 정보를 생성할 수 있다. 즉, 본 발명의 관리 서버(110)는 사용자의 얼굴을 2차원 또는 3차원 이미지화한 외형의 챗봇(10)이 사용자 단말을 통하여 표시되도록 제어할 수 있다.For example, the management server 110, when information indicating the residual power of the user terminal 120 (ie, residual power information) indicates power higher than the first threshold value, the
또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제1 임계값 미만 상기 제2 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제2 동작 모드로서 동작하도록 제어할 수 있다. 상기 제2 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 이와 같이 제2 동작 모드는 카메라 장치를 통하여 사용자의 얼굴을 촬영하는 과정을 생략하기에, 상기 제1 동작 모드에 비하여 저전력 모드라고 볼 수 있다.In addition, when the remaining power information of the
또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제2 임계값 미만 상기 제3 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제3 동작 모드로서 동작하도록 제어할 수 있다. 상기 제3 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 또한 상기 제3 동작 모드로 설정되는 경우 제어 모듈(210) 및/또는 인공지능 모듈(310)에 의해 생성되는 출력 및/또는 응답 정보는 일종의 텍스트 메시지(예; 말풍선) 및/또는 기 녹음된 음성 만을 표시하거나 출력하는 모드일 수 있다. 다시 말해 TTS와 같은 음성 합성 과정이 생략될 수 있다. 일 예로, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보가 TTS 및/또는 음성 합성 시스템 등이 적용되지 않고, 텍스트 형태로 및/또는 상기 텍스트에 상응하는 기 녹음된 정보만이 사용자 단말을 통하여 출력될 수 있다.In addition, when the remaining power information of the
이와 같이 제3 동작 모드는, 사용자의 얼굴을 촬영하여 실시간으로 챗봇(10)의 외형에 대한 정보 생성하거나 렌더링하는 것이 아닌, 기 설정되는 챗봇(10)의 외형에 대한 정보 출력하기에 상기 제1 동작 모드 및 상기 제2 동작 모드에 비해 저전력 모드로서 구현될 수 있다.In this way, the third operation mode is to output information about the appearance of the
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명의 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한 상기 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 본 발명의 모든 실시예는 일부분들이 서로 조합되어 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등에 의해 구현될 수 있다.Embodiments of the present invention disclosed in this specification and drawings are only presented as specific examples to easily explain the technical content of the present invention and help understanding of the present invention, and are not intended to limit the scope of the present invention. That is, it is obvious to those skilled in the art that other modifications based on the technical idea of the present invention can be implemented. In addition, each of the above embodiments may be operated in combination with each other as needed. For example, all embodiments of the present invention may be implemented by the
또한, 본 발명에 따른 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등을 제어하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.In addition, the method for controlling the
이와 같이, 본 발명의 다양한 실시예들은 특정 관점에서 컴퓨터 리드 가능 기록 매체(computer readable recording medium)에서 컴퓨터 리드 가능 코드(computer readable code)로서 구현될 수 있다. 컴퓨터 리드 가능 기록 매체는 컴퓨터 시스템에 의해 리드될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 컴퓨터 리드 가능 기록 매체의 예들은 읽기 전용 메모리(read only memory: ROM)와, 랜덤-접속 메모리(random access memory: RAM)와, 컴팩트 디스크- 리드 온니 메모리(compact disk-read only memory: CD-ROM)들과, 마그네틱 테이프(magnetic tape)들과, 플로피 디스크(floppy disk)들과, 광 데이터 저장 디바이스들, 및 캐리어 웨이브(carrier wave)들(인터넷을 통한 데이터 송신 등)을 포함할 수 있다. 컴퓨터 리드 가능 기록 매체는 또한 네트워크 연결된 컴퓨터 시스템들을 통해 분산될 수 있고, 따라서 컴퓨터 리드 가능 코드는 분산 방식으로 저장 및 실행된다. 또한, 본 발명의 다양한 실시예들을 성취하기 위한 기능적 프로그램들, 코드, 및 코드 세그먼트(segment)들은 본 발명이 적용되는 분야에서 숙련된 프로그래머들에 의해 쉽게 해석될 수 있다.As such, various embodiments of the present invention may be implemented as computer readable codes in a computer readable recording medium from a specific point of view. A computer readable recording medium is any data storage device capable of storing data readable by a computer system. Examples of computer readable recording media include read only memory (ROM), random access memory (RAM), and compact disk-read only memory (CD-ROM). ), magnetic tapes, floppy disks, optical data storage devices, and carrier waves (such as data transmission over the Internet). The computer readable recording medium may also be distributed across networked computer systems, so that computer readable code is stored and executed in a distributed manner. In addition, functional programs, code, and code segments for achieving various embodiments of the present invention can be easily interpreted by programmers skilled in the field to which the present invention is applied.
또한 본 발명의 다양한 실시예들에 따른 장치 및 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 콤팩트 디스크(compact disk: CD), DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 다양한 실시예들에 따른 방법은 제어부(제어 모듈(210, 260)) 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 이러한 메모리는 본 발명의 실시예들을 구현하는 명령들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. It will also be appreciated that the apparatus and method according to various embodiments of the present invention can be realized in the form of hardware, software, or a combination of hardware and software. Such software may include, for example, volatile or non-volatile storage devices such as ROM, whether removable or rewritable, or memory, such as RAM, memory chips, devices or integrated circuits, or For example, it may be stored in an optically or magnetically recordable and machine (eg, computer) readable storage medium such as a compact disk (CD), DVD, magnetic disk, or magnetic tape. Methods according to various embodiments of the present invention may be implemented by a computer or portable terminal including a control unit (
따라서, 본 발명은 본 명세서의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.Accordingly, the present invention includes a program including code for implementing the device or method described in the claims of this specification and a storage medium readable by a machine (such as a computer) storing such a program. In addition, such a program may be transmitted electronically through any medium, such as a communication signal transmitted through a wired or wireless connection, and the present invention appropriately includes equivalents thereto.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고, 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 또한 앞서 설명된 본 발명에 따른 실시예들은 예시적인 것에 불과하며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.The embodiments of the present invention disclosed in the present specification and drawings are only presented as specific examples to easily explain the technical content of the present invention and help understanding of the present invention, and are not intended to limit the scope of the present invention. In addition, the embodiments according to the present invention described above are merely illustrative, and those skilled in the art will understand that various modifications and embodiments of equivalent range are possible therefrom. Therefore, the true technical protection scope of the present invention should be defined by the following claims.
Claims (1)
상기 챗봇 서비스를 이용하는 제1 사용자의 제1 사용자 단말; 및
상기 챗봇 서비스를 상기 사용자에게 제공하기 위한 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버; 를 포함하고,
상기 제1 사용자 단말은,
상기 제1 사용자 단말의 내부 배터리의 잔량을 나타내는 전력 정보를 상기 제1 사용자 단말로부터 수신하고,
상기 제1 사용자의 외형에 상응하는 제1 이미지 정보를 설정하되, 상기 전력 정보가 임계치 이상을 나타내는 경우에는 카메라를 이용하여 상기 제1 사용자의 외형을 촬영하고 모델링(modeling) 또는 렌더링(rendering) 중 적어도 어느 하나를 수행함으로써 상기 제1 이미지 정보를 생성하는 제1 모드가 설정되고, 상기 전력 정보가 상기 임계치 미만을 나타내는 경우에는 상기 관리 서버에 기 설정된 3차원 캐릭터를 상기 제1 이미지 정보로써 설정하는 제2 모드가 설정되고,
명령어 음성을 입력 모듈을 통하여 상기 제1 사용자로부터 입력 받고,
상기 제1 사용자의 나이를 나타내는 개인정보를 상기 제1 사용자로부터 입력 받고,
상기 제1 이미지 정보 및 상기 명령어 음성을 상기 관리 서버에게 전달하고, - 상기 명령어 음성은, 상기 명령어 음성이 나타내는 질문에 대한 응답의 시간 기준을 나타내는 희망시간을 포함함 -
상기 관리 서버는,
상기 명령어 음성으로부터 상기 명령어 음성이 나타내는 질문에 상응하는 제1 텍스트를 추출하고,
상기 제1 텍스트로부터 상기 희망시간을 나타내는 정보를 추출하고,
상기 제1 이미지 정보가 나타내는 상기 제1 사용자의 외형이 상기 희망시간 만큼 노화된(aging) 모습을 나타내는 제2 이미지 정보로 변환하고, - 상기 노화된 모습은 상기 희망시간에 비례하여 주름, 검버섯, 흰머리의 개수 및 탈모의 정도가 증가된 모습으로 설정됨 -
상기 제1 텍스트를, 상기 제1 사용자의 나이와 상기 희망시간에 기반하여 결정되는 나이를 갖는 제2 사용자의 제2 사용자 단말에게 전달하고,
상기 제1 텍스트가 나타내는 상기 질문에 대한 상기 제2 사용자의 응답을 나타내는 제2 텍스트를 상기 제2 사용자 단말로부터 수신하고,
상기 제2 텍스트를 TTS(Text to Speech)에 적용함으로써 상기 응답에 상응하는 음성이 상기 챗봇 서비스를 통하여 상기 제1 사용자 단말에서 출력(output)되도록 제어하되, 상기 제2 이미지 정보에 기반하여 외형이 결정되는 상기 챗봇 서비스를 위한 캐릭터 객체가 상기 제1 사용자 단말의 디스플레이에서 표시되도록 제어하는 것을 특징으로 하는,
커뮤니케이션 시스템.In a communication system providing a chatbot service,
A first user terminal of a first user using the chatbot service; and
A management server that operates at least one of software, programs, websites, and mobile apps for using a communication platform for providing the chatbot service to the user; including,
The first user terminal,
Receiving power information indicating a remaining amount of an internal battery of the first user terminal from the first user terminal;
First image information corresponding to the appearance of the first user is set, but when the power information indicates a threshold or higher, the appearance of the first user is photographed using a camera and modeling or rendering is performed. A first mode for generating the first image information is set by performing at least one, and when the power information indicates less than the threshold, setting a three-dimensional character preset in the management server as the first image information A second mode is set,
receiving a command voice from the first user through an input module;
receiving personal information representing the age of the first user from the first user;
Delivering the first image information and the voice command to the management server, -The voice command includes a desired time indicating a time reference for a response to a question indicated by the voice command -
The management server,
Extracting a first text corresponding to a question indicated by the command voice from the command voice;
Extracting information indicating the desired time from the first text;
Converting the appearance of the first user represented by the first image information into second image information representing an aged appearance by the desired time; The number of gray hairs and the degree of hair loss are set to increase -
Delivering the first text to a second user terminal of a second user whose age is determined based on the age of the first user and the desired time;
Receiving second text indicating a response of the second user to the question indicated by the first text from the second user terminal;
By applying the second text to Text to Speech (TTS), the voice corresponding to the response is controlled to be output from the first user terminal through the chatbot service, and the appearance is based on the second image information Characterized in that the character object for the determined chatbot service is controlled to be displayed on the display of the first user terminal,
communication system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230065934A KR20230079321A (en) | 2020-07-16 | 2023-05-22 | Communication system providing chatbot service |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200088106A KR20220010632A (en) | 2020-07-16 | 2020-07-16 | Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler |
KR1020210064367A KR102536992B1 (en) | 2020-05-18 | 2021-05-18 | Communication system providing chatbot service |
KR1020230065934A KR20230079321A (en) | 2020-07-16 | 2023-05-22 | Communication system providing chatbot service |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210064367A Division KR102536992B1 (en) | 2020-05-18 | 2021-05-18 | Communication system providing chatbot service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230079321A true KR20230079321A (en) | 2023-06-07 |
Family
ID=80049320
Family Applications (14)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200088106A KR20220010632A (en) | 2020-07-16 | 2020-07-16 | Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler |
KR1020210101100A KR20220009921A (en) | 2020-07-16 | 2021-08-02 | construction, cleaning drone, airplane |
KR1020210101102A KR20220009923A (en) | 2020-07-16 | 2021-08-02 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
KR1020210101101A KR20220009922A (en) | 2020-07-16 | 2021-08-02 | Separator, crusher, treatment facility |
KR1020210101099A KR20220009920A (en) | 2020-07-16 | 2021-08-02 | Drone, airplane and construction, cleaning method |
KR1020210101097A KR20220009919A (en) | 2020-07-16 | 2021-08-02 | Drone and construction, cleaning method |
KR1020210187081A KR20220020798A (en) | 2020-07-16 | 2021-12-24 | Drone, equipment, cleaner and cleaning, washing, purification method |
KR1020210187091A KR20220016449A (en) | 2020-07-16 | 2021-12-24 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
KR1020220104772A KR20220122580A (en) | 2020-07-16 | 2022-08-22 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
KR1020230065934A KR20230079321A (en) | 2020-07-16 | 2023-05-22 | Communication system providing chatbot service |
KR1020230068807A KR20230079342A (en) | 2020-07-16 | 2023-05-30 | Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler |
KR1020230142936A KR20230152628A (en) | 2020-07-16 | 2023-10-24 | Purifier, water purifier, filter purifier, electrolysis purifier |
KR1020240013038A KR20240017049A (en) | 2020-07-16 | 2024-01-29 | Cleaner, washer, sprayer, clarifier, purifier, collector, separator, treater |
KR1020240037759A KR20240038954A (en) | 2020-07-16 | 2024-03-19 | Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler |
Family Applications Before (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200088106A KR20220010632A (en) | 2020-07-16 | 2020-07-16 | Air, mist, phyton type booth, door, pasage, curtain, tower, sprayer, shower, cleaner, ventilator, sprinkler |
KR1020210101100A KR20220009921A (en) | 2020-07-16 | 2021-08-02 | construction, cleaning drone, airplane |
KR1020210101102A KR20220009923A (en) | 2020-07-16 | 2021-08-02 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
KR1020210101101A KR20220009922A (en) | 2020-07-16 | 2021-08-02 | Separator, crusher, treatment facility |
KR1020210101099A KR20220009920A (en) | 2020-07-16 | 2021-08-02 | Drone, airplane and construction, cleaning method |
KR1020210101097A KR20220009919A (en) | 2020-07-16 | 2021-08-02 | Drone and construction, cleaning method |
KR1020210187081A KR20220020798A (en) | 2020-07-16 | 2021-12-24 | Drone, equipment, cleaner and cleaning, washing, purification method |
KR1020210187091A KR20220016449A (en) | 2020-07-16 | 2021-12-24 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
KR1020220104772A KR20220122580A (en) | 2020-07-16 | 2022-08-22 | Drone, booth, gate, cleaner, sprayer, shower, ventilator, sprinkler |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230068807A KR20230079342A (en) | 2020-07-16 | 2023-05-30 | Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler |
KR1020230142936A KR20230152628A (en) | 2020-07-16 | 2023-10-24 | Purifier, water purifier, filter purifier, electrolysis purifier |
KR1020240013038A KR20240017049A (en) | 2020-07-16 | 2024-01-29 | Cleaner, washer, sprayer, clarifier, purifier, collector, separator, treater |
KR1020240037759A KR20240038954A (en) | 2020-07-16 | 2024-03-19 | Cleaner, washer, sprayer, clarifier, shower, collector, separator, treater, ventilator, sprinkler |
Country Status (1)
Country | Link |
---|---|
KR (14) | KR20220010632A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102603035B1 (en) * | 2023-06-23 | 2023-11-15 | 김민수 | AI-based virtual chatbot operating system |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102594886B1 (en) * | 2022-02-28 | 2023-10-27 | 주식회사 한국산업기술원 | IoT based things, vest, helmet, band, watch, form, scaffold, excavator, pumpcar, portable, crane, tripod and works, construction, management, method, system |
CN115364250B (en) * | 2022-07-25 | 2023-09-05 | 福寿堂制药有限公司 | Far infrared sterilization equipment and sterilization process for ginseng and antler tonic paste preparation |
KR102689683B1 (en) * | 2022-10-07 | 2024-07-30 | 주식회사 힘펠 | Air conditioning system for entrance |
CN115957355B (en) * | 2022-12-20 | 2023-12-01 | 兰立生物科技(苏州)有限公司 | Animal experiment center protection device, system and method based on air flow regulation barrier |
CN118001437B (en) * | 2024-04-09 | 2024-06-21 | 齐齐哈尔市中医医院(齐齐哈尔市第三医院、黑龙江中医药大学齐齐哈尔临床医学院) | Surgical instrument disinfection nursing device |
CN118289489B (en) * | 2024-05-07 | 2024-09-10 | 江苏禾泰玻璃科技有限公司 | Glass material block conveying device for microfiber glass wool production |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102030803B1 (en) | 2017-05-17 | 2019-11-08 | 주식회사 에이아이리소프트 | An appratus and a method for processing conversation of chatter robot |
-
2020
- 2020-07-16 KR KR1020200088106A patent/KR20220010632A/en not_active Application Discontinuation
-
2021
- 2021-08-02 KR KR1020210101100A patent/KR20220009921A/en not_active Application Discontinuation
- 2021-08-02 KR KR1020210101102A patent/KR20220009923A/en not_active Application Discontinuation
- 2021-08-02 KR KR1020210101101A patent/KR20220009922A/en not_active Application Discontinuation
- 2021-08-02 KR KR1020210101099A patent/KR20220009920A/en not_active Application Discontinuation
- 2021-08-02 KR KR1020210101097A patent/KR20220009919A/en not_active Application Discontinuation
- 2021-12-24 KR KR1020210187081A patent/KR20220020798A/en not_active Application Discontinuation
- 2021-12-24 KR KR1020210187091A patent/KR20220016449A/en not_active Application Discontinuation
-
2022
- 2022-08-22 KR KR1020220104772A patent/KR20220122580A/en active Application Filing
-
2023
- 2023-05-22 KR KR1020230065934A patent/KR20230079321A/en active Application Filing
- 2023-05-30 KR KR1020230068807A patent/KR20230079342A/en active Application Filing
- 2023-10-24 KR KR1020230142936A patent/KR20230152628A/en not_active Application Discontinuation
-
2024
- 2024-01-29 KR KR1020240013038A patent/KR20240017049A/en active Application Filing
- 2024-03-19 KR KR1020240037759A patent/KR20240038954A/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102030803B1 (en) | 2017-05-17 | 2019-11-08 | 주식회사 에이아이리소프트 | An appratus and a method for processing conversation of chatter robot |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102603035B1 (en) * | 2023-06-23 | 2023-11-15 | 김민수 | AI-based virtual chatbot operating system |
Also Published As
Publication number | Publication date |
---|---|
KR20220010632A (en) | 2022-01-26 |
KR20240017049A (en) | 2024-02-06 |
KR20220122580A (en) | 2022-09-02 |
KR20220009921A (en) | 2022-01-25 |
KR20220020798A (en) | 2022-02-21 |
KR20220016449A (en) | 2022-02-09 |
KR20220009923A (en) | 2022-01-25 |
KR20220009922A (en) | 2022-01-25 |
KR20230152628A (en) | 2023-11-03 |
KR20220009919A (en) | 2022-01-25 |
KR20240038954A (en) | 2024-03-26 |
KR20230079342A (en) | 2023-06-07 |
KR20220009920A (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20230079321A (en) | Communication system providing chatbot service | |
US12035005B2 (en) | Sensitivity assessment for media production using artificial intelligence | |
Juska | Integrated marketing communication: advertising and promotion in a digital world | |
Mohammad | Artificial intelligence in information technology | |
KR102270217B1 (en) | Blockchain system that generates job seeker information based on commute time | |
KR102166371B1 (en) | APPARATUS AND METHOD FOR ARTIFICIAL INTELLIGENCE MARKETING BASED ON Internet-of-Things | |
KR102176249B1 (en) | Server for managing online service providing customized commercial platform and system thereof | |
Garon | A practical introduction to generative AI, synthetic media, and the messages found in the latest medium | |
KR102585298B1 (en) | system that provides a gallery platform based on virtual reality technology | |
Murphy et al. | AI: A museum planning toolkit | |
KR20200031959A (en) | Method for evaluating social intelligence and apparatus using the same | |
KR102536992B1 (en) | Communication system providing chatbot service | |
KR102176151B1 (en) | Server for providing commercial platform including artificial intelligence module and block chain module | |
KR102176268B1 (en) | Method for providing customized commercial information based on matching point and system thereof | |
Marko | Applying generative AI and large language models in business applications | |
Schmitt et al. | The role of AI-based artifacts’ voice capabilities for agency attribution | |
KR102176256B1 (en) | management server and method for generating information representing a plurality of recommended advertisement companies and outputting them through a user terminal | |
KR102176290B1 (en) | Method for providing marketing information including matching information and system thereof | |
KR102176242B1 (en) | System including user terminal and server related to advertisement platform recommending advertisement company | |
KR102317579B1 (en) | Server providing commercial platform and system thereof | |
KR20210136403A (en) | Smart system for searching of advertisement company based on big data | |
KR20210136527A (en) | Network entity for advertisement recommendation service based on artificial neural network model learned using private information and career information of user | |
KR102176245B1 (en) | SERVER AND METHOD for generating information representing a plurality of recommended advertisement companies and providing them to terminal | |
KR102176259B1 (en) | Control device for generating advertisment information based on artificial intelligence and block chain technology | |
KR102176251B1 (en) | method and system for providing online advertisement service that provides advertisement information to users by advertisement category |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |