KR20210142560A - 챗봇 서비스를 제공하는 커뮤니케이션 시스템 - Google Patents
챗봇 서비스를 제공하는 커뮤니케이션 시스템 Download PDFInfo
- Publication number
- KR20210142560A KR20210142560A KR1020210064367A KR20210064367A KR20210142560A KR 20210142560 A KR20210142560 A KR 20210142560A KR 1020210064367 A KR1020210064367 A KR 1020210064367A KR 20210064367 A KR20210064367 A KR 20210064367A KR 20210142560 A KR20210142560 A KR 20210142560A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- user terminal
- management server
- artificial intelligence
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 69
- 230000004044 response Effects 0.000 claims abstract description 37
- 210000004209 hair Anatomy 0.000 claims description 4
- 201000004384 Alopecia Diseases 0.000 claims description 2
- 230000032683 aging Effects 0.000 claims description 2
- 208000024963 hair loss Diseases 0.000 claims description 2
- 230000003676 hair loss Effects 0.000 claims description 2
- 238000009877 rendering Methods 0.000 claims description 2
- 230000037303 wrinkles Effects 0.000 claims description 2
- 230000003718 aged appearance Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 105
- 238000007726 management method Methods 0.000 description 73
- 238000000034 method Methods 0.000 description 52
- 238000003860 storage Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000000306 recurrent effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 101800001244 Histidine-rich basic peptide Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007688 edging Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
본 발명은 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템에 관한 것이다.
또한 본 발명은 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템에 관한 것이다.
또한 본 발명은 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템에 관한 것이다.
Description
본 발명은 챗봇 서비스를 제공하는 커뮤니케이션 시스템에 관한 것이다.
또한 본 발명은 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템에 관한 것이다.
또한 본 발명은 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템에 관한 것이다.
일반적으로 개인비서 시스템, 챗봇 플랫폼(chatbot platform), 인공지능(AI) 스피커 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.
주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.
특허등록공보 제10-2030803호에는 챗봇의 대화처리장치 및 그 방법이 개시되어 있다.
상기 문헌에서 하나 이상의 사용자 단말과 네트워크를 통해 연결되며, 상기 사용자 단말로 질문을 제공하고 상기 사용자 단말로부터 전송되는 답변 음성을 처리하는 대화처리장치가 개시된다.
또한 상기 문헌에서의 상기 대화처리장치는 상기 사용자 단말로 전송할 질문을 생성하는 질문/대답 생성부, 상기 사용자 단말로부터 전송되는 사용자의 답변이 상기 질문에 대한 대답인지 상기 대화처리장치에의 질문인지를 구분하고, 상기 사용자의 답변이 기존 사용자의 답변과 동일한지 여부를 판단하는 사용자답변 분석부, 상기 사용자의 답변을 지식베이스 기반에 기초해서 새로운 답변으로 분류가능한지 판단하는 신규 대답/반응 생성부, 및 상기 사용자답변 분석부의 판단결과 및 상기 신규 대답/반응 생성부의 판단결과에 기초해, 상기 사용자 단말에게 전송할 질문 또는 대답을 생성해, 그 결과를 상기 질문/대답 생성부에 제공하는 사용자답변 대응부를 포함한다.
이에 본 발명은 보다 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안하려고 한다.
본 발명의 일 실시예는 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.
또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 제공하는데 그 목적이 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템에 있어서, 사용자의 사용자 단말, 및 상기 사용자 단말과 통신을 수행하고 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버를 포함하고, 상기 관리 서버는 상기 사용자의 개인 정보를 상기 사용자 단말을 통하여 획득하고, 상기 사용자의 개인 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하고, 상기 학습된 인공지능망 모델에 기반하여 챗봇을 생성하고, 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어하는 것을 특징으로 하는 커뮤니케이션 시스템을 제안한다.
상기 관리 서버는 상기 사용자의 희망 시간 정보를 상기 사용자 단말을 통하여 획득하고, 상기 희망 시간 정보에 기반하여 상기 챗봇의 외형을 설정하고, 상기 설정되는 외형을 갖춘 상기 챗봇을 상기 사용자 단말을 통하여 출력하도록 제어할 수 있다.
상기 관리 서버는 상기 개인 정보 및 상기 희망 시간 정보에 기반하여 응답 정보를 생성하고, 상기 설정되는 외형을 갖춘 상기 챗봇이 상기 응답 정보를 상기 사용자 단말에서 출력하도록 제어할 수 있다.
상기 사용자 단말은 상기 사용자의 외형을 촬영하여 이미지 정보를 생성하여 상기 관리 서버에게 전달하고, 상기 관리 서버는 상기 이미지 정보에 기반하여 상기 챗봇의 외형을 설정하는 것을 특징으로 할 수 있다.
상기 인공지능망 모델은 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 중 적어도 어느 하나를 포함할 수 있다.
이와 같이 본 발명의 일 실시예는 개선된(enhanced) 시간 정보를 이용하는 인공지능 기반의 커뮤니케이션 시스템을 제안할 수 있다.
또한 본 발명의 일 실시예는 인공지능 기반의 커뮤니케이션 시스템은 사용자의 개인 정보를 학습하기에 상기 사용자에게 최적화된 커뮤니케이션을 상기 사용자에게 제공할 수 있다.
또한 본 발명의 일 실시예는 사용자가 미래에 가질 수 있는 성향을 고려하여 설정되는 인공지능 기반의 커뮤니케이션 시스템을 사용자에게 제공할 수 있다. 이를 통해 사용자는 미래의 자신과 대화를 하는 듯한 만족감을 느낄 수 있다는 측면에서 심리 치료 목적 등에서 유의미하다고 볼 수 있다.
또한 본 발명의 일 실시예는 사용자의 과거 채팅 기록에 기반하여 상기 사용자가 과거에는 어떠한 결정을 하였을지에 대한 문답을 가능케 한다는 점에서도, 사용자가 참조할 수 있는 정보를 추가적으로 제공한다는 측면에서 유의미하다고 볼 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템이 구현되는 모습을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 사용자 단말(120)을 통하여 사용자에게 제공될 수 있다. 본 발명의 인공지능 기반의 커뮤니케이션 시스템은 인공지능 기반의 챗봇(10)(또는 채터봇)을 통하여 사용자에게 제공될 수 있다. 여기서 챗봇(10)(또는 채터봇)은 음성이나 문자를 통한 인간과의 대화를 통해서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램을 나타낼 수 있다.
또한 상기 챗봇(10)은 음성인식 비서를 폼(또는 형성, 생성)하는 형태로 구현될 수도 있다. 또한 상기 챗봇(10)은 음성인식 기술에 기반하여, 사용자가 말한 내용을 컴퓨터가 이해할 수 있도록 텍스트로 변환하고, 이를 질의로 간주하여 상기 질의에 대한 응답을 생성하고, 상기 생성되는 응답을 TTS(Text to Speech) 및/또는 음성 합성 시스템을 이용하여 음성(예; 기계음성)으로 바꾸는 과정을 통하여 구현될 수도 있다. 한편, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보에 TTS 및/또는 음성 합성 시스템을 적용하여 사용자에게 제공할 수도 있다.
일 예로, 본 발명의 챗봇(10) 및/또는 커뮤니케이션 시스템(100)은 사전에 정해진 키워드(즉, 시작 명령어(start command))를 기기를 활성화 하기 위한 활성 트리거에 기반하여 동작을 수행하거나 소정의 동작을 시작할 수 있다. 상기 시작 명령어는, 예를 들면, 사용자 단말(120)에 상응하는 기기명, 상기 챗봇(10)에 설정되거나 할당된 명칭 등을 포함할 수 있다. 이와 같이 본 발명의 챗봇(10)은 키워드 호출을 기반으로 음성인식 기능을 수행할 수 있으며, 일 예로, 사용자가 챗봇(10)의 이름을 부르면 사용자 단말(120) 및/또는 본 발명의 커뮤니케이션 플랫폼을 제공하는 소프트웨어(및/또는 프로그램) 및/또는 웹사이트(및/또는 모바일앱)를 활성화 하여 사용자의 음성 명령을 수집하기 위한 대기 모드로 진입할 수 있다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템을 나타내는 블록도이다.
도 2를 참조하면, 본 발명의 시스템(100)은 관리 서버(110) 및 사용자 단말(120)을 포함할 수 있다.
관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 및/또는 저장 모듈(250)을 포함할 수 있으며, 상기 관리 서버(110)는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하거나 지원하는 웹사이트 및/또는 모바일앱을 운용하는 서버일 수 있다. 또한 사용자 단말(120)은 제2 제어 모듈(260), 제2 통신 모듈(270), 제2 입력 모듈(280, 미도시), 및/또는 제2 출력 모듈(290, 미도시)을 포함할 수 있다. 또한 상기 사용자 단말(120)은 스마트폰(smart phone), 휴대폰, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등과 같은 사용자의 모바일 기기일 수도 있다. 또한 상기 사용자 단말(120)은 개인용 PC, 데스크탑일 수도 있다.
제어 모듈(210, 260)은 본 발명의 일 실시예에 따른 동작/단계/과정을 구현할 수 있도록 관리 서버(110) 및/또는 사용자 단말(120)을 직/간접적으로 제어할 수 있다. 또한 제어 모듈(210, 260)은 적어도 하나의 프로세서를 포함할 수 있으며, 프로세서는 적어도 하나의 중앙 처리 유닛(CPU) 및/또는 적어도 하나의 그래픽 처리 디바이스(GPU)를 포함할 수 있다.
또한 제어 모듈(210, 260)은 API(Application Programming Interface), IoT(Internet of Things), IIoT(Industrial Internet of Things), ICT(Information & Communication Technology) 기술에 기반하여 제어 정보(예; 명령어) 등을 생성하거나 및/또는 관리할 수 있다.
통신 모듈(220, 270)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시) 등과 각종 데이터, 신호, 정보를 송수신할 수 있다. 또한, 통신 모듈(220, 270)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 또한, 통신 모듈(220, 270)은 제1 네트워크(예: 블루투스, WiFi direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.
입력 모듈(230, 280)은 관리 서버(110), 사용자 단말(120), 및/또는 다른 네트워크 엔티티(미도시)의 구성요소(예: 제어 모듈(210) 등)에 사용될 명령 또는 데이터를 관리 서버(110) 및/또는 사용자 단말(120)의 외부(예: 사용자(예; 제1 사용자, 제2 사용자 등), 관리 서버(110)의 관리자 등)로부터 수신할 수 있다. 또한, 입력 모듈(230, 280)은 관리 서버(110) 및/또는 사용자 단말(120)에 설치된 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈, 음성인식센서, 마이크, 마우스, 또는 키보드 등을 포함할 수 있다. 여기서 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈은 감압식 및/또는 정전식 방식을 통하여 사용자의 신체(예; 손가락)를 통한 터치를 인식할 수 있다.
출력 모듈(240, 290)은 관리 서버(110) 및/또는 사용자 단말(120)의 제어 모듈(210, 260)에 의해 생성되거나 통신 모듈(220, 270)을 통하여 획득된 신호(예; 음성 신호), 정보, 데이터, 이미지, 및/또는 각종 객체(object) 등을 표시하는 모듈이다. 예를 들면, 출력 모듈(240, 290)은 디스플레이, 스크린, 표시부(displaying unit), 스피커 및/또는 발광장치(예; LED 램프) 등을 포함할 수 있다.
저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 또한, 저장 모듈은 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.
또한 저장 모듈(250)은 관리 서버(110) 및/또는 사용자 단말(120)을 사용하는 고객(또는 제1 사용자)의 개인 정보, 관리자(또는 제2 사용자)의 개인 정보 등을 저장할 수 있다. 여기서 개인 정보는 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있다. 또한, 제어 모듈(210, 260)은 상기 저장 모듈(250)에 저장된 각종 이미지, 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.
또한 저장 모듈(250)은 사용자가 본 발명의 커뮤니케이션 플랫폼을 통하여 수행한 과거의 채팅 기록, 커뮤니케이션 기록 및/또는 소정의 질문에 대응하여 사용자가 선택한 응답 정보(또는 소정의 입력에 대응하여 사용자가 선택한 출력)을 더 저장할 수도 있다. 이 정보들은 인공지능 모듈(310)에게 전달되어, 인공지능망 모델을 학습(learning)시키기 위한 학습 데이터(learning data)로써 사용될 수 있다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 3을 참조하면, 관리 서버(110)는 관리 서버(110)는 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250), 및/또는 인공지능 모듈(310)을 포함할 수 있으며, 상기 제1 제어 모듈(210), 제1 통신 모듈(220), 제1 입력 모듈(230), 제1 출력 모듈(240), 저장 모듈(250)에 대한 설명은 도 2에서 전술된 내용을 참조한다.
인공지능 모듈(310)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성 처리 모듈; 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전 처리 모듈; 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화 처리 모듈; 수신된 음성에 알맞은 기능을 추천하기 위한 추천 모듈; 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 NMT(Neural Machine Translation, 인공신경망 기반 기계 번역) 모듈; 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.
인공지능 모듈(310)은 인공지능망 모델에 기반하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 데이터베이스에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 본 발명에서 설명되는 각종 출력(예; 제1 출력) 및/또는 각종 정보(예; 제1 응답 정보)를 생성할 수 있다. 또한, 인공지능 모듈(310)은 관리 서버(110)의 데이터베이스(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망을 학습시키는데, 구체적으로는 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습(learning)을 수행할 수 있다. 또한 결국 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.
여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.
또한 인공지능 모듈(310)은 사용자의 발화에 따라 수신되는 입력(예; 음성 입력)(예; "인테리어 변경", "코스피 구매" 등)를 직접 인식 및 분석하여 출력(예; 음성 출력)할 수 있다. 또한 관리 서버(110)(및/또는 제어 모듈(210))가 사용자의 제1 입력(예; 음성 입력)을 텍스트에 상응하는 제2 입력(예; "인테리어 변경", "코스피 구매" 등)으로 변환하여 상기 인공지능 모듈(310)에게 전달하면, 상기 인공지능 모듈(310)은 상기 제2 입력에 상응하는 제1 출력(예; 텍스트 정보)을 생성하여 상기 제어 모듈(210)에게 전달하면, 상기 제어 모듈(210)은 상기 제1 출력에 기반하여 제2 출력(예; 음성 출력)을 생성하여 상기 사용자 단말(120)에게 전달할 수도 있다.
일 예로, 사용자가 "(집) 인테리어 변경"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 추천 인테리어에 대한 정보를 획득하고, 획득한 정보를 "추천하는 인테리어는..."와 같이 음성으로 출력할 수 있다. 또한 후술하는 내용에 기반하여 희망 시간 정보가 '20년 뒤'로 설정된 경우에는 '20년 뒤'의 사용자가 판단하였을 결과를 추정하여, 그 추정 결과를 "아직 인테리어를 변경하기에는 빠릅니다..."와 같은 음성으로 출력할 수도 있으며, 이에 대한 구체적인 동작은 후술하도록 한다.
다른 예로, 사용자가 "코스피 구매"라는 내용의 발화를 하면, 사용자 단말(120)은 이를 입력 모듈(380)인 마이크를 통하여 획득하고, 이를 관리 서버(120)에게 전달하여 인공지능 모듈(310)에 입력(input)으로서 입력될 수 있도록 할 수 있다. 이때 인공지능 모듈(310)은 상기 입력에 기반하여 외부 네트워크를 통해 외부 서버로부터 최근 코스피 동향에 대한 정보(예; 코스피 지수에 대한 통계, 기사, 정보 등)를 획득하고, 획득한 정보에 기반하여 "코스피 구매는 하지 말아요..."와 같이 음성으로 출력할 수 있다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 4를 참조하면, 본 발명은 관리 서버가 사용자의 제1 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S410).
사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제1 정보를 입력할 수 있다. 상기 제1 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.
제1 정보는 상기 사용자의 개인 정보를 포함할 수 있으며, 여기서 개인 정보는 사용자의 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(110)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있으며, 상기 사용자가 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 결제한 금액 및/또는 내역(결제내역)에 대한 정보, 상기 사용자가 지급받거나 사용한 리워드(포인트)에 대한 정보를 더 포함할 수도 있다.
또한 상기 사용자의 개인 정보는 상기 사용자의 업종을 나타내는 정보를 더 포함할 수도 있다. 또한 사용자의 업종을 나타내는 정보는 '제1 직업 정보' 및 '제2 직업 정보'를 포함할 수 있으며, 상기 제2 직업 정보는 상기 제1 직업 정보가 나타내는 업종의 하위 업종을 나타내는 정보로서, 직업을 나타내는 정보를 포함할 수 있다.
제1 직업 정보는 직업과 관련되는 상위 개념의 카테고리를 나타낼 수 있으며, 개발, 경영/비즈니스, 마케팅/광고, 디자인, 영업, 고객서비스/리테일(소매, 유통), 인사/교육, 미디어, 엔지니어링/설계, 투자/분석/부동산, 제조/생산, 게임 제작, 물류/무역, F&B(Food and Beverage), 법률/법집행기관, 의료/제약/바이오, 정부/비영리, 건설/시설을 포함할 수 있다.
제2 직업 정보는 직업과 관련되는 하위 개념의 카테고리를 나타낼 수 있으며, 제2 직업 정보는 상기 제1 직업 정보에 매칭될 수 있다.
제2 직업 정보는, 예를 들면, 개발(제1 직업 정보)과 관련되거나 매칭되는 웹 개발자, 서버 개발자, 프론트엔드 개발자, 자바 개발자, 안드로이드 개발자, iOS 개발자, 파이썬 개발자, DevOps/시스템 관리자, 데이터 엔지니어, Node.js 개발자, 시스템/네트워크 관리자, C/C++ 개발자, 개발 매니저, 머신러닝 엔지니어, 데이터 사이언티스트 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 경영/비즈니스(제1 직업 정보)와 관련되거나 매칭되는 서비스 기획자, 사업개발/기획자, 프로젝트 매니저, 전략 기획자, 운영 매니저, 데이터 분석가, 회계원/경리 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 마케팅/광고(제1 직업 정보)와 관련되거나 매칭되는 디지털 마케터, 마케터, 마케팅 전략 기획자, 콘텐츠 마케터, 브랜드 마케터, 소셜 마케팅, 광고 기획자(AE) 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 디자인(제1 직업 정보)과 관련되거나 매칭되는 UX 디자이너, UI/GUI 디자이너, 웹 디자이너, 그래픽 디자이너, 모바일 디자이너, 영상/모션 디자이너, 제품 디자이너 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 영업(제1 직업 정보)과 관련되거나 매칭되는 기업영업 담당자, 영업 관리자, 기술영업 전문가, 외부영업 전문가, 주요고객사 담당자, 솔루션 컨설턴트, 고객성공매니저 등을 포함할 수 있다.
또한 제2 직업 정보는, 예를 들면, 고객서비스/리테일(제1 직업 정보)과 관련되거나 매칭되는 CS 매니저, MD, CS 어드바이저, 리테일 MD, CRM 전문가, 패션 MD, 매장점원 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 인사/교육(제1 직업 정보)과 관련되거나 매칭되는 인사 담당자, 리크루터, 조직 관리 전문가, 인사평가 전문가, HRD/교육 전문가, 급여/보상 전문가, HRBP 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 미디어(제1 직업 정보)와 관련되거나 매칭되는 콘텐츠 크리에이터, 영상 편집가, 프로듀서, 에디터, 비디오 제작, 작가, 음향 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 엔지니어링/설계(제1 직업 정보)와 관련되거나 매칭되는 자동차 공학자, 기계 엔지니어, 전기 엔지니어, 제품 엔지니어, 전기기계 공학자, 제어 엔지니어, 전자 엔지니어 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 투자/분석/부동산(제1 직업 정보)과 관련되거나 매칭되는 회계 담당자, 재무 분석가, 회계사/회계원, 애널리스트, IR, CPA, 준법감시인 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 제조/생산(제1 직업 정보)과 관련되거나 매칭되는 품질 관리자, 생산 관리자, 제조 엔지니어, 테스트 엔지니어, 공정 관리자, 기계제작 기술자, 기계/설비조작, 안전 관리자, 화학자, 자재 관리자, 생산직 종사자 등을 포함할 수 있다.
또한 제2 직업 정보는, 예를 들면, 게임제작(제1 직업 정보)과 관련되거나 매칭되는 게임 클라이언트 개발자, 게임 기획자, 모바일 게임 개발자, 유니티 개발자, 게임 서버 개발자, 게임 아티스트, 게임 그래픽 디자이너, 게임 운영자(GM), 언리얼 개발자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 물류/무역(제1 직업 정보)과 관련되거나 매칭되는 물류 담당자, 물류 분석가, 운송 관리자, 배송 담당자, 웨어하우스 전문가, 선적/발송 사무원, 운행 관리원, 화물트럭 운전기사, 무역사무 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, F&B(제1 직업 정보)와 관련되거나 매칭되는 요리사, 식품 MD, 외식업 종사자, 외식업 메뉴 개발자, 영양사, 바텐더, 레스토랑 관리자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 법률/법집행기관(제1 직업 정보)과 관련되거나 매칭되는 법무담당자, 법무 자문위원, 변호사, 변리사, 명세사 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 의료/제약/바이오(제1 직업 정보)과 관련되거나 매칭되는 연구원, 생명공학 연구원, 임상시험 연구원, 증례 관리자, 수의사, 약학 분석 화학자, 임상시험 간호사, 미생물학자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 정부/비영리(제1 직업 정보)와 관련되거나 매칭되는 정보 분석가, 카운셀러, 공무원, 직업군인, 환경 전문가, 지역 전문가, 자원봉사자 등을 포함할 수 있다. 또한 제2 직업 정보는, 예를 들면, 건설/시설(제1 직업 정보)과 관련되거나 매칭되는 유지보수 관리자, 견적 기술자, 정비공, 관리인 등을 포함할 수 있다.
또한 상기 제1 정보는 '제3 직업 정보'와 '제4 직업 정보'를 더 포함할 수 있으며, 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사 등을 직접적으로 나타내는 정보를 포함할 수 있다. 또한 상기 제3 직업 정보는 상기 사용자가 (현재) 근무하는 근무지, 사무소 및/또는 회사에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.
또한 상기 제4 직업 정보는 상기 사용자가 복수의 근무지(또는 사무소 또는 회사)에서 일하거나, 복수의 근무지(또는 사무소 또는 회사)에서 일했거나, 및/또는 이직을 한 경력이 있는 경우, 사용자와 관련되는 복수의 근무지, 사무소 및/또는 회사에 대한 정보를 포함할 수 있다. 일 예로, 상기 제4 직업 정보는 사용자가 종사하였던 복수의 근무지(또는 사무소 또는 회사) 각각에 상응하는 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보를 포함할 수 있다. 한편, 상위 업종을 나타내는 정보 및/또는 하위 업종을 나타내는 정보에 대한 구체적인 내용은 상기 제1 직업 정보 및/또는 상기 제2 직업 정보와 관련하여 전술한 내용을 참조한다.
이를 통해 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하여 학습된 인공지능망 모델은 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.
또한 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)는 상기 사용자의 제1 정보를 통하여 소정의 인증 절차가 완료된 경우에만 후술하는 S420 단계 내지 S440, 도 5의 흐름도에 기반하여 설명되는 동작들이 수행될 수 있다.
일 예로, 상기 소정의 기준은 소정의 인증 절차를 포함할 수 있으며, 상기 소정의 인증 절차는 상기 사용자의 개인 정보에 기반하여 진행되는 본인 인증 프로세스를 포함할 수 있다.
그리고, 상기 방법은 제1 정보를 학습데이터로 하여 인공지능망 모델을 학습시키도록 제어하는 단계를 포함할 수 있다(S420).
관리 서버(110) 및/또는 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터(learning data)로 설정하고, 상기 설정된 학습 데이터를 이용하여 상기 인공지능 모듈(310)이 운용하는 인공지능망 모델을 학습시킬 수 있다. 다시 말해 인공지능 모듈(310)은 사용자의 개인 정보, 상기 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 이용하여 i) 인공지능망 모델을 학습시키거나 ii) 상기 인공지능망 모델을 업데이트하거나, 및/또는 iii) 상기 사용자에 맞춤화된 적응형 인공지능망 모델을 생성하도록 제어할 수 있다. 이러한 과정을 통해 학습된 인공지능망 모델은 사용자와 같은 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나가 일치하는 자가 선택하였을 것과 같은 출력(및/또는 응답 정보)를 생성할 수 있다.
그리고, 상기 방법은 학습된 인공지능망 모델에 기반하여 사용자 맞춤의 챗봇을 생성하는 단계를 포함할 수 있다(S430).
관리 서버(110)는 상기 학습된 인공지능망 모델의 출력을 텍스트, 음성 등으로 표시하거나, 표정 등으로 표현하는 챗봇을 생성할 수 있다.
일 예로, 상기 출력(및/또는 응답 정보)이 부정적인 내용을 포함하는 경우 상기 챗봇(10)은 부정적인 표정, 예를 들면, 우는 표정, 슬픈 표정, 화난 표정 등을 할 수 있으며, 다른 예로, 상기 출력(및/또는 응답 정보)이 긍정적인 내용을 포함하는 경우 상기 챗봇(10)은 긍정적인 표정, 예를 들면, 웃는 표정, 신난 표정 등을 할 수 있다.
또한 관리 서버(110)는, 예를 들면, 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 모델링, 랜더링, 캐릭터화된 2차원 및/또는 3차원 외형 이미지를 생성할 수 있으며, 상기 생성되는 2차원 및/또는 3차원 외형 이미지를 이용하여 상기 챗봇의 외형을 결정하거나 설정할 수 있다. 이에 대한 구체적인 동작은 카메라 모듈(620)을 참조하여 후술되는 부분을 참조한다.
그리고, 상기 방법은 사용자 맞춤의 챗봇을 이용하여 사용자에게 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S440).
예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제1 입력이 획득될 수 있다. 그리고 상기 제1 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제1 출력을 생성하면, 관리 서버(110)는 상기 제1 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제2 출력을 생성하고, 상기 챗봇을 통하여 상기 제2 출력이 출력되거나 표시되도록 제어할 수 있다.
이와 같이 사용자의 개인 정보 등에 기반하여 학습된 인공지능망 모델 기반의 챗봇이 생성될 수 있으며, 이렇게 생성된 챗봇에 사용자의 입력(예; 질문)이 획득되면 상기 입력에 기반하여 소정의 출력(예; 응답, 대답)이 상기 챗봇을 통하여 사용자(및/또는 사용자 단말(120))에게 제공될 수 있다.
한편, 상기 S410 내지 S440은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S410 내지 S440 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.
도 5는 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 동작 방법을 나타내는 흐름도이다.
도 5를 참조하면, 본 발명은 사용자의 희망 시간 정보를 사용자 단말을 통하여 획득하는 단계를 포함할 수 있다(S510).
사용자는 사용자 단말(120)을 통하여 실행되는 본 발명의 인공지능 기반의 커뮤니케이션 플랫폼을 제공하는 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 통하여 제2 정보를 입력할 수 있다. 상기 제2 정보는 사용자 단말(120)로부터 관리 서버(110)에게 전달되고, 상기 관리 서버(110) 및/또는 저장 모듈(250)에 기록될 수 있다.
제2 정보는 사용자의 희망 시간 정보를 포함할 수 있으며, 여기서의 희망 시간 정보는 사용자에 의해 (임의로) 설정되는 시간일 수 있다. 상기 희망 시간 정보는, 일 예로, 현재 시간을 기준으로 미래를 나타내는 시간일 수 있다(예; '20XX년XX월XX일', 'XX년 후에' 등). 또한 상기 희망 시간 정보는, 다른 예로, 현재 시간을 기준으로 과거를 나타내는 시간일 수 있다(예; '19XX년XX월XX일', '20XX년XX월XX일', 'XX년 전에' 등).
또한 상기 제2 정보는 희망 나이 정보를 포함할 수도 있으며, 여기서의 희망 나이 정보는 사용자에 의해 (임의로) 설정되는 나이일 수 있다. 일 예로, 상기 희망 나이 정보는 'XX살(예; 16살, 56살 등)', 'XX세(예; 25세, 73세 등)', 'XX대(예; 10대, 20대 등)'와 같이 설정될 수도 있다.
그리고, 상기 방법은 희망 시간 정보에 기반하여 챗봇의 외형을 설정하는 단계를 포함할 수 있다(S520).
예를 들면, 사용자 단말(120)의 입력 모듈(280)은 카메라 장치를 포함할 수 있으며, 상기 카메라 장치를 통하여 상기 사용자의 외형을 촬영한 영상 및/또는 이미지 정보에서 추출되는 객체를 이용하여 상기 챗봇의 외형을 설정할 수 있으며, 이에 대해서는 도 6의 카메라 모듈에 기반하여 구체적으로 서술하도록 한다.
예를 들면, 관리 서버(110)는 희망 시간 정보가 나타내는 시간에 상응하는 외형으로 챗봇의 외형을 변형할 수 있다. 일 예로, 상기 희망 시간 정보가 현재를 기준으로 미래에 해당되는 시간을 나타내는 경우에는, 상기 카메라 장치를 통하여 촬영되는 영상 및/또는 이미지 정보에 기반하여 생성된 챗봇의 외형(예; 제1 외형 정보)을 나타내는 정보에 에이징 처리(aging processing)를 하여, 상기 희망 시간 정보에 상응하는 모습인 챗봇의 외형(예; 제2 외형 정보)을 생성하거나 설정할 수 있다. 여기서 에지징 처리는 제1 외형 정보에 주름, 검버섯, 흰머리, 머리카락 개수의 감소, 탈모 등과 같이 사람이 나이가 듬에 따라 얼굴, 피부, 머리카락 등에 생길 수 있는 생체적인 변화를 반영하거나 추가하는 이미지 처리 등을 포함될 수 있다.
그리고, 상기 방법은 제1 정보 및 희망 시간 정보에 기반하여 응답 정보를 생성하는 단계를 포함할 수 있다(S530).
예를 들면, 희망 시간 정보가 나타내는 시간에 상응하는 대상이 해줄 것으로 예상되는 응답 및/또는 답변을 출력으로써 생성할 수 있다.
그리고, 상기 방법은 상기 생성되는 응답 정보를 상기 설정되는 외형을 갖춘 챗봇을 통하여 커뮤니케이션 플랫폼 및/또는 시스템을 제공하는 단계를 포함할 수 있다(S540).
예를 들면, 본 발명의 커뮤니케이션 플랫폼 및/또는 시스템을 통하여 사용자의 제2 입력이 획득될 수 있다. 그리고 상기 제2 입력은 상기 학습된 인공지능망 모델에 전달되고, 상기 학습된 인공지능망 모델이 상기 입력에 기반하여 제3 출력을 생성하면, 관리 서버(110)는 상기 제3 출력에 기반하여 상기 챗봇을 통하여 출력될 수 있는 제4 출력을 생성하고, 상기 챗봇을 통하여 상기 제4 출력이 출력되거나 표시되도록 제어할 수 있다.
한편, 상기 S510 내지 S540은 순차적으로 구현될 수도 있으나, 그 순서는 변경되어 구현될 수 있으며, 상기 S510 내지 S540 중 일부 만이 본 발명의 다른 기재(방법)와 결합되어 구현될 수 있다.
그리고, 본 발명의 일 실시예는 복수의 챗봇의 외형들을 생성하여 사용자에게 제공하거나 추천하는 특징을 포함할 수도 있다. 예를 들면, 관리 서버(120)는 복수의 추천 시간 정보를 설정할 수 있으며, 상기 복수의 추천 시간 정보 각각에 상응하는 복수의 챗봇의 외형(예; 복수의 제3 외형 정보)을 생성할 수도 있다. 또한 관리 서버(120)는 이와 같이 생성되는 복수의 제3 외형 정보를 사용자 단말(120)에게 전달하여 상기 사용자 단말(120)을 통하여 출력되거나 표시되도록 제어할 수 있다. 또한 관리 서버(120)가 상기 복수의 제3 외형 정보를 사용자 단말(120)에게 전달할 때, 상기 복수의 제3 외형 정보가 블록체인 기술을 통화여 그룹화 및/또는 해시화되어 상기 사용자 단말(120)에게 전달될 수 있으며, 이는 블록체인 모듈(620)에 대하여 후술하는 내용을 참조할 수 있다.
그리고, 본 발명의 일 실시예는 희망 시간 정보가 과거에 해당되는 시간을 나타내는 경우, 관리 서버(110)의 저장 모듈(250)에 기록된 사용자의 채팅 기록, 커뮤니케이션 기록 등에 기반하여 제1 출력, 제2 출력, 응답 정보 등을 생성할 수 있다. 또한 인공지능 모듈(310)은 상기 사용자의 개인 정보, 제1 직업 정보 내지 제4 직업 정보 중 적어도 어느 하나를 학습 데이터로 하고, 상기 사용자의 채팅 이력을 추가 학습 데이터로 더 설정하여 상기 인공지능 모듈(310)의 인공지능망 모델을 학습시킬 수 있다. 또한 이렇게 학습된 인공지능망 모델에 기반하여 상기 관리 서버(110)는 사용자의 입력 및/또는 질문 정보에 대한 출력 및/또는 응답 정보를 생성할 수 있으며, 이렇게 생성되는 출력 및/또는 응답 정보는 마치 사용자가 과거에는 어떠한 결정 및/또는 응답을 했었는지(기록) 및/또는 하였을지(추정)에 대한 정보를 획득할 수 있다. 이를 통해 사용자는 과거의 자신과의 대화를 할 수 있는 효과 및/또는 재미를 얻을 수 있다.
또한 본 발명의 출력 및/또는 응답 정보는, 예를 들면, 관리 서버(110) 및 사용자 단말(120)이 아닌 다른 네트워크 노드(미도시)로부터 수신되는 정보에 기반할 수도 있다. 이때 상기 네트워크 노드는 블록체인 노드(block chain node)일 수도 있다. 일 예로, 제1 사용자의 개인 정보가 제1 사용자의 나이를 '32세'로 나타내고, 상기 제1 사용자의 희망 시간 정보가 '10년 뒤'로 설정된 경우, '42세'에 상응하는 다른 사용자(제4 사용자)(및/또는 '42세'에 근접한 나이를 갖는 다른 사용자(제4 사용자))가 사용하는 다른 네트워크 노드(또는 블록체인 노드)에게 제1 사용자가 입력하는 입력(및/또는 질문 정보)를 전달하고, 상기 다른 사용자(제4 사용자)가 상기 입력(및/또는 질문 정보)에 응답하여 답변(및/또는 응답 정보)을 입력하면 이를 수신하여 사용자에게 제공할 수도 있다.
도 6은 본 발명의 일 실시예에 따른 인공지능 기반의 커뮤니케이션 시스템의 관리 서버를 나타내는 블록도이다.
도 6을 참조하면, 본 발명의 관리 서버(110)는 인공지능 모듈(310), 카메라 모듈(610), 블록체인 모듈(620), 및/또는 IoT 모듈(630)을 포함한다. 상기 인공지능 모듈(310)에 대한 설명은 도 3 내지 도 5를 참조하여 전술된 내용을 참조한다.
인공지능 모듈(310)은 인공지능망 모델에 기반하여 전술한 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다. 또한, 인공지능 모듈(310)은 저장 모듈(250)에 저장된 빅데이터(big data)에 기계 학습(machine learning)을 이용하여 상기 제1 출력 및/또는 제2 출력을 생성하거나 설정할 수 있다.
또한, 인공지능 모듈(310)은 관리 서버(110)의 저장 모듈(250)에 저장된 빅데이터를 입력변수로 하여 인공지능망 모델을 학습시킬 수 있다. 예를 들면, 인공지능 모듈(310)은 머신러닝의 한 분야인 딥러닝(Deep Learning) 기법을 이용하여 정확한 상관 관계가 도출될 수 있도록 학습을 수행할 수 있다. 예를 들면, 인공지능 모듈(310)은 본 발명의 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용하는 제1 사용자 이전에 상기 프로그램(및/또는 소프트웨어) 및/또는 웹사이트(및/또는 모바일앱)를 이용했던 복수의 제3 사용자(즉, 이전 고객들)가 입력한 정보들을 학습데이터로 하여 상기 인공지능망을 학습시킬 수 있다.
일 예로, 인공지능 모듈(310)은 제1 학습 모드(first learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보 및 제1 직업 정보를 제1 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다.
일 예로, 인공지능 모듈(310)은 제2 학습 모드(second learning mode)에 따라 상기 인공지능망 모델을 학습시킬 수 있으며, 인공지능 모듈(310)은 상기 제1 학습 모드의 경우 상기 사용자의 개인 정보, 및 제2 직업 정보 내지 제4 직업 정보를 제2 학습 데이터(learning data)로 하여 상기 인공지능망 모델을 학습시킬 수 있다.
예를 들면, 인공지능 모듈(310)은 전술한 바와 같이 학습된 인공지능망에 입력되는 입력(input)(예; 제1 입력, 제2 입력 등)에 기반하여, 상기 학습된 인공지능망 모델로부터 출력(output)(예; 제1 출력, 제2 출력, 제3 출력, 제4 출력 등)을 획득할 수 있다.
또한 인공지능 모듈(310)은 딥러닝을 통하여 상기 함수에서의 복수 개의 입력들의 가중치(weight)를 학습을 통하여 산출할 수 있다. 또한, 이러한 학습을 위하여 활용되는 인공지능망 모델로는 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다.
여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.
카메라 모듈(610)은 사용자 단말(120)의 입력 모듈(280)에 포함되는 카메라 장치를 통하여 촬영되는 영상 및/또는 획득되는 이미지 정보(예; 정적 이미지, 동적 이미지 등)을 수신하거나 획득할 수 있다.
카메라 모듈(610)은 획득된 영상 및/또는 이미지 정보 내에 포함되는 객체를 추출함으로써 제1 객체 정보를 획득할 수 있다. 카메라 모듈(610)은 HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여, 상기 카메라 장치를 통하여 획득되는 영상(및/또는 이미지 정보)에서 영상 내 객체의 윤곽선 또는 상기 객체에서 추출할 수 있는 글씨(또는 정보를 나타내는 윤곽선(또는 외형))를 획득할 수 있다. 또한 카메라 모듈(610)은 획득한 영상(및/또는 이미지 정보)에서 객체를 영상 분석을 통해 인식(또는 식별)하고, 상기 인식된 객체에 대응되는 영역을 마스킹 처리하여 마스킹 영상 정보를 생성할 수 있다. 이때 마스킹 처리 과정은, 예를 들면, 차분영상 방법, GMM(Gaussian Mixture Models)을 이용하는 MOG(Model of Gaussian) 알고리즘, 코드북(Codebook) 알고리즘 등과 같은 객체와 배경을 분리하기 위한 배경 모델링을 통해 객체에 해당하는 객체 후보 영역을 추출하는 방법을 이용함으로써 제1 객체 정보를 추출 및/또는 획득할 수 있다.
또한 카메라 모듈(610)은 카메라 장치를 통하여 복수의 영상(및/또는 복수의 이미지 정보)를 획득할 수 있으며, 상기 복수의 영상(및/또는 복수의 이미지 정보) 내에 포함되는 객체를 추출하는 과정을 반복함으로써 복수의 제1 객체 정보를 획득할 수도 있다.
일 예로, 상기 인공지능 모듈(610)은 상기 복수의 제1 객체 정보를 학습 데이터로서 더 고려하여 상기 인공지능망 모델을 더 학습시킬 수 있다.
다른 예로, 상기 인공지능 모듈(610)은 제1 인공지능망 모델과 제2 인공지능망 모델을 포함할 수 있으며, 사용자의 제1 정보 및/또는 제2 정보를 제1 학습 데이터로서 이용하여 상기 제1 인공지능망 모델을 학습시키고, 상기 복수의 제1 객체 정보를 학습 데이터로서 이용하여 상기 제2 인공지능망 모델을 학습시킬 수 있다. 이때 관리 서버(110)는 상기 (학습된) 제1 인공지능망 모델을 이용하여 전술한 제1 출력 내지 제4 출력 중 적어도 어느 하나를 생성할 수 있으며, 상기 (학습된) 제2 인공지능망 모델을 이용하여 챗봇(10)의 외형을 설정하거나 재설정(또는 업데이트)할 수 있다.
블록체인 모듈(620)은 전술한 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보가 블록체인 기술에 기반하여 사용자 단말(120) 및/또는 다른 네트워크 노드에게 전달될 수 있도록, 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력을 나타내는 정보에 기반하여 적어도 하나의 블록 데이터를 생성할 수 있다. 상기 블록체인 모듈(620)에 의해 생성되는 적어도 하나의 블록 데이터는 통신 모듈(220)을 통하여 사용자 단말(120)에게 전달될 수 있다. 또한 상기 관리 서버(110)는 상기 적어도 하나의 블록 데이터에 포함된 적어도 하나의 요소들을 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장할 수 있다.
일반적으로 블록 체인(block chain)은 P2P(peer-to-peer) 네트워크에 의해 생성되고 관리되는 위조 및/또는 변조 불가능한 분산 저장소이다. 블록 체인은 트랜잭션(쌍방간의 쪼갤 수 없는 단위 작업)으로 생성된 데이터 블록들을 체인(chain) 형태로 잇따라 연결한 모음을 의미한다. 이전 블록에 다름 블록을 연이어 암호화하고 과반수가 넘는 사용자가 동의한 데이터를 실제 데이터로 인정하기 때문에, 한번 기록된 데이터는 위조 및/또는 변조가 불가능하다. 블록 체인의 대표적인 응용사례는 암호화폐의 거래 과정을 기록하는 분산화된 전자 화폐인 비트코인(bitcoin)이 있다. 블록 체인에는 일정 시간 동안 사용자들 간에 발생되는 확정된 거래 내역이 저장될 수 있다. 그리고, 많은 사용자들은 블록 체인 사본을 각자 갖고 있으며, 거래 내역은 모두에게 공개될 수 있다. 이와 같이, 과반수가 넘는 사용자가 동의한 거래 내역만 실제 데이터로 인정되고, 영구적으로 보관할 블록으로 묶여 저장될 수 있다.
한편, 본 발명의 관리 서버(110), 사용자 단말(120), 및 다른 네트워크 노드 각각은 블록체인을 포함하거나 블록 데이터를 제어할 수 있는 블록체인 노드일 수 있다. 예를 들면, 관리 서버(110)는 사용자 단말(120)로부터 수신되는(또는 사용자 단말(120)을 통하여 획득되는) 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화 및/또는 해시(hash)하여 블록 체인에 저장한 후 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 대한 위조 및/또는 변조를 검증하거나 판단할 수 있다. 일 예로, 블록체인 모듈(620)은 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 기반하여 머클 해쉬(Merkle hash)를 포함하는 사용자 정보 블록 데이터(matching score block data)를 생성하고, 상기 생성된 머클 해쉬가 포함되도록 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 그룹화할 수 있다.
관리 서버(110)는 미리 결정된 시간 및 상기 저장된 매칭 점수를 나타내는 정보의 개수 중 적어도 하나에 기반하여 상기 저장 모듈(250)에서 구현되는 블록체인(미도시)에 저장된 적어도 하나의 요소와 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보에 포함된 적어도 하나의 요소를 비교하여 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성을 검증할 수 있다. 상기 관리 서버(110)는 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 무결성하지 않는 경우, 출력 모듈(240, 290)을 통해 상기 무결성 여부를 출력할 수 있다.
관리 서버(110)는 상기 저장 모듈(250)에 저장된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보가 위조 및/또는 변조되거나 손상된 경우, 상기 관리 서버(110)를 관리하는 관리자(예; 제2 사용자)가 이러한 사항을 알 수 있도록 출력 모듈(240)을 통해 상기 무결성 여부를 출력할 수 있다. 상기 제어 모듈(210)는 상기 저장된 블록체인의 무결성 여부를 판단하기 위한 증명서(certificate)를 생성하여 상기 사용자 단말(120) 및/또는 다른 블록체인 노드에게 전송할 수 있다. 상기 증명서는 상기 저장된 상기 그룹화된 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보를 포함할 수 있다. 상기 증명서는 관리 서버(110)가 상기 제1 정보, 제2 정보, 제1 입력 내지 제4 입력, 제1 출력, 제2 출력 등을 나타내는 정보의 무결성 여부를 판단하는데 이용될 수 있다.
그리고 블록체인 모듈(620)은 사용자가 사용자 단말(120)을 통하여 입력하는 복수의 입력 및/또는 복수의 질문 정보에 상응하는 프라이버시 레벨(privacy level)에 기반하여, 상기 입력 및/또는 질문 정보를 i) 해시화 및/또는 그룹화 하여 해쉬 데이터 형태로 다른 네트워크 노드에게 전달하거나 ii) 해시화 및/또는 그룹화 과정을 생략하고 상기 입력 및/또는 질문 정보를 그대로 다른 네트워크 노드에게 전달할 수 있다. 이는 사용자의 프라이버시와 관련되는 정보는 블록체인 기술을 적용하여(또는 변형/변환하여) 다른 네트워크 노드에게 전달하여 사용자의 프라이버시 보호 및/또는 개인 정보 보호를 도모하되, 그렇지 않는 정보의 경우 별다른 변형/변환 없이 다른 네트워크 노드에게 불필요한 과정을 생략하여 에너지 자원 및/또는 처리 시간 자원 등을 절약하는 기술적인 효과를 기대할 수 있다.
IoT 모듈(630)은 IoT 기술에 기반하여 본 발명에서 필요로 하는 각종 정보 및/또는 신호를 입력 받기 위해, 및/또는 본 발명에서 생성되는 각종 정보 및/또는 신호를 출력하기 위해, 상기 사용자 단말(120) 및/또는 다른 네트워크 노드(미도시)와 통신을 수행하기 위한 정보의 변형을 할 수 있다. 일 예로, 상기 IoT 모듈(630)은 통신 모듈(220)에 포함되거나, 상기 통신 모듈(220)로서 구현될 수 있다.
그리고, 관리 서버(110)는 사용자 단말(120)의 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보를 상기 사용자 단말(120)로부터 수신하고, 상기 잔류 전력 정보와 소정의 임계값 사이의 비교 결과에 기반하여 챗봇(10)의 외형에 대한 정보를 상이하게 생성(및/또는 표시)하거나 및/또는 챗봇(10)이 출력 및/또는 응답 정보를 출력하는 방식을 상이하게 선택(및/또는 설정)하도록 제어할 수 있다. 이를 위해 사용자 단말(120)은 상기 사용자 단말(120))의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)를 상기 관리 서버(110)에게 전송할 수 있으며, 상기 관리 서버(110)의 통신 모듈(220)는 상기 사용자 단말(120)의 잔류 전력 정보를 수신할 수 있다.
상기 관리 서버(110)(및/또는 제어 모듈(210))는 잔류 전력에 대한 제1 임계값, 상기 제1 임계값보다 낮은 제2 임계값을 설정할 수 있다(예; 제1 임계값 - 70%, 제2 임계값 - 30%).
예를 들면 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력을 나타내는 정보(즉, 잔류 전력 정보)가 상기 제1 임계값보다 높은 전력을 나타내는 경우, 상기 사용자 단말(120)가 제1 동작 모드로서 동작하도록 제어할 수 있다. 상기 제1 동작 모드는 사용자의 얼굴을 촬영하여 생성되는 3차원 캐릭터와 광고와 관련되어 생성되는 3차원 이미지를 함께 출력하는 모드일 수 있다. 예를 들면, 상기 제1 동작 모드의 경우 상기 사용자 단말(120)의 카메라 장치를 통하여 촬영되는 상기 사용자 단말(120)의 사용자의 얼굴을 촬영하여 사용자 얼굴에 대한 이미지 정보를 획득하고, 상기 사용자 얼굴에 대한 이미지 정보에 기반하여 챗봇(10)의 외형에 대한 정보 나타내는 정보(예를 들어, 챗봇(10)의 형태, 색상 또는 텍스처 중 적어도 하나)를 생성하거나 상기 3차원 캐릭터의 외형을 결정할 수 있다. 예를 들면, 제1 동작 모드로 동작하는 경우에는 상기 사용자 얼굴에 대한 이미지 정보를 렌더링 한 후에, 렌더링된 결과에 기반하여 상기 챗봇(10)의 외형에 대한 정보를 생성할 수 있다. 즉, 본 발명의 관리 서버(110)는 사용자의 얼굴을 2차원 또는 3차원 이미지화한 외형의 챗봇(10)이 사용자 단말을 통하여 표시되도록 제어할 수 있다.
또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제1 임계값 미만 상기 제2 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제2 동작 모드로서 동작하도록 제어할 수 있다. 상기 제2 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 이와 같이 제2 동작 모드는 카메라 장치를 통하여 사용자의 얼굴을 촬영하는 과정을 생략하기에, 상기 제1 동작 모드에 비하여 저전력 모드라고 볼 수 있다.
또한 상기 관리 서버(110)는 상기 사용자 단말(120)의 잔류 전력 정보가 상기 제2 임계값 미만 상기 제3 임계값 이상인 전력을 나타내는 경우, 상기 사용자 단말(120)가 제3 동작 모드로서 동작하도록 제어할 수 있다. 상기 제3 동작 모드는 사용자의 선택에 따라 기 설정되거나 및/또는 관리 서버(110)0에 의해 기 설정된 외형의 3차원 캐릭터가 챗봇(10)으로서 표시되는 모드일 수 있다. 또한 상기 제3 동작 모드로 설정되는 경우 제어 모듈(210) 및/또는 인공지능 모듈(310)에 의해 생성되는 출력 및/또는 응답 정보는 일종의 텍스트 메시지(예; 말풍선) 및/또는 기 녹음된 음성 만을 표시하거나 출력하는 모드일 수 있다. 다시 말해 TTS와 같은 음성 합성 과정이 생략될 수 있다. 일 예로, 관리 서버(110)에서 생성되는 출력 및/또는 응답 정보는 텍스트에 상응하는 정보이고, 상기 정보가 사용자 단말(120)에 전달된 후, 상기 사용자 단말(120)에서 상기 텍스트에 상응하는 정보가 TTS 및/또는 음성 합성 시스템 등이 적용되지 않고, 텍스트 형태로 및/또는 상기 텍스트에 상응하는 기 녹음된 정보만이 사용자 단말을 통하여 출력될 수 있다.
이와 같이 제3 동작 모드는, 사용자의 얼굴을 촬영하여 실시간으로 챗봇(10)의 외형에 대한 정보 생성하거나 렌더링하는 것이 아닌, 기 설정되는 챗봇(10)의 외형에 대한 정보 출력하기에 상기 제1 동작 모드 및 상기 제2 동작 모드에 비해 저전력 모드로서 구현될 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명의 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한 상기 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 본 발명의 모든 실시예는 일부분들이 서로 조합되어 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등에 의해 구현될 수 있다.
또한, 본 발명에 따른 시스템(100), 관리 서버(110) 및/또는 사용자 단말(120) 등을 제어하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.
이와 같이, 본 발명의 다양한 실시예들은 특정 관점에서 컴퓨터 리드 가능 기록 매체(computer readable recording medium)에서 컴퓨터 리드 가능 코드(computer readable code)로서 구현될 수 있다. 컴퓨터 리드 가능 기록 매체는 컴퓨터 시스템에 의해 리드될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 컴퓨터 리드 가능 기록 매체의 예들은 읽기 전용 메모리(read only memory: ROM)와, 랜덤-접속 메모리(random access memory: RAM)와, 컴팩트 디스크- 리드 온니 메모리(compact disk-read only memory: CD-ROM)들과, 마그네틱 테이프(magnetic tape)들과, 플로피 디스크(floppy disk)들과, 광 데이터 저장 디바이스들, 및 캐리어 웨이브(carrier wave)들(인터넷을 통한 데이터 송신 등)을 포함할 수 있다. 컴퓨터 리드 가능 기록 매체는 또한 네트워크 연결된 컴퓨터 시스템들을 통해 분산될 수 있고, 따라서 컴퓨터 리드 가능 코드는 분산 방식으로 저장 및 실행된다. 또한, 본 발명의 다양한 실시예들을 성취하기 위한 기능적 프로그램들, 코드, 및 코드 세그먼트(segment)들은 본 발명이 적용되는 분야에서 숙련된 프로그래머들에 의해 쉽게 해석될 수 있다.
또한 본 발명의 다양한 실시예들에 따른 장치 및 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 콤팩트 디스크(compact disk: CD), DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 다양한 실시예들에 따른 방법은 제어부(제어 모듈(210, 260)) 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 이러한 메모리는 본 발명의 실시예들을 구현하는 명령들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다.
따라서, 본 발명은 본 명세서의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고, 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 또한 앞서 설명된 본 발명에 따른 실시예들은 예시적인 것에 불과하며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.
Claims (1)
- 챗봇 서비스(chatbot service)를 제공하는 커뮤니케이션 시스템에 있어서,
상기 챗봇 서비스를 이용하는 제1 사용자의 제1 사용자 단말; 및
상기 챗봇 서비스를 상기 사용자에게 제공하기 위한 커뮤니케이션 플랫폼을 이용하기 위한 소프트웨어, 프로그램, 웹사이트 및 모바일앱 중 적어도 어느 하나를 운용하는 관리 서버; 를 포함하고,
상기 제1 사용자 단말은,
상기 제1 사용자 단말의 내부 배터리의 잔량을 나타내는 전력 정보를 상기 제1 사용자 단말로부터 수신하고,
상기 제1 사용자의 외형에 상응하는 제1 이미지 정보를 설정하되, 상기 전력 정보가 임계치 이상을 나타내는 경우에는 카메라를 이용하여 상기 제1 사용자의 외형을 촬영하고 모델링(modeling) 또는 렌더링(rendering) 중 적어도 어느 하나를 수행함으로써 상기 제1 이미지 정보를 생성하는 제1 모드가 설정되고, 상기 전력 정보가 상기 임계치 미만을 나타내는 경우에는 상기 관리 서버에 기 설정된 3차원 캐릭터를 상기 제1 이미지 정보로써 설정하는 제2 모드가 설정되고,
명령어 음성을 입력 모듈을 통하여 상기 제1 사용자로부터 입력 받고,
상기 제1 사용자의 나이를 나타내는 개인정보를 상기 제1 사용자로부터 입력 받고,
상기 제1 이미지 정보 및 상기 명령어 음성을 상기 관리 서버에게 전달하고, - 상기 명령어 음성은, 상기 명령어 음성이 나타내는 질문에 대한 응답의 시간 기준을 나타내는 희망시간을 포함함 -
상기 관리 서버는,
상기 명령어 음성으로부터 상기 명령어 음성이 나타내는 질문에 상응하는 제1 텍스트를 추출하고,
상기 제1 텍스트로부터 상기 희망시간을 나타내는 정보를 추출하고,
상기 제1 이미지 정보가 나타내는 상기 제1 사용자의 외형이 상기 희망시간 만큼 노화된(aging) 모습을 나타내는 제2 이미지 정보로 변환하고, - 상기 노화된 모습은 상기 희망시간에 비례하여 주름, 검버섯, 흰머리의 개수 및 탈모의 정도가 증가된 모습으로 설정됨 -
상기 제1 텍스트를, 상기 제1 사용자의 나이와 상기 희망시간에 기반하여 결정되는 나이를 갖는 제2 사용자의 제2 사용자 단말에게 전달하고,
상기 제1 텍스트가 나타내는 상기 질문에 대한 상기 제2 사용자의 응답을 나타내는 제2 텍스트를 상기 제2 사용자 단말로부터 수신하고,
상기 제2 텍스트를 TTS(Text to Speech)에 적용함으로써 상기 응답에 상응하는 음성이 상기 챗봇 서비스를 통하여 상기 제1 사용자 단말에서 출력(output)되도록 제어하되, 상기 제2 이미지 정보에 기반하여 외형이 결정되는 상기 챗봇 서비스를 위한 캐릭터 객체가 상기 제1 사용자 단말의 디스플레이에서 표시되도록 제어하는 것을 특징으로 하는,
커뮤니케이션 시스템.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210064367A KR102536992B1 (ko) | 2020-05-18 | 2021-05-18 | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 |
KR1020230065934A KR20230079321A (ko) | 2020-07-16 | 2023-05-22 | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200059231A KR102256383B1 (ko) | 2020-05-18 | 2020-05-18 | 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템 |
KR1020210064367A KR102536992B1 (ko) | 2020-05-18 | 2021-05-18 | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200059231A Division KR102256383B1 (ko) | 2020-05-18 | 2020-05-18 | 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230065934A Division KR20230079321A (ko) | 2020-07-16 | 2023-05-22 | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210142560A true KR20210142560A (ko) | 2021-11-25 |
KR102536992B1 KR102536992B1 (ko) | 2023-05-26 |
Family
ID=76145240
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200059231A KR102256383B1 (ko) | 2020-05-18 | 2020-05-18 | 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템 |
KR1020210064367A KR102536992B1 (ko) | 2020-05-18 | 2021-05-18 | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200059231A KR102256383B1 (ko) | 2020-05-18 | 2020-05-18 | 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102256383B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102578257B1 (ko) * | 2023-05-30 | 2023-09-12 | 김세원 | 챗봇 서비스 구축 및 유지보수 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101839726B1 (ko) * | 2017-04-28 | 2018-04-27 | 황철하 | 양방향 커뮤니케이션이 가능한 가상현실 시스템 |
KR20180055705A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법 |
KR102030803B1 (ko) | 2017-05-17 | 2019-11-08 | 주식회사 에이아이리소프트 | 챗봇의 대화처리장치 및 그 방법 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020007735A (ko) * | 2000-07-18 | 2002-01-29 | 최창석 | 미래 자녀 및 미래모습 예측이 가능한 얼굴 포토 스티커시스템 |
KR20020014176A (ko) * | 2000-08-16 | 2002-02-25 | 김세진 | 자기 모습을 담은 캐릭터의 즉시 촬영 제작 방법 및 장치 |
KR101160693B1 (ko) * | 2005-07-06 | 2012-06-28 | 엘지전자 주식회사 | 아바타 냉장고 |
US20090300525A1 (en) * | 2008-05-27 | 2009-12-03 | Jolliff Maria Elena Romera | Method and system for automatically updating avatar to indicate user's status |
US10475225B2 (en) * | 2015-12-18 | 2019-11-12 | Intel Corporation | Avatar animation system |
KR102224500B1 (ko) * | 2018-03-23 | 2021-03-08 | 주식회사 포지큐브 | 인공지능 기반의 가상 호스트 캐릭터를 이용한 대화형 고객 응대 서비스 제공 시스템 및 방법 |
KR102068993B1 (ko) * | 2018-05-24 | 2020-01-22 | 주식회사 이누씨 | 다시점 영상 정합을 이용한 아바타 생성 방법 및 장치 |
CN111226194B (zh) * | 2018-09-27 | 2024-08-13 | 三星电子株式会社 | 提供交互界面的方法和系统 |
-
2020
- 2020-05-18 KR KR1020200059231A patent/KR102256383B1/ko active IP Right Grant
-
2021
- 2021-05-18 KR KR1020210064367A patent/KR102536992B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180055705A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법 |
KR101839726B1 (ko) * | 2017-04-28 | 2018-04-27 | 황철하 | 양방향 커뮤니케이션이 가능한 가상현실 시스템 |
KR102030803B1 (ko) | 2017-05-17 | 2019-11-08 | 주식회사 에이아이리소프트 | 챗봇의 대화처리장치 및 그 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102578257B1 (ko) * | 2023-05-30 | 2023-09-12 | 김세원 | 챗봇 서비스 구축 및 유지보수 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR102256383B1 (ko) | 2021-05-25 |
KR102536992B1 (ko) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20230079321A (ko) | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 | |
Ren | Affective information processing and recognizing human emotion | |
KR102270217B1 (ko) | 출퇴근 시간에 기반하여 구직자 정보를 생성하는 블록체인 시스템 | |
KR102202788B1 (ko) | 모조품 판별을 위한 인공지능 장치 및 방법 | |
KR102393078B1 (ko) | 4차 산업 기술을 이용하는 마케팅 서비스를 제공하는 방법 및 그 시스템 | |
KR102176249B1 (ko) | 사용자 맞춤형 광고 플랫폼을 제공하는 온라인 서비스를 운용하는 서버 및 그 시스템 | |
Dudzik et al. | Context in human emotion perception for automatic affect detection: A survey of audiovisual databases | |
KR102585298B1 (ko) | 가상현실(vr) 기술 기반의 갤러리 플랫폼을 제공하는 시스템 | |
Murphy et al. | AI: A museum planning toolkit | |
KR20200031959A (ko) | 사회 지능 평가 방법 및 이를 위한 장치 | |
KR102536992B1 (ko) | 챗봇 서비스를 제공하는 커뮤니케이션 시스템 | |
KR102176151B1 (ko) | 인공지능 모듈 및 블록체인 모듈을 포함하는 광고 플랫폼을 제공하는 서버 | |
KR102176268B1 (ko) | 매칭 점수에 기반하여 맞춤형 광고 정보를 제공하는 방법 및 그 시스템 | |
Schmitt et al. | The role of AI-based artifacts’ voice capabilities for agency attribution | |
KR102176256B1 (ko) | 복수의 추천 광고 업체를 나타내는 정보를 생성하여 사용자 단말을 통하여 출력하는 관리 서버 및 그 방법 | |
KR102176290B1 (ko) | 매칭 점수를 포함하는 마케팅 정보를 제공하는 방법 및 그 시스템 | |
KR102176242B1 (ko) | 광고 업체를 추천하는 광고 플랫폼에 관한 사용자 단말 및 서버를 포함하는 시스템 | |
KR102317579B1 (ko) | 광고 플랫폼을 제공하는 서버 및 그 시스템 | |
Sheikh et al. | AI is leaving the lab and entering society | |
KR20210136403A (ko) | 빅데이터 기반의 광고 업체 검색을 위한 스마트 시스템 | |
KR20210136527A (ko) | 사용자의 개인 정보 및 직업 정보를 이용하여 학습되는 인공신경망 모델 기반의 광고 추천 서비스를 제공하는 네트워크 엔티티 | |
Singh et al. | A Survey on: Personality Prediction from Multimedia through Machine Learning | |
KR102176245B1 (ko) | 복수의 추천 광고 업체를 나타내는 정보를 생성하여 단말에게 제공하는 서버 및 그 방법 | |
KR102176259B1 (ko) | 인공지능 및 블록체인 기술 기반의 광고 정보를 생성하는 제어 장치 | |
Elshentenawy et al. | Intellibot: A Personalized Behavioral Analysis Chatbot Framework Powered by GPT-3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |