KR20180054528A - Concierge robot system, concierge service method and concierge robot - Google Patents

Concierge robot system, concierge service method and concierge robot Download PDF

Info

Publication number
KR20180054528A
KR20180054528A KR1020180048708A KR20180048708A KR20180054528A KR 20180054528 A KR20180054528 A KR 20180054528A KR 1020180048708 A KR1020180048708 A KR 1020180048708A KR 20180048708 A KR20180048708 A KR 20180048708A KR 20180054528 A KR20180054528 A KR 20180054528A
Authority
KR
South Korea
Prior art keywords
data
user
concierge
service
outputting
Prior art date
Application number
KR1020180048708A
Other languages
Korean (ko)
Inventor
김대훈
김홍기
이태현
김철민
이상기
Original Assignee
주식회사 로보러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 로보러스 filed Critical 주식회사 로보러스
Publication of KR20180054528A publication Critical patent/KR20180054528A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • G06K9/00221
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)

Abstract

Provided are a concierge robot system, a concierge service method, and a concierge robot. The system is the concierge robot system for providing an artificial intelligence concierge service, and comprises: a user interface device which receives external images and external voices, and outputs data on a screen or outputs to voices; a storage device which stores a program providing data through the user interface device based on learning data generated using a neural network model; and a processor which carries out the program. In this regard, the program includes instructions which recognizes emotions of a user identified from the external images based on the learning data, outputs data expressing emotions caused by the emotion recognition on the screen, outputs to voices by generating conversation sentences corresponding to a natural language of web data collected from the outside through web scrapping based on the learning data, outputs to voices by generating conversation sentences corresponding to an answer by a recognition result of the external voices, generates user recommendation data for the identified user based on the learning data, and outputs the user recommendation data on the screen or outputs conversation sentences corresponding to the process of the natural language to voices.

Description

컨시어지 로봇 시스템, 컨시어지 서비스 방법 및 컨시어지 로봇{CONCIERGE ROBOT SYSTEM, CONCIERGE SERVICE METHOD AND CONCIERGE ROBOT}CONCIERGE ROBOT SYSTEM, CONCIERGE SERVICE METHOD AND CONCIERGE ROBOT BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 컨시어지 로봇 시스템, 컨시어지 서비스 방법 및 컨시어지 로봇에 관한 것이다.The present invention relates to a concierge robot system, a concierge service method, and a concierge robot.

인간에게 서비스를 제공하는 지능형 로봇은 가정 이외에도 식당과 같은 공간에서 그 활용도가 높을 것으로 보이며 이에 적합한 로봇의 연구가 진행되고 있는 상황이다. Intelligent robots that provide services to human beings seem to be highly utilized in the same places as restaurants, and studies of robots suitable for them are underway.

로봇 산업화 시대를 맞아 레스토랑 등과 같은 서비스 제공 장소에서의 로봇의 활용에 대한 기대가 커지고 있는 시점에서 고객의 만족을 높이고 고객의 이용 성향 등에 따른 차별화된 서비스가 요구된다.In the era of industrialization of robots, differentiated services are required to enhance customer satisfaction and to use the customers in a time when expectation of utilization of robots in service providing places such as restaurants is increasing.

종래에 식당 등의 서비스 제공 장소에서 무인 종합정보안내시스템인 키오스크를 설치하여 자동화 서비스를 제공하고 있다. 그러나, 이러한 키오스크는 단순히 네트워크 장치들만 설치하여 전산화를 시도하였을 뿐 고객과의 상호작용이나 고객에게 차별화된 서비스의 제공과는 거리가 먼 실정이다.Conventionally, a kiosk, which is an unmanned general information guidance system, is installed at a service providing place such as a restaurant, and automation service is provided. However, such a kiosk has attempted to computerize only by installing network devices, but it is far from being interactive with customers or offering differentiated services to customers.

또한, 단순이 주문에 따라 메뉴 선택과 결제를 자동화하는 식권발매기 기능에 그치는 수준이므로, 고객의 다양한 욕구를 충족시키지 못한다. In addition, the simplicity is only the function of a ticket vending machine that automates the menu selection and settlement according to the order, so it does not satisfy various needs of the customer.

또한, 무인 종합정보안내시스템에 로봇 기술을 적용하는 경우도 있으나, 이 역시, 사용자의 특정 입력에 로봇의 출력을 사전에 정의하기 때문에, 로봇의 행동이 단순 반복적으로 되풀이될 뿐이어서, 사용자와 커뮤니케이션 하는 것이 아니라 지시한 바를 출력하는 단순 작업이 이루어지는 것에 불과하다. 따라서, 사람의 편리를 위한 서비스 로봇은 사용자의 다양한 요구에 적합하게 대응할 수 있는 지능적인 작업 수행과 사용자와의 상호작용이 필요하게 되었다.In addition, there is a case in which robot technology is applied to the unmanned general information guidance system. However, since the output of the robot is defined in advance in a specific input of the user, the robot's behavior is simply repetitively repeated, It is merely a simple operation of outputting the instruction that is instructed. Therefore, service robots for human convenience are required to perform intelligent tasks and to interact with users in order to meet various needs of users.

본 발명이 해결하고자 하는 과제는 로봇을 이용한 대면 서비스 등의 컨시어지 서비스를 제공할 때 사용자의 감정 및 요구 사항을 정확히 판단하여 맞춤형 정보를 제공하는 컨시어지 로봇 시스템, 컨시어지 서비스 방법 및 컨시어지 로봇을 제공하는 것이다.The present invention provides a concierge robot system, a concierge service method, and a concierge robot that provide customized information by accurately determining user's feelings and requirements when providing a concierge service such as face-to-face service using a robot .

본 발명의 하나의 특징에 따르면, 컨시어지 로봇 시스템은 인공 지능형 컨시어지 서비스를 제공하는 컨시어지 로봇 시스템으로서, 외부 영상 및 외부 음성을 입력받고, 데이터를 화면에 출력하거나 또는 음성으로 출력하는 사용자 인터페이스 장치, 신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 데이터를 상기 사용자 인터페이스 장치를 통해 제공하는 프로그램을 저장하는 저장 장치, 그리고 상기 프로그램을 실행하는 프로세서를 포함하고, 상기 프로그램은, 상기 학습 데이터들을 토대로 상기 외부 영상으로부터 식별한 사용자의 감정을 인식하고, 상기 감정 인식에 따른 감정을 표현하는 데이터를 상기 화면에 출력하며, 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 학습 데이터들을 토대로 생성하여 음성으로 출력하고, 상기 외부 음성의 인식 결과에 따른 답변에 대응되는 대화 문장을 생성하여 음성으로 출력하며, 상기 학습 데이터들을 토대로 상기 식별한 사용자를 위한 사용자 추천 데이터를 생성하고, 상기 사용자 추천 데이터를 상기 화면에 출력하거나 또는 자연어 처리하여 대응되는 대화 문장을 음성으로 출력하는 명령어들(instructions)을 포함한다.According to one aspect of the present invention, a concierge robot system is a concierge robot system for providing an artificial intelligent concierge service, comprising: a user interface device for inputting an external image and an external voice, A storage device for storing a program for providing data through the user interface device based on learning data generated using a model, and a processor for executing the program, the program comprising: The method includes the steps of recognizing a user's emotion identified from an external image, outputting data expressing an emotion according to the emotion recognition to the screen, and transmitting a conversation sentence corresponding to a natural language of web data collected from the outside through web scraping to the learning Based on the data Generating a dialogue sentence corresponding to an answer according to a result of recognition of the external voice and outputting it as a voice, generating user recommendation data for the identified user based on the learning data, And instructions for outputting the data to the screen or natural language processing and outputting a corresponding conversation sentence by voice.

상기 컨시어지 로봇 시스템은, 제한된 공간의 통신 영역에서 무선 데이터를 송수신하는 통신 장치를 더 포함하고, 상기 프로그램은, 상기 통신 장치를 통하여 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅하고, 상기 컨시어지 서비스 제공 URL을 통해 획득한 사용자 요청에 따라 사용자를 응대하는 컨시어지 서비스 데이터를 생성하는 명령어들을 포함하며, 상기 컨시어지 서비스 제공 URL은, 접속한 사용자 단말에게 회원 가입 안내 정보, 개인 정보 이용 동의 요구, 서비스 매장 정보, 서비스 메뉴 정보, 대기번호 안내, 상품 또는 서비스 주문, 및 온라인 결제 서비스 중 적어도 하나를 포함하는 컨시어지 서비스를 제공할 수 있다.Wherein the concierge robot system further comprises a communication device for transmitting and receiving wireless data in a communication area of a limited space, the program broadcasting a uniform resource locator (URL) through the communication device, And generating concierge service data corresponding to the user in response to a user request obtained through the concierge service providing URL, wherein the concierge service providing URL includes a member registration guide information, a personal information use consent request, A concierge service including at least one of service shop information, service menu information, waiting number information, product or service order, and online payment service.

상기 프로그램은, 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터와 CRM(Customer Relationship Management) 데이터를 매칭하여 도출된 서비스 추천 정보, 프로모션 정보 및 광고 정보 중 적어도 하나를 포함하는 마게팅 정보를 제공하기 위한 상기 컨시어지 서비스 제공 URL을 브로드캐스팅하는 명령어들을 포함할 수 있다.The program may include at least one of service recommendation information, promotion information, and advertisement information derived by matching CRM (Customer Relationship Management) data with a plurality of user personal data including at least one of a user's visit history, service use history, And broadcasting the concierge service providing URL to provide the marching information including one.

상기 프로그램은, 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 상기 신경망을 역전파(backward propagation)하여 상기 사용자 추천 데이터를 생성하는 명령어들을 포함할 수 있다.The program generates a relationship between a plurality of user personal data, emotion learning data, and CRM (Customer Relationship Management) data including at least one of a visit history of a user, a service use history and a payment history by a neural network, And backward propagation to generate the user recommendation data.

상기 컨시어지 로봇 시스템은, 외부의 클라우드 서버와 유선 또는 무선으로 데이터를 송수신하는 서버 인터페이스 장치를 더 포함하고, 상기 프로그램은, 상기 외부 영상으로부터 인식한 얼굴 영상을 상기 클라우드 서버로 전달하여 상기 얼굴 영상에 대응되는 감정 학습을 수행시켜 감정 학습 데이터를 획득하고, 상기 사용자 인터페이스 장치로부터 입력되는 얼굴 영상을 상기 클라우드 서버로 전달하여 상기 얼굴 영상에 대응되는 감정 인식을 요청하여 수신하는 명령어들을 포함할 수 있다.Wherein the concierge robot system further comprises a server interface device for transmitting and receiving data to / from an external cloud server by wire or wireless, wherein the program transmits a facial image recognized from the external image to the cloud server, Acquiring emotion learning data by performing corresponding emotion learning, transmitting a face image input from the user interface device to the cloud server, requesting emotion recognition corresponding to the face image, and receiving the emotion recognition data.

상기 프로그램은, 상기 감정을 표현하는 데이터 및 상기 사용자 추천 데이터를 자연어 처리하여 대응되는 자연어를 생성하고, 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용하여 학습하며, 학습 결과를 사용하여 상기 대화 문장을 생성하는 명령어들을 포함할 수 있다.Wherein the program is configured to perform natural language processing of data expressing the emotion and the user recommendation data to generate a corresponding natural language, to learn a conversation sentence corresponding to a natural language using the neural network model, Lt; / RTI >

상기 컨시어지 로봇 시스템은, 외부의 클라우드 서버와 유선 또는 무선으로 데이터를 송수신하는 서버 인터페이스 장치를 더 포함하고, 상기 프로그램은, 상기 감정을 표현하는 데이터 및 상기 사용자 추천 데이터를 자연어 처리하여 대응되는 자연어를 생성하고, 상기 자연어를 상기 클라우드 서버로 전송하여 상기 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용하여 학습시킨 후, 학습 결과를 사용하여 생성된 대화 문장을 수신하는 명령어들을 포함할 수 있다.The concierge robot system may further include a server interface device for transmitting and receiving data to / from an external cloud server by wire or wireless, and the program may further comprise a data processing unit for processing the data expressing the emotion and the user recommendation data, And transmitting the natural language to the cloud server, learning the conversation sentence corresponding to the natural language using the neural network model, and receiving the generated conversation sentence using the learning result.

상기 프로그램은, 모델, 뷰 및 콘트롤러(MVC, Model, View and Controller)로 정의된 컨시어지 서비스를 적용하고, 상기 다수의 사용자 개인 데이터, 상기 감정 학습 데이터 및 상기 CRM 데이터를 빅데이터 처리하여 상기 사용자 추천 데이터를 생성하는 명령어들을 포함할 수 있다.The program is configured to apply a concierge service defined by a model, a view and a controller (MVC, Model, View and Controller), process the user data, the emotion learning data and the CRM data, And may include instructions for generating data.

상기 컨시어지 로봇 시스템은, 상기 음성 인식 결과에 따른 상품 또는 서비스 주문을 처리하고, 통신망과 연결된 결제 서버와 연동하여 결제 처리를 수행하는 포스(POS, Point Of Sales) 장치를 더 포함하고, 상기 프로그램은, 상기 포스 장치로부터 주문 내역 및 결제 내역을 수집하여 상기 사용자 개인 데이터로 저장하는 명령어들을 포함할 수 있다.The concierge robot system further includes a point of sale (POS) device for processing a product or service order according to the speech recognition result and performing payment processing in cooperation with a payment server connected to the communication network, And collecting order details and payment details from the force device and storing the collected personal information as user personal data.

상기 인터페이스 장치는, 상기 외부 영상을 촬영하는 영상 입력 장치, 화면에 데이터를 시각적으로 표시하는 디스플레이 장치, 상기 외부 음성을 입력받는 음성 입력 장치, 상기 대화 문장을 음성으로 출력하는 음성 출력 장치, 그리고 제어 신호에 따라 구동하는 적어도 하나의 LED(Light Emitting Diode)를 포함하는 발광부를 포함하고, 상기 프로그램은, 상기 대화 문장을 상기 음성 출력 장치로 출력하고, 상기 사용자 추천 데이터 및 상기 감정을 표현하는 데이터를 상기 디스플레이 장치를 통해 출력하며, 상기 감정을 표현하는 데이터에 따라 발광 시간, 발광 색상 및 발광량 중 적어도 하나를 제어하는 신호를 상기 발광부로 출력하는 명령어들을 포함할 수 있다.The interface device includes a video input device for capturing the external video, a display device for visually displaying data on the screen, a voice input device for inputting the external voice, a voice output device for outputting the conversation text by voice, And a light emitting unit including at least one LED (Light Emitting Diode) driven according to a signal, wherein the program outputs the conversation sentence to the sound output apparatus, and transmits the user recommendation data and the data expressing the emotion And outputting a signal for controlling at least one of a light emission time, a light emission color, and a light emission amount to the light emitting unit according to data expressing the emotion.

본 발명의 다른 특징에 따르면, 컨시어지 서비스 방법은 적어도 하나의 프로세서에 의해 동작하는 컨시어지 로봇 시스템에서 수행되는 컨시어지 서비스 방법으로서, 외부 영상이 입력되면, 신경망 모델의 학습을 통해 추출된 사용자 특징 데이터에 기초하여 상기 외부 영상으로부터 인식된 얼굴 영상으로부터 사용자를 식별하는 단계, 복수의 얼굴 영상에 대응되는 감정을 상기 신경망 모델을 사용하여 학습한 감정 학습 데이터에 기초하여 상기 얼굴 영상으로부터 상기 식별한 사용자의 감정을 인식하는 단계, 상기 감정 인식에 따른 감정 표현 데이터를 생성하여 디스플레이 장치를 통해 출력하는 단계, 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용한 자연어에 대응되는 대화 문장의 학습 결과에 기초하여 생성하는 단계, 그리고 상기 대화 문장에 대응되는 음성을 음성 출력 장치를 통해 외부로 출력하는 단계를 포함한다.According to another aspect of the present invention, a concierge service method is a concierge service method performed in a concierge robot system operated by at least one processor. When an external image is input, the concierge service method is based on user characteristic data extracted through learning of a neural network model Identifying the user from the facial image recognized from the external image, calculating emotion corresponding to the plurality of facial images from the facial image based on emotion learning data learned using the neural network model, Generating a sentence corresponding to the natural language of the web data collected from the outside through the web scraping to correspond to a natural language using the neural network model; The study of conversation sentence Generating on the basis of the result, and a step of outputting to the outside through the sound output apparatus a voice corresponding to the conversation sentence.

외부 음성으로부터 인식된 자연어에 대한 답변을 생성하고, 상기 답변에 대응되는 음성을 출력하는 단계를 더 포함할 수 있다.Generating an answer to the recognized natural language from the external voice, and outputting a voice corresponding to the answer.

제한된 공간의 통신 영역에서 무선으로 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅하는 단계, 상기 컨시어지 서비스 제공 URL을 통해 획득한 사용자 요청에 따라 사용자를 응대하는 컨시어지 서비스 데이터를 생성하는 단계, 그리고 상기 컨시어지 서비스 데이터를 자연어 처리하고 자연어에 대응되는 대화 문장을 음성으로 출력하는 단계를 더 포함하고, 상기 컨시어지 서비스 제공 URL은, 접속한 사용자 단말에게 회원 가입 안내 정보, 개인 정보 이용 동의 요구, 서비스 매장 정보, 서비스 메뉴 정보, 대기번호 안내, 상품 또는 서비스 주문, 및 온라인 결제 서비스 중 적어도 하나를 포함하는 컨시어지 서비스를 제공할 수 있다.Broadcasting a uniform resource locator (URL) by wireless in a communication area of a limited space, generating concierge service data responsive to a user request obtained through the concierge service providing URL, The method of claim 1, further comprising the step of processing the concierge service data in a natural language and outputting a conversation sentence corresponding to a natural language as a voice, wherein the concierge service providing URL includes a member registration guide information, A concierge service including at least one of store information, service menu information, waiting number information, product or service order, and online payment service.

상기 컨시어지 서비스 제공 URL은, 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터와 CRM(Customer Relationship Management) 데이터를 매칭하여 도출된 서비스 추천 정보, 프로모션 정보 및 광고 정보 중 적어도 하나를 포함하는 마게팅 정보를 제공할 수 있다.The concierge service providing URL includes at least one of service recommendation information derived by matching a plurality of user personal data including at least one of a visit history of a user, service usage history and payment history, and CRM (Customer Relationship Management) data, And information about the at least one of the at least one of the at least one of the at least two of the at least one of the at least two of the at least two.

사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터, 상기 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 상기 신경망을 역전파(backward propagation)하여 사용자 추천 데이터를 생성하는 단계, 그리고 상기 사용자 추천 데이터를 자연어 처리하고, 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용한 자연어에 대응되는 대화 문장의 학습 결과에 기초하여 생성하여 음성으로 출력하는 단계를 더 포함할 수 있다.A method of generating a relationship between a plurality of user personal data including at least one of a visit history of a user, a service use history and a payment history, the emotion learning data, and CRM (Customer Relationship Management) data by a neural network, and generating user recommendation data by processing the user recommendation data in a natural language, generating a dialogue sentence corresponding to the natural language based on a learning result of a dialogue sentence corresponding to a natural language using the neural network model, The method comprising the steps of:

본 발명의 또 다른 특징에 따르면, 컨시어지 로봇은 소정의 형상으로 이루어진 본체, 상기 본체에 장착되어, 데이터를 화면에 출력하는 디스플레이 장치, 상기 본체에 장착되어, 음성을 출력하는 스피커, 상기 본체에 장착되어, 외부 영상을 촬영하는 카메라, 상기 본체에 장착되어, 외부 음성을 입력받는 마이크, 상기 본체에 장착되어, 주문 및 결제 내역을 출력하는 프린터, 상기 본체에 장착되어, 접촉식 또는 비접촉식으로 결제 수단을 인식하는 결제 인식부, 상기 본체에 장착되어, 통신망 및 외부 장치와 연결되는 입출력 포트, 상기 본체의 내부에 장착되어 프로그램을 저장하는 메모리, 그리고 상기 프로그램을 실행하는 적어도 하나의 프로세서로 구성된 제어부를 포함하고, 상기 제어부는, 신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 상기 외부 영상으로부터 식별한 사용자의 감정을 인식하고, 상기 감정 인식에 따른 감정을 표현하는 데이터를 상기 디스플레이 장치로 출력하며, 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 학습 데이터들을 토대로 생성하여 상기 스피커로 출력하고, 상기 외부 음성의 인식 결과에 따른 답변에 대응되는 대화 문장을 생성하여 상기 스피커로 출력하며, 상기 외부 음성의 인식 결과에 따른 상품 또는 서비스 주문을 처리하고, 상기 통신망과 연결된 결제 서버와 연동하여 결제 처리를 수행한 후, 결제 처리 결과를 상기 프린터로 출력하며, 상기 주문의 처리 결과를 자연어 처리하여 대응되는 대화 문장을 상기 스피커로 출력한다.According to another aspect of the present invention, there is provided a concierge robot comprising: a body having a predetermined shape; a display device mounted on the body for outputting data to a screen; a speaker mounted on the body for outputting sound; A printer mounted on the main body and mounted on the main body so as to be in contact or non-contact with the main body, An input / output port mounted on the main body and connected to a communication network and an external device, a memory mounted inside the main body and storing a program, and a control unit including at least one processor for executing the program Based on learning data generated using a neural network model, A display unit for displaying a sentence corresponding to a natural language of the web data collected from the outside through web scraping; And generates a dialogue sentence corresponding to an answer according to a result of recognition of the external voice and outputs the generated dialogue sentence to the speaker, and processes the product or service order according to the recognition result of the external voice And outputs the settlement processing result to the printer, processes the result of the order processing in a natural language, and outputs the corresponding conversation sentence to the speaker.

상기 본체에 장착되어, 구동신호를 발생하는 액추에이터 구동부, 그리고 상기 본체에 장착되어, 상기 액추에이터 구동부의 구동신호에 따라 구동되어 미리 설정된 각도의 범위에서 회전하거나, 미리 설정된 방향으로 움직이는 작동부재를 더 포함할 수 있다.And an actuating member mounted to the main body and driven by a driving signal of the actuator driving unit to rotate in a predetermined angle range or to move in a predetermined direction can do.

상기 본체에 장착되어, 제어 신호에 따라 구동하는 적어도 하나의 LED(Light Emitting Diode)를 포함하는 발광 장치를 포함하고, 상기 제어부는, 상기 감정을 표현하는 데이터에 따라 발광 시간, 발광 색상 및 발광량 중 적어도 하나를 제어하는 신호를 상기 발광부로 출력할 수 있다.And a light emitting device mounted on the main body and including at least one LED (Light Emitting Diode) driven according to a control signal, wherein the control unit controls the light emitting device to emit light in accordance with data expressing the emotion, And can output a signal for controlling at least one to the light emitting unit.

본 발명의 실시예에 따르면, 학습된 신경망 기술을 토대로 방문 고객을 인지(음성인식, 얼굴인식, 감정인식 등)하여 요구 사항을 정확히 판단하고 고객에게 최적화된 맞춤형 서비스를 신속히 제공하는 AI 기반의 차별화된 지능화 서비스를 통한 경쟁력 강화와 수익구조를 개선할 수 있다. According to the embodiment of the present invention, based on learned neural network technology, AI-based differentiation that accurately determines requirements by recognizing visiting customers (speech recognition, face recognition, emotion recognition, etc.) It is possible to improve competitiveness and profit structure through intelligent services.

또한, 반복 업부 분야에서 서비스 품질 개선과 함께 사용자와의 보다 긴밀한 상호작용 관계를 유지할 수 있어 로봇의 사용 빈도가 높아지게 되어 소비자 및 생산자 모두에게 높은 만족도를 제공할 수 있다. In addition, it is possible to improve the quality of service in the field of repetitive business and to maintain more close interaction relation with the user, so that the frequency of use of the robot is increased, thereby providing high satisfaction to both consumers and producers.

도 1은 본 발명의 한 실시예에 따른 컨시어지 로봇 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 컨시어지 로봇 시스템의 구성도이다.
도 3은 본 발명의 실시예에 따른 컨시어지 로봇의 전면 사시도이다.
도 4는 본 발명의 실시예에 따른 컨시어지 로봇의 전면도이다.
도 5는 본 발명의 실시예에 따른 컨시어지 로봇의 후면 사시도이다.
도 6은 본 발명의 한 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.
도 8은 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.
도 9는 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.
도 10은 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.
도 11은 본 발명의 또 다른 실시예에 따른 컨시어지 로봇 시스템의 하드웨어 구성을 나타낸 블록도이다.
1 is a configuration diagram of a concierge robot system according to an embodiment of the present invention.
2 is a configuration diagram of a concierge robot system according to another embodiment of the present invention.
3 is a front perspective view of a concierge robot according to an embodiment of the present invention.
4 is a front view of a concierge robot according to an embodiment of the present invention.
5 is a rear perspective view of a concierge robot according to an embodiment of the present invention.
6 is a flowchart illustrating a concierge service method using a robot according to an embodiment of the present invention.
7 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention.
8 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention.
9 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention.
10 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention.
11 is a block diagram illustrating a hardware configuration of a concierge robot system according to another embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" ... "," module ", and the like described in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software .

본 명세서에서, 컨시어지 서비스(Concierge Service)는 고객의 편의를 위해 고객의 요구를 판단하고 이행하는 비서와 같은 서비스로서, 고객과 대면하는 일종의 관문 서비스라 정의한다. 이러한 컨시어지 서비스는 예를들면, 레스토랑, 커피전문점, 패스트푸드점, 호텔, 매장 등에서 제공될 수 있다. In the present specification, the Concierge Service is defined as a kind of gateway service that faces the customer as a secretarial service for judging and fulfilling the customer's needs for the convenience of the customer. Such a concierge service may be provided, for example, in a restaurant, a coffee shop, a fast food restaurant, a hotel, a shop, or the like.

이제, 도면을 참조하여 본 발명의 실시예에 따른 컨시어지 로봇 시스템, 컨시어지 서비스 방법 및 컨시어지 로봇에 대하여 설명한다.A concierge robot system, a concierge service method, and a concierge robot according to an embodiment of the present invention will now be described with reference to the drawings.

도 1은 본 발명의 한 실시예에 따른 컨시어지 로봇 시스템의 구성도이다.1 is a configuration diagram of a concierge robot system according to an embodiment of the present invention.

도 1을 참조하면, 컨시어지 로봇 시스템(100)은 영상 촬영부(101), 얼굴 인식부(103), 감정 인식부(105), 사용자 인식부(107), 음성 입력부(109), 음성 인식부(111), 대화문장 생성부(113), 컨시어지 서비스 처리부(115), 디스플레이 장치(117), 발광 장치(119), 음성 출력 장치(121), 행위 표현부(123), 근거리 통신 장치(125), 저장 장치(127), 포스(POS) 장치(129), 입출력 포트(131) 및 통신 장치(133)를 포함한다.1, the concierge robot system 100 includes an image capturing unit 101, a face recognizing unit 103, an emotion recognizing unit 105, a user recognizing unit 107, a voice input unit 109, The conversation sentence generation unit 113, the concierge service processing unit 115, the display device 117, the light emitting device 119, the audio output device 121, the behavior expression unit 123, the short distance communication device 125 A storage device 127, a POS device 129, an input / output port 131, and a communication device 133.

이때, 영상 촬영부(101), 음성 입력부(109), 디스플레이 장치(117), 발광 장치(119) 및 음성 출력 장치(121)는 사용자 인터페이스 장치를 구성한다. 즉, 사용자로부터 정보를 획득하고, 획득한 정보에 기초하여 사용자에게 컨시어지 서비스 데이터를 출력하는 인터페이스 기능을 한다.At this time, the image capturing unit 101, the voice input unit 109, the display device 117, the light emitting device 119, and the voice output device 121 constitute a user interface device. That is, it acquires information from a user and performs an interface function of outputting concierge service data to the user based on the acquired information.

영상 촬영부(101)는 외부 영상을 촬영하여 영상에 대응되는 영상 신호를 출력한다. 영상 촬영부(101)로는 디지털 카메라인 CCD(Charge Coupled Device) 카메라, 깊이 카메라, 팬 틸트 줌 기능 카메라(Pan-Tilt-Zoom Camera) 등이 사용될 수 있다.The image capturing unit 101 captures an external image and outputs a video signal corresponding to the image. A CCD (Charge Coupled Device) camera, a depth camera, a pan-tilt-zoom camera, or the like, which is a digital camera, may be used as the image photographing unit 101.

얼굴 인식부(103)는 영상 촬영부(101)에서 출력되는 영상 신호에 대응되는 영상을 사용하여 영상 속 인물의 얼굴을 인식한다.The face recognizing unit 103 recognizes the face of the person in the image using the image corresponding to the image signal outputted from the image photographing unit 101. [

감정 인식부(105)는 딥 러닝 기술의 신경망 모델, 특히, 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 이용하여 복수의 얼굴 영상을 학습하여 얼굴 영상이 나타내고 있는 사용자의 감정에 대한 학습을 수행한다. 그 후, 감정 인식부(105)는 얼굴 인식부(103)에 의해 인식되는 얼굴 영상을 입력으로 하여 CNN 모델을 사용하여 해당 얼굴에 대응되는 사용자 감정을 인식할 수 있다. 예를 들어, 얼굴 영상에 대해 학습된 CNN 모델을 통해 본 발명의 실시예에서 학습된 7가지 감정, 즉 분노, 행복, 놀람, 혐오, 슬픔, 공포 및 중립의 감정 중에서 한 가지 감정을 인식하고, 그 결과를 출력할 수 있다.The emotion recognition unit 105 learns a plurality of face images using a neural network model of deep learning technology, in particular, a Convolutional Neural Network (CNN) model, and learns the emotions of the user represented by the face images do. Thereafter, the emotion recognition unit 105 can recognize the user emotion corresponding to the face by using the CNN model as the face image recognized by the face recognizing unit 103 as an input. For example, one of the seven emotions learned in the embodiment of the present invention, namely anger, happiness, surprise, disgust, sadness, fear, and neuter, is recognized through the CNN model learned for the facial image, And output the result.

사용자 인식부(107)는 CNN 모델을 이용하여 얼굴 인식부(103)에서 출력되는 영상을 학습하여 기등록된 사용자에 대한 학습 정보를 생성할 수 있다. The user recognition unit 107 can learn the image output from the face recognition unit 103 using the CNN model and generate learning information for a previously registered user.

사용자 인식부(107)는 기등록된 사용자에 대한 학습 정보에 기초하여, 이후 얼굴 인식부(103)에 의해 인식되는 얼굴 영상을 입력으로 하여 CNN 모델을 사용하여 기등록된 사용자 여부를 인식할 수 있다. 사용자 인식부(107)에 의해 기등록된 사용자가 아닌 것으로 인식되는 경우에는 해당 사용자에게 사용자로서의 등록 절차가 진행될 수 있다.Based on the learning information about the pre-registered user, the user recognition section 107 can recognize the presence or absence of the pre-registered user by using the CNN model with the face image recognized by the face recognition section 103 as an input have. If it is recognized by the user recognition unit 107 that the user is not a previously registered user, the registration process as a user may proceed to the user.

사용자 인식부(107)는 동일인 및 동일인의 다른 이미지와 전혀 다른 대조군의 이미지를 통한 딥(deep) CNN 학습을 통한 128개의 각각의 개인을 구분하는 특징점을 추출해서 숫자로 표현되는 암호화를 수행하여 학습 정보로서 저장한다.The user recognition unit 107 extracts feature points that distinguish 128 individuals from each other through deep CNN learning through images of the same person and the same person and an image of a completely different control group, And stores it as information.

또한, 사용자 인식부(107)는 SVM(Support Vector Machine) 알고리즘을 통해 기등록된 사용자인지의 여부를 인식할 수 있다. 여기서, SVM은 데이터들을 분류하기 위한 최적의 분리 경계면을 제공하는 지도 학습 방법으로 최적의 분리 경계면은 각 클래스의 데이터 사이의 중간에 위치하도록 학습된다.Also, the user recognition unit 107 can recognize whether the user is a previously registered user through a SVM (Support Vector Machine) algorithm. Here, the SVM is a map learning method that provides an optimal separation boundary for classifying data, and the optimal separation boundary is learned to be located in the middle between data of each class.

음성 입력부(109)는 외부로부터 음성을 입력받는 구성으로, 예를 들어 마이크로폰 어레이가 사용될 수 있다.The voice input unit 109 is configured to receive voice from outside, for example, a microphone array can be used.

음성 인식부(111)는 음성 입력부(109)를 통해 입력되는 외부 음성을 인식한다. 이러한 음성 인식 기술에 대해서는 이미 잘 알려져 있으므로 여기에서는 구체적인 설명을 생략한다.The voice recognition unit 111 recognizes an external voice input through the voice input unit 109. [ Since the speech recognition technology is well known, a detailed description thereof will be omitted here.

대화 문장 생성부(115)는 인터넷을 통해 접속 가능한 각종의 외부 서버(200)로부터 웹 데이터를 수집하고 수집된 웹 데이터의 자연어 처리에 의해 생성되는 자연어를 입력으로 이에 대응되는 대화 문장을 생성하는 학습을 수행한다. 여기서, 웹 데이터의 자연어에 대응되는 대화 문장 생성에 대한 학습은, 예를 들어 순환 신경망(Recurrent Neural Network, RNN) 모델을 통해 수행될 수 있다. 이러한 순환 신경망은 최근 크게 이슈화되고 있는, 기계가 데이터로부터 유용한 정보를 추출하는 방법을 연구하는 분야인 인공지능 표현학습(representation learning) 분야의 대표 기술인 딥 러닝(Deep Learning) 알고리즘의 하나로, 인공 신경망을 구성하는 유닛 사이의 연결이 다이렉티드 사이클(Directed cycle)을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망(Feedforward Neural Network)과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있으며, 특히 입력 데이터들의 시계열적 상관관례를 추출하는 데 사용되는 모델이다. 이러한 특성에 의해 순환 신경망은 필기체 인식(Handwriting recognition)과 같은 분야에 활용되고 있고, 높은 인식률을 나타낸다. 이러한 순환 신경망에 대해서는 이미 잘 알려져 있으므로, 여기에서는 그에 대한 구체적인 설명을 생략한다.The conversation sentence generation unit 115 collects web data from various external servers 200 connectable via the Internet, inputs a natural language generated by the natural language processing of the collected web data, and generates a conversation sentence corresponding thereto . Here, the learning about the generation of the conversation sentence corresponding to the natural language of the web data can be performed through a Recurrent Neural Network (RNN) model, for example. One of the deep learning algorithms, which is a representative technology of artificial intelligence representation learning, which is a field of researching how to extract useful information from a machine, which is a big issue recently, is an artificial neural network The connection between the constituent units refers to a neural network constituting a directed cycle. Unlike the Feedforward Neural Network, the cyclic neural network can utilize the memory inside the neural network to process arbitrary input, especially the model used to extract the time series correlation of input data. Due to these characteristics, the circular neural network is utilized in fields such as handwriting recognition and exhibits a high recognition rate. Since such a circular neural network is already well known, a detailed description thereof will be omitted here.

대화 문장 생성부(115)는 서비스 시점에 외부 서버(200)로부터 실시간으로 수집되는 웹 데이터를 자연어 처리한 후 이미 학습된 순환 신경망을 이용하여 자연어 입력에 대응되는 대화 문장을 생성하여 외부로 표시하거나 출력할 수 있다. The conversation sentence generation unit 115 processes the web data collected in real time from the external server 200 at the time of service, generates a conversation sentence corresponding to the input of the natural language using the already-learned circulating neural network, Can be output.

대화 문장 생성부(115)는 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 CNN 모델의 학습 데이터들을 토대로 생성하여 음성으로 출력한다. 그리고 외부 음성의 인식 결과에 따른 답변에 대응되는 대화 문장을 생성하여 음성으로 출력한다.The conversation sentence generation unit 115 generates a conversation sentence corresponding to the natural language of the web data collected from the outside through Web scraping based on the learning data of the CNN model and outputs it as a voice. Then, a conversation sentence corresponding to an answer based on the recognition result of the external speech is generated and outputted as a voice.

컨시어지 서비스 처리부(115)는 감정 인식부(105), 사용자 인식부(107), 대화 문장 생성부(113)로부터 출력되는 데이터를 이용하여 컨시어지 서비스 데이터를 생성하여 출력할 수 있다. 컨시어지 서비스 처리부(115)는 영상 촬영부(101), 얼굴 인식부(103), 감정 인식부(105), 사용자 인식부(107), 음성 입력부(109), 음성 인식부(111), 대화문장 생성부(113), 디스플레이 장치(117), 발광 장치(119), 음성 출력 장치(121), 행위 표현부(123), 근거리 통신 장치(125), 저장 장치(127), 포스(POS) 장치(129), 입출력 포트(131) 및 통신 장치(133)와 연결되어, 이들 구성을 제어하고, 이들 간의 신호를 처리할 수 있다.The concierge service processing unit 115 can generate and output concierge service data using the data output from the emotion recognition unit 105, the user recognition unit 107, and the conversation sentence generation unit 113. [ The concierge service processing unit 115 includes a video capture unit 101, a face recognition unit 103, an emotion recognition unit 105, a user recognition unit 107, a voice input unit 109, a voice recognition unit 111, A display device 117, a light emitting device 119, a sound output device 121, an action expression unit 123, a short range communication device 125, a storage device 127, a POS device Output port 131, and communication device 133 to control these configurations and process signals therebetween.

컨시어지 서비스 처리부(115)는 신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 컨시어지 서비스 데이터를 사용자 인터페이스 장치를 통해 제공한다.The concierge service processing unit 115 provides the concierge service data through the user interface device based on the learning data generated using the neural network model.

컨시어지 서비스 처리부(115)는 학습 데이터들을 토대로 감정 인식에 따른 감정을 표현하는 데이터를 디스플레이 장치(117)의 화면에 출력한다. 즉, 감정 인식에 따른 사용자의 현재 감정 상태를 기초로 사용자와의 상호작용을 위한 표시를 출력하는데, 이모티콘, 그래픽 등으로 다양하게 표현될 수 있다.The concierge service processing unit 115 outputs data expressing emotion based on the emotion recognition on the screen of the display device 117 based on the learning data. That is, a display for interacting with a user based on the current emotional state of the user according to the emotional recognition, may be variously expressed by emoticons, graphics, and the like.

컨시어지 서비스 처리부(115)는 CNN 모델의 학습 데이터들을 토대로 사용자를 위한 사용자 추천 데이터를 생성한다. 이때, 한 실시예에 따르면, 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 신경망을 역전파(backward propagation)하여 사용자 추천 데이터를 생성할 수 있다.The concierge service processing unit 115 generates the user recommendation data for the user based on the learning data of the CNN model. According to an embodiment of the present invention, a relationship between a plurality of user personal data, emotion learning data, and CRM (Customer Relationship Management) data including at least one of a visit history of a user, service utilization history, User recommendation data can be generated by backward propagation of the neural network.

컨시어지 서비스 처리부(115)는 모델, 뷰 및 콘트롤러(MVC, Model, View and Controller)로 정의된 컨시어지 서비스를 적용하고, 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM 데이터를 빅데이터 처리하여 사용자 추천 데이터 생성시 이용할 수 있다.The concierge service processing unit 115 applies a concierge service defined by a model, a view and a controller (MVC, Model, View and Controller), performs a big data process on a large number of user personal data, emotion learning data, It can be used to generate.

여기서, 사용자 추천 데이터는 자주 오는 손님에게 즐겨찾는 메뉴 추천 데이터 또는 자동 포인트 적립을 통해 무료로 즐길 수 있는 메뉴 추천 데이터일 수 있다.Here, the user recommendation data may be favorite menu recommendation data for frequent visitors or menu recommendation data that can be freely enjoyed through automatic point accumulation.

또는, 사용자 추천 데이터는 주 3회 이상 방문하는 고객을 충성 고객군으로 분류한다면, 월별/분기별/연간 방문횟수를 기준으로 그에 상응하는 프로모션과 할인 행사를 현장에서 바로 적용할 수 있는 가이드 정보 일 수 있다.Alternatively, if the user referral data is classified as a loyal customer group who visit three or more times a week, the guide information can be directly applied to the corresponding promotions and discounts on the basis of monthly / quarterly / have.

또는, 사용자 추천 데이터는 CRM과의 연계를 통해 충성고객, 이탈고객 및 일반고객을 구분하고, 고객 구분에 따른 차별화된 쿠폰, 할인 이벤트 등의 프로모션 정보일 수 있다.Alternatively, the user recommendation data may be loyalty customers, departing customers, and general customers through linkage with CRM, and promotional information such as differentiated coupons and discount events according to customer segments.

컨시어지 서비스 처리부(115)는 대화 문장 생성부(113)와 연동하여 사용자 추천 데이터를 화면에 출력하거나 또는 자연어 처리하여 대응되는 대화 문장을 음성으로 출력할 수 있다.The concierge service processing unit 115 may output the user recommendation data on the screen in cooperation with the conversation sentence generation unit 113 or output the corresponding conversation sentence by voice in a natural language process.

컨시어지 서비스 처리부(115)는 사용자 추천 데이터 및 사용자 감정 상태를 디스플레이 장치(117)를 통해 출력한다. The concierge service processing unit 115 outputs the user recommendation data and the user emotion state through the display device 117. [

컨시어지 서비스 처리부(115)는 사용자 감정 상태에 따라 발광 시간, 발광 색상 및 발광량 중 적어도 하나를 제어하는 신호를 발광 장치(119)로 출력한다.The concierge service processing unit 115 outputs a signal for controlling at least one of the light emission time, the color of light emission, and the light emission amount to the light emitting device 119 according to the user emotion state.

컨시어지 서비스 처리부(115)는 사용자 감정 상태에 따라 행위 표현부(123)의 동작을 제어할 수 있다.The concierge service processing unit 115 can control the operation of the behavior expression unit 123 according to the user's emotional state.

컨시어지 서비스 처리부(115)는 근거리 통신 장치(125)를 통하여 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅한다. 그리고 컨시어지 서비스 제공 URL을 통해 획득한 사용자 요청에 따라 사용자를 응대하는 컨시어지 서비스 데이터를 생성한다. The concierge service processing unit 115 broadcasts a uniform resource locator (URL) through the short distance communication device 125. And generates concierge service data corresponding to the user according to the user request obtained through the concierge service providing URL.

여기서, 컨시어지 서비스 제공 URL은, 접속한 사용자 단말(미도시)에게 회원 가입 안내 정보, 개인 정보 이용 동의 요구, 서비스 매장 정보, 서비스 메뉴 정보, 대기번호 안내, 상품 또는 서비스 주문, 및 온라인 결제 서비스 중 적어도 하나를 포함하는 컨시어지 서비스를 제공한다. 이때, 사용자 단말(미도시)은 스마트폰 등이 될 수 있다.Herein, the concierge service providing URL is a service providing URL of the concierge service to the user terminal (not shown) to which the connected user guide information (not shown), personal information use agreement request, service shop information, service menu information, waiting information guide, And provides at least one concierge service. At this time, the user terminal (not shown) may be a smart phone or the like.

또한, 컨시어지 서비스 제공 URL은, 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터와 CRM 데이터를 매칭하여 도출된 서비스 추천 정보, 프로모션 정보 및 광고 정보 중 적어도 하나를 포함하는 마게팅 정보를 제공할 수 있다.Also, the concierge service providing URL may include at least one of service recommendation information, promotion information, and advertisement information derived by matching CRM data with a plurality of user personal data including at least one of a user's visit history, service use history, May provide the < RTI ID = 0.0 >

이러한 컨시어지 서비스 제공 URL은 컨시어지 서비스를 제공하기 위한 정보를 제공하는 서버의 접속 주소를 포함할 수 있다. 또는 컨시어지 서비스 제공 URL은 컨시어지 서비스를 제공하기 위한 정보가 저장된 웹 공간 또는 저장 장치의 주소를 포함할 수 있다.Such a concierge service providing URL may include a connection address of a server providing information for providing a concierge service. Or the concierge service providing URL may include an address of a web space or a storage device storing information for providing a concierge service.

컨시어지 서비스 처리부(115)는 감정 인식부(105) 및 대화 문장 생성부(115)와 연동하여 감정 인식 결과 및 사용자 추천 데이터를 자연어 처리하여 대응되는 자연어를 생성하고, 자연어에 대응되는 대화 문장을 신경망 모델을 사용하여 학습하며, 학습 결과를 사용하여 대화 문장을 생성할 수 있다.The concierge service processing unit 115 performs natural language processing on the emotion recognition result and the user recommendation data in cooperation with the emotion recognition unit 105 and the conversation sentence generation unit 115 to generate a corresponding natural language and transmits a conversation sentence corresponding to the natural language to the neural network You can use the model to learn, and you can create conversation sentences using the learning results.

디스플레이 장치(117)는 컨시어지 서비스 처리부(115)가 출력하는 컨시어지 서비스 데이터를 표시하고, 사용자 인식부(107)에 의해 인식되는 사용자 인식 정보를 표시하며, 감정 인식부(105)에 의해 인식되는 사용자의 감정 상태를 표시한다. 디스플레이 장치(117)는 예로서 디스플레이를 포함하며, 이러한 디스플레이는 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 디스플레이, 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 전계 방출 디스플레이(Feld Emission Display, FED), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다. 또한, 디스플레이 장치(117)는 다수개가 구비될 수도 있다.The display device 117 displays the concierge service data output by the concierge service processing unit 115 and displays the user recognition information recognized by the user recognition unit 107, Quot; is displayed. The display device 117 includes a display, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, a thin film transistor-liquid crystal display (TFT LCD) And may include at least one of an organic light emitting diode (OLED), a flexible display, a field emission display (FED), and a three-dimensional display (3D display). In addition, a plurality of display devices 117 may be provided.

발광 장치(119)는 컨시어지 서비스 처리부(115)가 출력하는 제어 신호에 따라 구동하는 적어도 하나의 LED(Light Emitting Diode)를 포함할 수 있다.The light emitting device 119 may include at least one light emitting diode (LED) that is driven according to a control signal output from the concierge service processing unit 115. [

음성 출력 장치(121)는 컨시어지 서비스 처리부(115)에서 생성되는 대화 문장에 대응되는 음성을 외부로 출력한다. 이러한 음성 출력 장치(121)는 TTS(Text to Speech) 기능을 구비한 스피커일 수 있다.The voice output apparatus 121 outputs voice corresponding to the conversation sentence generated by the concierge service processing unit 115 to the outside. The audio output device 121 may be a speaker having a TTS (Text to Speech) function.

행위 표현부(123)는 컨시어지 서비스 처리부(115)의 제어에 의해 구동신호를 발생하는 액추에이터 구동부(미도시)와, 액추에이터 구동부(미도시)의 구동신호에 따라 구동되어 미리 설정된 각도의 범위에서 회전하거나, 미리 설정된 방향으로 움직이는 작동부재를 포함할 수 있다. 즉, 컨시어지 서비스 처리부(115)는 회전 또는 움직이도록 제어 신호를 발생시켜 액추에이터 구동부로 출력할 수 있다. 예를들면, 주문이 완료되면 몸을 돌려 정해진 장소, 커피 픽업대를 가리킬 수 있다.The behavior expressing unit 123 includes an actuator driving unit (not shown) for generating a driving signal under the control of the concierge service processing unit 115, and an actuator driving unit (not shown) Or an operation member moving in a predetermined direction. That is, the concierge service processing unit 115 may generate a control signal to rotate or move and output it to the actuator driving unit. For example, when the order is completed, you can turn around and point to the designated place, coffee pick-up stand.

근거리 통신 장치(125)는 제한된 공간의 통신 영역에서 무선 데이터를 송수신한다. 이때, 블루투스나 와이파이(Wi-Fi) 등의 근거리 통신 기술을 이용할 수 있다.The short range communication device 125 transmits and receives wireless data in a limited space communication area. At this time, it is possible to use a short-range communication technology such as Bluetooth or Wi-Fi.

저장 장치(127)는 신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 컨시어지 서비스 데이터를 사용자 인터페이스 장치를 통해 제공하는 프로그램을 저장한다. 저장 장치(127)는 기등록된 사용자와 관련된 정보를 저장할 수 있다. 저장 장치(127)는 얼굴 인식부(103), 사용자 인식부(107), 음성 인식부(111), 감정 인식부(105) 및 컨시어지 서비스 처리부(115)의 동작 수행을 위한 명령 등을 저장할 수도 있다. The storage device 127 stores a program for providing the concierge service data through the user interface device based on the learning data generated using the neural network model. The storage device 127 may store information related to the pre-registered user. The storage device 127 may store instructions for performing operations of the face recognition unit 103, the user recognition unit 107, the voice recognition unit 111, the emotion recognition unit 105 and the concierge service processing unit 115 have.

또한, 저장 장치(127)는 사용자 인식부(107)와 감정 인식부(105)에서의 학습 정보를 각각 저장할 수 있다.Also, the storage device 127 may store the learning information in the user recognition section 107 and the emotion recognition section 105, respectively.

또한, 저장 장치(127)는 사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터를 저장할 수 있다.In addition, the storage device 127 may store a plurality of user personal data including at least one of a visit history, service usage history, and payment history of the user.

또한, 저장 장치(127)는 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 신경망을 역전파(backward propagation)하여 분석한 학습 데이터 및 분석 데이터를 저장할 수 있다.Also, the storage device 127 generates a relation between a plurality of user personal data, emotional learning data, and CRM (Customer Relationship Management) data in a neural network, and generates learning data and analysis data that are analyzed by backward propagation of the neural network Can be stored.

이러한 저장 장치(127)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.The storage device 127 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.) A random access memory (SRAM), a read-only memory (ROM), a programmable read-only memory (PROM), an electrically erasable memory (EEPROM) Programmable Read-Only Memory).

포스(POS) 장치(129)는 음성 인식 결과에 따른 상품 또는 서비스 주문을 처리하고, 통신망과 연결된 결제 서버(200)와 연동하여 결제 처리를 수행한다. 이러한 주문 내역 및 결제 내역은 저장 장치(127)에 저장될 수 있다.The POS device 129 processes a product or service order according to a voice recognition result and performs payment processing in cooperation with a payment server 200 connected to a communication network. Such order details and payment history can be stored in the storage device 127. [

입출력 포트(131)는 외부 장치와 연결되어 데이터를 입출력하는 통로를 제공한다. 이때, 입출력 포트(131)는 서비스 공간 내 구비된 예를들면, 주방 또는 매장 서버와 연결되어, 주문 내역을 전달하기 위해 사용될 수 있다. 또는 네트워크 장치와 연결되는 랜선 포트 일 수 있다.The input / output port 131 is connected to an external device and provides a path for inputting / outputting data. At this time, the input / output port 131 may be connected to, for example, a kitchen or a store server provided in the service space, and used for delivering order details. Or a LAN port connected to the network device.

통신 장치(133)는 통신망을 통해 외부 서버(200)와 연결되어 데이터를 송수신한다. 여기서, 외부 서버(200)는 단수 또는 복수를 모두 포함하는 개념이다. 즉, 서로 다른 기능을 하는 복수의 서버를 포함할 수 있다. 이러한 복수의 서버는 마게팅 정보를 제공하는 마게팅 서버, CRM 서버, 결제 서버 등을 포함할 수 있다.The communication device 133 is connected to the external server 200 through a communication network and transmits and receives data. Here, the external server 200 is a concept that includes the singular or plural. That is, a plurality of servers having different functions can be included. The plurality of servers may include a marketing server, a CRM server, a payment server, and the like, which provide the marketing information.

한편, 최근에는 각종 자료를 사용자의 컴퓨터나 스마트폰 등 내부 저장 공간이 아닌 외부 클라우드 서버에 저장한 뒤에 다운로드받는 서비스인 클라우드 서비스가 각광을 받고 있으며, 이러한 클라우드 서비스는 인공지능 기술을 제공하는 클라우드 서버에 의해서도 제공될 수 있다. 예를 들어, IBM사의 인공지능 기술인 왓슨(Watson)이나 구글사의 텐서플로우(TesnorFlow) 등이 오픈 소프트웨어로서 잘 알려져 있다. 이들은 인공지능을 활용해 자연어 질문을 알아듣고, 방대한 데이터로부터 관련 있는 사항을 분석, 종합해 적절한 답변을 제공하는 기술이다. 이들은 API(Application Programming Interface)를 통해 인공지능 기술을 사용할 수 있는 클라우드 서비스를 제공하고 있다.Recently, a cloud service, which is a service for downloading various kinds of data after storing it in an external cloud server instead of an internal storage space such as a user's computer or a smart phone, has attracted attention. Such a cloud service includes a cloud server As shown in FIG. For example, IBM's artificial intelligence technology, Watson and Google's TesnorFlow, are well known as open software. They use artificial intelligence to understand natural language questions, analyze and synthesize relevant data from vast amounts of data, and provide appropriate answers. They are providing cloud services that can use artificial intelligence technology through API (Application Programming Interface).

도 2는 본 발명의 다른 실시예에 따른 컨시어지 로봇 시스템의 구성도로서, 클라우드 서비스를 이용하는 실시예에 해당된다.FIG. 2 is a configuration diagram of a concierge robot system according to another embodiment of the present invention, which corresponds to an embodiment using a cloud service.

도 2를 참조하면, 도 1의 구성과 동일한 구성에 대한 설명은 생략한다. 이때, 도 1과 달리, 서버 인터페이스 장치(135)를 더 포함할 수 있다. Referring to FIG. 2, the description of the same configuration as that of FIG. 1 will be omitted. Unlike FIG. 1, it may further include a server interface device 135.

서버 인터페이스 장치(135)는 클라우드 서버(300)와 연결된다. 서버 인터페이스 장치(135)를 통해 API를 통해 접속되는 외부의 클라우드 서버(300)에게 영상 정보, 음성 정보, 빅데이터를 전달하여 이에 대응되는 사용자 인식 결과, 감정 인식 결과, 빅데이터 학습결과를 제공받아서 사용한다. 즉, 영상을 통한 사용자 인식 학습과 사용자 감정 인식 학습, 그리고, 이러한 학습 결과에 기초한 사용자 인식 및 사용자 감정 인식, 외부로부터 수집된 웹 데이터를 사용하여 대응되는 대화 문장을 학습하고, 학습 결과에 기초하여 새로이 수집된 웹 데이터에 대응되는 대화 문장을 생성하며, 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM 데이터를 빅데이터 처리하여 신경망 학습 및 역전파 분석하는 동작을 컨시어지 로봇 시스템(100)에서 직접 수행하지 않고 외부의 클라우드 서버(300)에서 수행될 결과를 수신할 수도 있다. The server interface device 135 is connected to the cloud server 300. Audio information, and big data to an external cloud server 300 connected via an API through the server interface device 135 and receives corresponding user recognition results, emotion recognition results, and big data learning results use. In other words, the user recognizing learning through the image, the user emotion recognizing learning, the user recognition based on the learning result and the user emotion recognition, and the corresponding chat sentence using the web data collected from the outside are learned, The conversation robot corresponding to the newly collected web data generates a large number of user personal data, emotion learning data, and CRM data, and performs neural network learning and backpropagation analysis on the conciousness robot system 100 But may receive the results to be performed in the external cloud server 300.

이와 같은, 컨시어지 로봇 시스템은 로봇의 형태로 구현될 수 있으며, 한 예시로 도 3 ~ 도 5와 같다. Such a concierge robot system can be implemented in the form of a robot, for example, as shown in Figs. 3 to 5.

도 3은 본 발명의 실시예에 따른 컨시어지 로봇의 전면 사시도이고, 도 5는 본 발명의 실시예에 따른 컨시어지 로봇의 전면도이며, 도 5는 본 발명의 실시예에 따른 컨시어지 로봇의 후면 사시도이다.5 is a rear perspective view of a concierge robot according to an embodiment of the present invention. FIG. 5 is a front view of a concierge robot according to an embodiment of the present invention .

도 3 및 도 4를 참조하면, 사람과 유사한 로봇 형상을 가지는 본체(137)의 머리 부분에 영상 촬영부(101), 음성 입력부(109)가 장착된다. 그리고 본체(137)의 얼굴 부분에 이모티콘 형태 등으로 표시하기 위한 화면을 구비하는 제1 디스플레이 장치(117-1)가 장착된다. 본체(137)의 몸통 전면에는 컨시어지 서비스 데이터, 음성 인식 결과, 감정 인식 결과, 사용자 인식 결과 등을 출력하기 위한 모니터 화면을 구비하는 제2 디스플레이 장치(117-3)가 장착된다. 제2 디스플레이 장치(117-3)의 측면에는 NFC 리더기 또는 카드 리더기 등의 결제 수단 인식기(141)가 장착된다. 따라서, 사용자가 화면에 표시된 주문 내역을 확인한 후, 직접 결제를 할 수 있다. 3 and 4, the image pickup section 101 and the audio input section 109 are mounted on the head of the main body 137 having a robot shape similar to a human being. A first display device 117-1 having a screen for displaying an emoticon type or the like on the face portion of the main body 137 is mounted. A second display device 117-3 having a monitor screen for outputting concierge service data, voice recognition result, emotion recognition result, user recognition result, and the like is mounted on the body of the main body 137. On the side of the second display device 117-3, a settlement means recognizer 141 such as an NFC reader or a card reader is mounted. Therefore, the user can check the order details displayed on the screen and then make a payment directly.

본체(137)의 몸통 하단에는 프린터(139)가 장착되어 주문 내역 또는 결제 내역을 출력한다. A printer 139 is mounted on the lower end of the main body 137 to output order details or payment details.

도 5를 참조하면, 본체(137)의 얼굴 부분, 몸통 부분에는 각각 LED(119)가 장착된다. 그리고 몸통 전면을 둘러 음성 출력 장치(121)가 장착된다. Referring to FIG. 5, the LED 119 is mounted on the face portion and the body portion of the body 137, respectively. Then, the voice output device 121 is mounted around the entire body.

본체(137)의 후면에는 리셋 버튼(143), 전원 버튼(145)이 장착되고, 입출력 포트(131)를 포함하는 I/O 박스(147)가 마련되어 있다.An I / O box 147 including an input / output port 131 and a reset button 143 and a power button 145 is mounted on the rear surface of the main body 137.

이제, 본 발명의 실시예에 따른 로봇을 이용한 다양한 컨시어지 서비스 제공 방법을 설명한다.Now, a method of providing various concierge services using a robot according to an embodiment of the present invention will be described.

도 6은 본 발명의 한 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.6 is a flowchart illustrating a concierge service method using a robot according to an embodiment of the present invention.

도 6을 참조하면, 영상 촬영부(101)를 통해 사용자 영상을 촬영한다(S101). 그리고 얼굴 인식부(103)를 통해 촬영된 영상으로부터 얼굴을 인식한다(S103).Referring to FIG. 6, a user image is captured through the image capturing unit 101 (S101). Then, the face is recognized from the photographed image through the face recognizing unit 103 (S103).

다음, 감정 인식부(105)를 통해, 얼굴 인식부(103)에 의해 인식된 얼굴 영상에 대해 CNN 모델을 사용하여 얼굴 영상에 대응되는 감정을 인식한다(S105). 예를 들어, 얼굴 영상에 대해 학습된 CNN 모델을 통해 본 발명의 실시예에서 학습된 7가지 감정, 즉 분노, 행복, 놀람, 혐오, 슬픔, 공포 및 중립의 감정 중에서 한 가지 감정을 인식하고, 그 결과를 출력한다(S107). 이때, S107 단계에서는 감정 인식 결과를 자연어로 처리하고, 자연어에 대응하는 대화 문장을 CNN 모델을 사용하여 생성하여 음성으로 출력할 수 있다.Next, the emotion corresponding to the face image is recognized using the CNN model for the face image recognized by the face recognition unit 103 through the emotion recognition unit 105 (S105). For example, one of the seven emotions learned in the embodiment of the present invention, namely anger, happiness, surprise, disgust, sadness, fear, and neuter, is recognized through the CNN model learned for the facial image, And outputs the result (S107). At this time, in step S107, the emotion recognition result is processed as a natural language, and a conversation sentence corresponding to the natural language is generated using the CNN model and outputted as a voice.

또는, 감정 인식 결과에 대응되는 기 정의된 아바타 표시 등으로 디스플레이 화면에 출력하거나 또는 감정 인식 결과에 대응하는 로봇의 감정 표현을 LED 발광을 통해 연출할 수 있다.Alternatively, the emotional expression of the robot corresponding to the emotion recognition result may be outputted through the LED light emission, or may be displayed on the display screen with the predefined avatar display corresponding to the emotion recognition result.

또한, S103 단계에서 인식되는 얼굴에 대해 사용자 인식부(107)를 통해 CNN 모델을 사용하여 기등록된 사용자의 얼굴인지를 인식한다(S109). 이 때, 기등록된 사용자의 얼굴로 인식되면 사용자 인식이 완료되고, 인식된 사용자의 정보를 저장장치(125)로부터 추출함으로써 사용자의 정보를 알 수가 있다. 그러나, 기등록된 사용자의 얼굴이 아닌 경우 신규 사용자의 얼굴이므로 신규 사용을 위해 사용자 등록을 수행하는 절차가 개시될 수 있다.In step S109, the user recognizes whether the face recognized in step S103 is a face of a previously registered user by using the CNN model through the user recognition unit 107. Then, At this time, if the face of the user is recognized as the face of the previously registered user, the user recognition is completed and the information of the user can be known by extracting the recognized user information from the storage device 125. However, if it is not the face of the pre-registered user, since it is the face of the new user, a procedure of performing the user registration for the new use can be started.

사용자가 식별되면, 기 생성된 학습 데이터들을 토대로 식별된 사용자를 위한 사용자 추천 데이터를 생성한다(S111). 그리고 사용자 추천 데이터를 자연어 처리(S113)하여 자연어에 대응되는 대화 문장을 생성한다(S115). 그리고 대화 문장을 음성으로 변환하여 출력한다(S117).If the user is identified, user recommendation data for the identified user is generated based on the previously generated learning data (S111). The user recommendation data is processed in a natural language (S113) to generate a conversation sentence corresponding to the natural language (S115). Then, the conversation sentence is converted into speech and output (S117).

도 7은 본 발명의 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도로서, 도 6의 S111 단계의 세부 절차를 도시한다.FIG. 7 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention, and shows the detailed procedure of step S111 of FIG.

도 7을 참조하면, 컨시어지 서비스 처리부(115)가 근거리 통신 장치(125) 또는 포스(POS) 장치(129)로부터 수집된 사용자 개인 데이터와, 감정 인식부(105)로부터 제공되는 감정 학습 데이터와, 외부 서버(200)를 통해 제공되거나 또는 저장 장치(127)를 통해 제공되는 CRM 데이터를 빅데이터 처리(S201)한다.7, when the concierge service processing unit 115 receives user personal data collected from the local communication device 125 or the POS device 129, the emotion learning data provided from the emotion recognition unit 105, (S201) the CRM data provided through the external server 200 or provided through the storage device 127. [

다음, 사용자 개인 데이터, 감정 학습 데이터 및 CRM 데이터 간의 관계를 신경망으로 생성(S203)한다. 그리고 이러한 신경망을 역전파(backward propagation) 하여 사용자의 감정 상태에 관련된 서비스 또는 사용자가 선호할 것으로 예측되는 서비스를 탐색하여, 탐색 결과로 이루어진 사용자 추천 데이터를 생성한다(S205). 이때, 신경망 알고리즘 내에서 생성된 사용자 패턴 데이터를 역전파 학습을 통해 훈련시켜 사용자 추천 데이터를 도출할 수 있다.Next, the relationship between the user personal data, the emotion learning data, and the CRM data is generated in the neural network (S203). Then, the neural network backward propagates to search for a service related to the user's emotional state or a service expected to be preferred by the user, and generates user recommendation data of the search result (S205). At this time, the user pattern data generated in the neural network algorithm can be trained through back propagation learning to derive user recommendation data.

도 8은 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도로서, 도 6의 S109 단계 이후의 다른 실시예로 추가될 수 있다.FIG. 8 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention, and may be added to another embodiment after step S109 of FIG.

도 8을 참조하면, 사용자 인식부(107)를 통해 얼굴 영상으로부터 사용자를 인식(S301)한 후, 등록된 사용자 인지를 판단한다(S303). Referring to FIG. 8, after recognizing the user from the face image through the user recognition unit 107 (S301), it is determined whether the user is a registered user (S303).

등록된 사용자이면, 대화 문장 생성부(113)를 통하여 사용자 추천 데이터를 자연어 처리하고, 자연어에 대응되는 대화 문장을 생성하여 음성으로 출력한다(S305).If the user is a registered user, the user recommendation data is processed in a natural language through the conversation sentence generation unit 113, and a conversation sentence corresponding to the natural language is generated and output as speech (S305).

등록된 사용자가 아니면, 대화 문장 생성부(113)를 통하여 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터를 자연어 처리(S307)하고, 자연어에 대응되는 대화 문장을 생성(S309)하여 음성으로 변환하여 출력한다(S311).If the user is not a registered user, the Web data collected from the outside through Web scraping is processed in a natural language process (S307) through a conversation sentence generation unit 113, a conversation sentence corresponding to a natural language is generated (S309) (Step S311).

도 9는 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도이다.9 is a flowchart illustrating a concierge service method using a robot according to another embodiment of the present invention.

도 9를 참조하면, 컨시어지 서비스 처리부를 통하여 제한된 공간의 통신 영역에서 무선으로 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅한다(S401).Referring to FIG. 9, a uniform resource locator (URL) is wirelessly broadcast in a communication area of a limited space through a concierge service processing unit (S401).

컨시어지 서비스 제공 URL로 사용자가 접속(S403)하면, 회원인지를 판단(S405)하여 회원이 아니면, 회원 가입을 유도한다(S407).When the user accesses the concierge service providing URL (S403), it is determined whether the member is a member (S405), and if the member is not a member, the membership registration is induced (S407).

회원이면, 컨시어지 서비스 화면을 제공(S409)하고, 컨시어지 서비스 화면에서 사용자가 요구하거나 또는 사용자가 선택한 정보를 획득(S411)한다. 그리고 결제 프로세스를 진행한다(S413). If the user is a member, the concierge service screen is provided (S409), and the information requested by the user or selected by the user is obtained on the concierge service screen (S411). Then, the payment process is performed (S413).

다음, 사용자 요구를 응대하는 컨시어지 서비스 데이터를 생성(S415)한다. 이러한 컨시어지 서비스 데이터를 디스플레이 장치로 출력한다(S417)한다. 그리고 컨시어지 서비스 데이터를 자연어 처리하고 자연어에 대응되는 대화 문장을 음성으로 출력(S419)한다. 여기서, 컨시어지 서비스 데이터는 예를들면, 주문한 물품이 준비되었음을 안내하는 멘트가 될 수 있다. Next, concierge service data corresponding to the user request is generated (S415). The concierge service data is output to the display device (S417). Then, the concierge service data is processed in a natural language and a conversation sentence corresponding to a natural language is output as a voice (S419). Here, the concierge service data may be, for example, a message indicating that the ordered goods have been prepared.

도 10은 본 발명의 또 다른 실시예에 따른 로봇을 이용한 컨시어지 서비스 방법을 나타낸 순서도로서, 도 6에서 S101 단계 이후, 순차적으로 또는 동시에 수행될 수 있다. FIG. 10 is a flowchart illustrating a method of providing a concierge service using a robot according to another embodiment of the present invention, and may be performed sequentially or simultaneously after step S101 in FIG.

도 10을 참조하면, 음성 인식부를 통하여 입력(S501)된 사용자 음성을 인식(S503)한 후, 대화 문장 생성부(113)를 통하여 음성 인식 결과에 따른 답변 문장을 생성한다(S505). 그리고 답변 문장을 음성으로 출력한다(S507).Referring to FIG. 10, in step S503, a user's voice input through the speech recognition unit is recognized in step S503, and a response sentence based on the speech recognition result is generated in the conversation sentence generation unit 113 in step S505. Then, the answer sentence is output by voice (S507).

도 11은 본 발명의 또 다른 실시예에 따른 컨시어지 로봇 시스템의 하드웨어 구성을 나타낸 블록도이다. 11 is a block diagram illustrating a hardware configuration of a concierge robot system according to another embodiment of the present invention.

도 11을 참조하면, 컨시어지 로봇 시스템(400)은 음성을 출력하는 스피커(401), 외부 음성을 입력받는 마이크(403), 근거리 통신 또는 인터넷 연결을 수행하는 통신 장치(405), 접촉식 또는 비접촉식으로 결제 수단을 인식하는 결제 인식부(407), 통신망 및 외부 장치와 연결되는 입출력 포트(409), 화면에 데이터를 시각적으로 표시하는 디스플레이 장치(411), 주문 및 결제 내역을 출력하는 프린터(413), 메모리(415) 및 프로세서(417) 등을 포함하는 하드웨어로 구성되고, 지정된 장소에 하드웨어와 결합되어 실행되는 프로그램이 저장된다. 하드웨어는 도 1 내지 도 10에서 설명한 실시예들에 따른 구성 및/또는 방법을 실행할 수 있는 구성과 성능을 가진다. 프로그램은 하드웨어는 도 1 내지 도 10에서 설명한 실시예들에 따른 구성 및/또는 방법을 실행할 수 있는 명령어들(instructions)을 포함하고, 메모리(415) 및 프로세서(417) 등의 하드웨어와 결합하여 본 발명을 구현한다. 11, the concierge robot system 400 includes a speaker 401 for outputting a voice, a microphone 403 for receiving an external voice, a communication device 405 for performing short-range communication or Internet connection, a contact- An input / output port 409 connected to the communication network and the external device, a display device 411 for visually displaying data on the screen, a printer 413 for outputting the order and payment details ), A memory 415, and a processor 417, and stores a program to be executed in combination with hardware at a specified location. The hardware has a configuration and performance capable of executing the configuration and / or the method according to the embodiments described in Figs. 1-10. The program includes instructions that may execute the configuration and / or methods in accordance with the embodiments described in Figures 1 through 10 and may be implemented in hardware, such as memory 415 and processor 417, Implements the invention.

전술한 바와 같이, 본 발명의 실시예에 따르면, 컨시어지 로봇 시스템은 방문 고객을 음성인식, 얼굴인식 등을 통하여 사용자의 특징과 정보를 기억하고 인공지능(AI, Artificial Intelligence) 기술을 이용하여, 소비자 혹은 사용자의 반복적인 입력정보를 학습하여 분석 및 저장하고, 사용자에게 최적화된 로봇을 통한 맞춤형 서비스를 제공할 수 있으므로, 커피전문점이나 페스트푸드 매장 등에서 주문 계산대에서 직원이 하루에도 수십 수백차례 반복해야 하는 단순 반복 업무를 대체하고 고도화할 수 있다.As described above, according to the embodiment of the present invention, the concierge robot system stores the characteristics and information of the user through speech recognition, face recognition, etc., and uses the artificial intelligence (AI) Or analyzing and storing the user's repeated input information and providing a customized service through a robot optimized for the user. Therefore, the staff at the coffee shop, the fast food store, etc., It can replace and simplify simple repetitive tasks.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (18)

인공 지능형 컨시어지 서비스를 제공하는 컨시어지 로봇 시스템으로서,
외부 영상 및 외부 음성을 입력받고, 데이터를 화면에 출력하거나 또는 음성으로 출력하는 사용자 인터페이스 장치,
신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 데이터를 상기 사용자 인터페이스 장치를 통해 제공하는 프로그램을 저장하는 저장 장치, 그리고
상기 프로그램을 실행하는 프로세서를 포함하고,
상기 프로그램은,
상기 학습 데이터들을 토대로 상기 외부 영상으로부터 식별한 사용자의 감정을 인식하고, 상기 감정 인식에 따른 감정을 표현하는 데이터를 상기 화면에 출력하며, 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 학습 데이터들을 토대로 생성하여 음성으로 출력하고, 상기 외부 음성의 인식 결과에 따른 답변에 대응되는 대화 문장을 생성하여 음성으로 출력하며, 상기 학습 데이터들을 토대로 상기 식별한 사용자를 위한 사용자 추천 데이터를 생성하고, 상기 사용자 추천 데이터를 상기 화면에 출력하거나 또는 자연어 처리하여 대응되는 대화 문장을 음성으로 출력하는 명령어들(instructions)을 포함하는, 컨시어지 로봇 시스템.
A concierge robot system providing an artificial intelligent concierge service,
A user interface device for receiving an external video and an external audio and outputting the data to the screen or outputting it as a voice,
A storage device for storing a program for providing data via the user interface device based on learning data generated using a neural network model; and
And a processor for executing the program,
The program includes:
Recognizing the emotion of the user identified from the external image based on the learning data, outputting data expressing emotion according to the emotion recognition to the screen, and responding to the natural language of the web data collected from the outside through web scraping And generating a dialogue sentence corresponding to an answer based on the result of recognition of the external voice and outputting the sentence as a voice, and outputting, as a voice, a user for the identified user based on the learning data, Instructions for generating recommendation data, outputting the user recommendation data to the screen or performing natural language processing and outputting a corresponding conversation sentence by voice.
제1항에서,
제한된 공간의 통신 영역에서 무선 데이터를 송수신하는 통신 장치를 더 포함하고,
상기 프로그램은,
상기 통신 장치를 통하여 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅하고, 상기 컨시어지 서비스 제공 URL을 통해 획득한 사용자 요청에 따라 사용자를 응대하는 컨시어지 서비스 데이터를 생성하는 명령어들을 포함하며,
상기 컨시어지 서비스 제공 URL은,
접속한 사용자 단말에게 회원 가입 안내 정보, 개인 정보 이용 동의 요구, 서비스 매장 정보, 서비스 메뉴 정보, 대기번호 안내, 상품 또는 서비스 주문, 및 온라인 결제 서비스 중 적어도 하나를 포함하는 컨시어지 서비스를 제공하는, 컨시어지 로봇 시스템.
The method of claim 1,
Further comprising a communication device for transmitting and receiving wireless data in a communication area of a limited space,
The program includes:
Instructions for broadcasting a uniform resource locator (URL) for providing a concierge service through the communication device and generating concierge service data for responding to a user request obtained through the concierge service providing URL,
The concierge service providing URL includes:
Providing a concierge service including at least one of a membership registration guide information, a personal information use consent request, a service store information, a service menu information, a waiting number guide, a product or service order, Robot system.
제2항에서,
상기 프로그램은,
사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터와 CRM(Customer Relationship Management) 데이터를 매칭하여 도출된 서비스 추천 정보, 프로모션 정보 및 광고 정보 중 적어도 하나를 포함하는 마게팅 정보를 제공하기 위한 상기 컨시어지 서비스 제공 URL을 브로드캐스팅하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
3. The method of claim 2,
The program includes:
And at least one of service recommendation information, promotion information, and advertisement information derived by matching CRM (Customer Relationship Management) data with a plurality of user personal data including at least one of a user's visit history, service use history, And broadcasting the concierge service providing URL for providing the marching information.
제1항에서,
상기 프로그램은,
사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터, 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 상기 신경망을 역전파(backward propagation)하여 상기 사용자 추천 데이터를 생성하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
The method of claim 1,
The program includes:
(CRM) data, including at least one of a user's visit history, a service use history and a payment history, and transmits the backward propagation ) To generate the user recommendation data.
제4항에서,
외부의 클라우드 서버와 유선 또는 무선으로 데이터를 송수신하는 서버 인터페이스 장치를 더 포함하고,
상기 프로그램은,
상기 외부 영상으로부터 인식한 얼굴 영상을 상기 클라우드 서버로 전달하여 상기 얼굴 영상에 대응되는 감정 학습을 수행시켜 감정 학습 데이터를 획득하고,
상기 사용자 인터페이스 장치로부터 입력되는 얼굴 영상을 상기 클라우드 서버로 전달하여 상기 얼굴 영상에 대응되는 감정 인식을 요청하여 수신하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
5. The method of claim 4,
Further comprising a server interface device for transmitting and receiving data to / from an external cloud server by wire or wireless,
The program includes:
Transmitting facial images recognized from the external image to the cloud server to perform emotion learning corresponding to the facial images to obtain emotion learning data,
And transmitting the face image input from the user interface device to the cloud server to request and receive emotion recognition corresponding to the face image.
제4항에서,
상기 프로그램은,
상기 감정을 표현하는 데이터 및 상기 사용자 추천 데이터를 자연어 처리하여 대응되는 자연어를 생성하고, 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용하여 학습하며, 학습 결과를 사용하여 상기 대화 문장을 생성하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
5. The method of claim 4,
The program includes:
Generating a dialogue sentence corresponding to a natural language by using the neural network model and generating the dialogue sentence by using the result of learning; Gt; a < / RTI > concierge robot system.
제4항에서,
외부의 클라우드 서버와 유선 또는 무선으로 데이터를 송수신하는 서버 인터페이스 장치를 더 포함하고,
상기 프로그램은,
상기 감정을 표현하는 데이터 및 상기 사용자 추천 데이터를 자연어 처리하여 대응되는 자연어를 생성하고, 상기 자연어를 상기 클라우드 서버로 전송하여 상기 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용하여 학습시킨 후, 학습 결과를 사용하여 생성된 대화 문장을 수신하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
5. The method of claim 4,
Further comprising a server interface device for transmitting and receiving data to / from an external cloud server by wire or wireless,
The program includes:
The data representing the emotion and the user recommendation data are processed in a natural language to generate a corresponding natural language, the natural language is transmitted to the cloud server, the conversation sentence corresponding to the natural language is learned using the neural network model, And receiving the generated conversation sentence using the result.
제4항에서,
상기 프로그램은,
모델, 뷰 및 콘트롤러(MVC, Model, View and Controller)로 정의된 컨시어지 서비스를 적용하고, 상기 다수의 사용자 개인 데이터, 상기 감정 학습 데이터 및 상기 CRM 데이터를 빅데이터 처리하여 상기 사용자 추천 데이터를 생성하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
5. The method of claim 4,
The program includes:
A concierge service defined by a model, a view, and a controller (MVC, Model, View and Controller) is applied, and the user recommendation data is generated by subjecting the user personal data, the emotion learning data, ≪ / RTI >
제4항에서,
상기 음성 인식 결과에 따른 상품 또는 서비스 주문을 처리하고, 통신망과 연결된 결제 서버와 연동하여 결제 처리를 수행하는 포스(POS, Point Of Sales) 장치를 더 포함하고,
상기 프로그램은,
상기 포스 장치로부터 주문 내역 및 결제 내역을 수집하여 상기 사용자 개인 데이터로 저장하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
5. The method of claim 4,
Further comprising a point of sale (POS) device for processing a product or service order according to the speech recognition result and performing a payment process in cooperation with a payment server connected to the communication network,
The program includes:
And collecting order details and payment details from the force device and storing the personal details as user personal data.
제1항에서,
상기 인터페이스 장치는,
상기 외부 영상을 촬영하는 영상 입력 장치,
화면에 데이터를 시각적으로 표시하는 디스플레이 장치,
상기 외부 음성을 입력받는 음성 입력 장치,
상기 대화 문장을 음성으로 출력하는 음성 출력 장치, 그리고
제어 신호에 따라 구동하는 적어도 하나의 LED(Light Emitting Diode)를 포함하는 발광부를 포함하고,
상기 프로그램은,
상기 대화 문장을 상기 음성 출력 장치로 출력하고, 상기 사용자 추천 데이터 및 상기 감정을 표현하는 데이터를 상기 디스플레이 장치를 통해 출력하며, 상기 감정을 표현하는 데이터에 따라 발광 시간, 발광 색상 및 발광량 중 적어도 하나를 제어하는 신호를 상기 발광부로 출력하는 명령어들을 포함하는, 컨시어지 로봇 시스템.
The method of claim 1,
Wherein the interface device comprises:
A video input device for capturing the external video,
A display device for visually displaying data on a screen,
A voice input device for receiving the external voice,
A voice output device for outputting the conversation sentence by voice, and
And a light emitting unit including at least one LED (Light Emitting Diode) driven according to a control signal,
The program includes:
And outputting the user recommendation data and the data expressing the emotion through the display device, wherein at least one of the emissive time, the emissive hue, and the emissive amount is changed according to the data expressing the emotion, And outputting a signal for controlling the light emitting unit to the light emitting unit.
적어도 하나의 프로세서에 의해 동작하는 컨시어지 로봇 시스템에서 수행되는 컨시어지 서비스 방법으로서,
외부 영상이 입력되면, 신경망 모델의 학습을 통해 추출된 사용자 특징 데이터에 기초하여 상기 외부 영상으로부터 인식된 얼굴 영상으로부터 사용자를 식별하는 단계,
복수의 얼굴 영상에 대응되는 감정을 상기 신경망 모델을 사용하여 학습한 감정 학습 데이터에 기초하여 상기 얼굴 영상으로부터 상기 식별한 사용자의 감정을 인식하는 단계,
상기 감정 인식에 따른 감정 표현 데이터를 생성하여 디스플레이 장치를 통해 출력하는 단계,
웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용한 자연어에 대응되는 대화 문장의 학습 결과에 기초하여 생성하는 단계, 그리고
상기 대화 문장에 대응되는 음성을 음성 출력 장치를 통해 외부로 출력하는 단계
를 포함하는, 컨시어지 서비스 방법.
A concierge service method performed in a concierge robot system operated by at least one processor,
Identifying a user from a face image recognized from the external image based on extracted user characteristic data through learning of a neural network model,
Recognizing emotions corresponding to a plurality of facial images from the facial images based on emotion learning data learned using the neural network model;
Generating emotion expression data according to the emotion recognition and outputting the emotion expression data through a display device,
Generating a dialogue sentence corresponding to the natural language of the web data collected from the outside through web scraping based on the learning result of the dialogue sentence corresponding to the natural language using the neural network model; and
Outputting a voice corresponding to the conversation sentence to the outside via a voice output device
The method comprising the steps of:
제11항에서,
외부 음성으로부터 인식된 자연어에 대한 답변을 생성하고, 상기 답변에 대응되는 음성을 출력하는 단계
를 더 포함하는, 컨시어지 서비스 방법.
12. The method of claim 11,
Generating an answer to the recognized natural language from the external voice, and outputting a voice corresponding to the answer
Further comprising the steps of:
제11항에서,
제한된 공간의 통신 영역에서 무선으로 컨시어지 서비스 제공 유알엘(Uniform Resource Locator, URL)을 브로드캐스팅하는 단계,
상기 컨시어지 서비스 제공 URL을 통해 획득한 사용자 요청에 따라 사용자를 응대하는 컨시어지 서비스 데이터를 생성하는 단계, 그리고
상기 컨시어지 서비스 데이터를 자연어 처리하고 자연어에 대응되는 대화 문장을 음성으로 출력하는 단계를 더 포함하고,
상기 컨시어지 서비스 제공 URL은,
접속한 사용자 단말에게 회원 가입 안내 정보, 개인 정보 이용 동의 요구, 서비스 매장 정보, 서비스 메뉴 정보, 대기번호 안내, 상품 또는 서비스 주문, 및 온라인 결제 서비스 중 적어도 하나를 포함하는 컨시어지 서비스를 제공하는, 컨시어지 서비스 방법.
12. The method of claim 11,
Broadcasting a uniform resource locator (URL) wirelessly in a communication area of a limited space,
Generating concierge service data responsive to a user request obtained through the concierge service providing URL; and
Further comprising processing the concierge service data in a natural language and outputting a conversation sentence corresponding to a natural language as a voice,
The concierge service providing URL includes:
Providing a concierge service including at least one of a membership registration guide information, a personal information use consent request, a service store information, a service menu information, a waiting number guide, a product or service order, Service method.
제13항에서,
상기 컨시어지 서비스 제공 URL은,
사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터와 CRM(Customer Relationship Management) 데이터를 매칭하여 도출된 서비스 추천 정보, 프로모션 정보 및 광고 정보 중 적어도 하나를 포함하는 마게팅 정보를 제공하는, 컨시어지 서비스 방법.
The method of claim 13,
The concierge service providing URL includes:
And at least one of service recommendation information, promotion information, and advertisement information derived by matching CRM (Customer Relationship Management) data with a plurality of user personal data including at least one of a user's visit history, service use history, A method of concierge service that provides the information of the marching.
제11항에서,
사용자의 방문 내역, 서비스 이용 내역 및 결제 내역 중 적어도 하나를 포함하는 다수의 사용자 개인 데이터, 상기 감정 학습 데이터 및 CRM(Customer Relationship Management) 데이터 간의 관계를 신경망으로 생성하고, 상기 신경망을 역전파(backward propagation)하여 사용자 추천 데이터를 생성하는 단계, 그리고
상기 사용자 추천 데이터를 자연어 처리하고, 자연어에 대응되는 대화 문장을 상기 신경망 모델을 사용한 자연어에 대응되는 대화 문장의 학습 결과에 기초하여 생성하여 음성으로 출력하는 단계
를 더 포함하는, 컨시어지 서비스 방법.
12. The method of claim 11,
A method of generating a relationship between a plurality of user personal data including at least one of a visit history of a user, a service use history and a payment history, the emotion learning data, and CRM (Customer Relationship Management) data by a neural network, propagation to generate user recommendation data, and
Generating a dialogue sentence corresponding to a natural language based on a result of a dialogue sentence corresponding to a natural language using the neural network model,
Further comprising the steps of:
소정의 형상으로 이루어진 본체,
상기 본체에 장착되어, 데이터를 화면에 출력하는 디스플레이 장치,
상기 본체에 장착되어, 음성을 출력하는 스피커,
상기 본체에 장착되어, 외부 영상을 촬영하는 카메라,
상기 본체에 장착되어, 외부 음성을 입력받는 마이크,
상기 본체에 장착되어, 주문 및 결제 내역을 출력하는 프린터,
상기 본체에 장착되어, 접촉식 또는 비접촉식으로 결제 수단을 인식하는 결제 인식부,
상기 본체에 장착되어, 통신망 및 외부 장치와 연결되는 입출력 포트,
상기 본체의 내부에 장착되어 프로그램을 저장하는 메모리, 그리고
상기 프로그램을 실행하는 적어도 하나의 프로세서로 구성된 제어부를 포함하고,
상기 제어부는,
신경망 모델을 이용하여 생성된 학습 데이터들에 기초하여 상기 외부 영상으로부터 식별한 사용자의 감정을 인식하고, 상기 감정 인식에 따른 감정을 표현하는 데이터를 상기 디스플레이 장치로 출력하며, 웹 스크랩핑을 통해 외부로부터 수집한 웹 데이터의 자연어에 대응되는 대화 문장을 상기 학습 데이터들을 토대로 생성하여 상기 스피커로 출력하고, 상기 외부 음성의 인식 결과에 따른 답변에 대응되는 대화 문장을 생성하여 상기 스피커로 출력하며, 상기 외부 음성의 인식 결과에 따른 상품 또는 서비스 주문을 처리하고, 상기 통신망과 연결된 결제 서버와 연동하여 결제 처리를 수행한 후, 결제 처리 결과를 상기 프린터로 출력하며, 상기 주문의 처리 결과를 자연어 처리하여 대응되는 대화 문장을 상기 스피커로 출력하는, 컨시어지 로봇.
A main body having a predetermined shape,
A display device mounted on the main body and outputting data to a screen,
A speaker mounted on the main body for outputting sound,
A camera mounted on the main body for photographing an external image,
A microphone mounted on the main body for receiving an external sound,
A printer mounted on the main body for outputting order and payment details,
A payment recognizing unit mounted on the main body and recognizing the payment means in a contact or non-contact manner,
An input / output port mounted on the main body and connected to a communication network and an external device,
A memory mounted in the main body to store a program, and
And a control unit configured of at least one processor for executing the program,
Wherein,
The method includes recognizing emotions of a user identified from the external image based on learning data generated using a neural network model, outputting data expressing emotions according to the emotional recognition to the display device, And generates a dialogue sentence corresponding to an answer based on the result of recognition of the external speech and outputs the dialogue sentence to the speaker, Processing a product or service order according to a recognition result of an external voice, performing payment processing in cooperation with a payment server connected to the communication network, outputting a payment processing result to the printer, And outputs the corresponding conversation sentence to the speaker.
제16항에서,
상기 본체에 장착되어, 구동신호를 발생하는 액추에이터 구동부, 그리고
상기 본체에 장착되어, 상기 액추에이터 구동부의 구동신호에 따라 구동되어 미리 설정된 각도의 범위에서 회전하거나, 미리 설정된 방향으로 움직이는 작동부재
를 더 포함하는, 컨시어지 로봇.
17. The method of claim 16,
An actuator driver mounted on the main body and generating a drive signal,
An actuator member mounted on the main body and driven in accordance with a driving signal of the actuator driving unit to rotate in a predetermined angle range,
Further comprising: a concierge robot.
제17항에서,
상기 본체에 장착되어, 제어 신호에 따라 구동하는 적어도 하나의 LED(Light Emitting Diode)를 포함하는 발광 장치를 포함하고,
상기 제어부는,
상기 감정을 표현하는 데이터에 따라 발광 시간, 발광 색상 및 발광량 중 적어도 하나를 제어하는 신호를 상기 발광부로 출력하는 컨시어지 로봇.
The method of claim 17,
And a light emitting device mounted on the main body, the light emitting device including at least one LED (Light Emitting Diode) driven according to a control signal,
Wherein,
And outputs a signal for controlling at least one of a light emission time, a light emission color, and a light emission amount to the light emitting unit according to data expressing the emotion.
KR1020180048708A 2016-11-15 2018-04-26 Concierge robot system, concierge service method and concierge robot KR20180054528A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160152216 2016-11-15
KR1020160152216 2016-11-15

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170074432A Division KR101854431B1 (en) 2016-11-15 2017-06-13 Concierge robot

Publications (1)

Publication Number Publication Date
KR20180054528A true KR20180054528A (en) 2018-05-24

Family

ID=60811479

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020170074432A KR101854431B1 (en) 2016-11-15 2017-06-13 Concierge robot
KR1020170074439A KR101803081B1 (en) 2016-11-15 2017-06-13 Robot for store management
KR1020170157627A KR20180054505A (en) 2016-11-15 2017-11-23 Apparatus, method and robot for store management
KR1020180048708A KR20180054528A (en) 2016-11-15 2018-04-26 Concierge robot system, concierge service method and concierge robot

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020170074432A KR101854431B1 (en) 2016-11-15 2017-06-13 Concierge robot
KR1020170074439A KR101803081B1 (en) 2016-11-15 2017-06-13 Robot for store management
KR1020170157627A KR20180054505A (en) 2016-11-15 2017-11-23 Apparatus, method and robot for store management

Country Status (1)

Country Link
KR (4) KR101854431B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109822581A (en) * 2018-12-08 2019-05-31 浙江国自机器人技术有限公司 Guide method for computer room robot
WO2020218907A1 (en) * 2019-04-26 2020-10-29 김병수 Concierge service system
WO2021045271A1 (en) * 2019-09-05 2021-03-11 엘지전자 주식회사 Robot
WO2022154604A1 (en) * 2021-01-14 2022-07-21 순천대학교 산학협력단 Artificial-intelligence-based user-responsive kiosk payment system
KR102498533B1 (en) * 2022-07-15 2023-02-09 권용현 Interactive electronic device for performing functions of providing responses to questions from users and real-time conversation with the users using models learned by deep learing technique and operating method thereof
US11911890B2 (en) 2021-04-28 2024-02-27 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for providing a service using a robot

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565434B2 (en) 2017-06-30 2020-02-18 Google Llc Compact language-free facial expression embedding and novel triplet training scheme
JP6658795B2 (en) * 2018-05-11 2020-03-04 セイコーエプソン株式会社 Machine learning device, photographing time estimation device, machine learning program, and method for producing photograph data
KR102139855B1 (en) * 2018-05-23 2020-07-30 한국과학기술원 Intelligent personal assistant system based on the inner state of user
KR102040218B1 (en) 2018-06-11 2019-11-04 엘지전자 주식회사 Moving robot capable of recognizing waiting line and method for controlling the moving robot
KR102092392B1 (en) * 2018-06-15 2020-03-23 네이버랩스 주식회사 Method and system for automatically collecting and updating information about point of interest in real space
KR102040574B1 (en) 2018-07-26 2019-11-06 강삼태 Store and shop management method
CN109514585A (en) * 2018-08-01 2019-03-26 苏州优智达机器人有限公司 Service humanoid robot
KR102242779B1 (en) * 2018-09-14 2021-04-20 엘지전자 주식회사 Robot and method for operating the same
WO2020246643A1 (en) * 2019-06-07 2020-12-10 엘지전자 주식회사 Serving robot and customer serving method using same
KR102363143B1 (en) * 2019-07-16 2022-02-15 조강훈 System and method for managing customer service of franchise merchant
KR102231922B1 (en) * 2019-07-30 2021-03-25 엘지전자 주식회사 Artificial intelligence server for controlling a plurality of robots using artificial intelligence
KR102263159B1 (en) * 2019-07-30 2021-06-10 엘지전자 주식회사 Artificial intelligence server for determining route for robot and method for the same
KR102258381B1 (en) 2019-07-31 2021-05-31 엘지전자 주식회사 Artificial intelligence server for controlling plurality of robots and method for the same
KR102259429B1 (en) * 2019-08-09 2021-06-02 엘지전자 주식회사 Artificial intelligence server and method for determining deployment area of robot
KR102295807B1 (en) * 2020-02-24 2021-08-31 연세대학교 산학협력단 Concierge robot and method of providing personalized service using the same
KR20220031966A (en) * 2020-09-06 2022-03-15 조강훈 Food franchise communication system
KR102386353B1 (en) 2020-09-17 2022-04-12 유진기술 주식회사 Telepresence robot and manless store managing method using the same
KR102481439B1 (en) * 2021-04-09 2022-12-27 주식회사 닐슨 Method, apparatus and computer program for determining contents
CN113700414B (en) * 2021-10-29 2022-03-11 杭州明融科技有限公司 Valuables safety control system
KR20230063129A (en) * 2021-11-01 2023-05-09 (주)뉴빌리티 Method for providing advertisement in unmanned moving object and system thereof
WO2023212614A1 (en) * 2022-04-26 2023-11-02 Haystack Robotics, Inc. Automated robotic ground-truth, checklists, and physical traceability

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4923876B2 (en) 2006-09-01 2012-04-25 富士通株式会社 Information providing robot and information providing method using robot
CN101973031B (en) * 2010-08-24 2013-07-24 中国科学院深圳先进技术研究院 Cloud robot system and implementation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109822581A (en) * 2018-12-08 2019-05-31 浙江国自机器人技术有限公司 Guide method for computer room robot
WO2020218907A1 (en) * 2019-04-26 2020-10-29 김병수 Concierge service system
US11481813B2 (en) 2019-04-26 2022-10-25 Byoung Soo Kim Concierge service system
WO2021045271A1 (en) * 2019-09-05 2021-03-11 엘지전자 주식회사 Robot
WO2022154604A1 (en) * 2021-01-14 2022-07-21 순천대학교 산학협력단 Artificial-intelligence-based user-responsive kiosk payment system
US11911890B2 (en) 2021-04-28 2024-02-27 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for providing a service using a robot
KR102498533B1 (en) * 2022-07-15 2023-02-09 권용현 Interactive electronic device for performing functions of providing responses to questions from users and real-time conversation with the users using models learned by deep learing technique and operating method thereof

Also Published As

Publication number Publication date
KR101803081B1 (en) 2017-11-29
KR101854431B1 (en) 2018-05-03
KR20180054505A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
KR101854431B1 (en) Concierge robot
US10289076B2 (en) Concierge robot system, concierge service method, and concierge robot
US10152719B2 (en) Virtual photorealistic digital actor system for remote service of customers
US9996874B2 (en) Character personal shopper system
CN107300970A (en) Virtual reality exchange method and device
US20080172261A1 (en) Adjusting a consumer experience based on a 3d captured image stream of a consumer response
CN108748218A (en) New retail intelligent shopping guide robot and shopping guide method based on machine vision Yu AR technologies
JP5605725B2 (en) Information notification system, information notification method, information processing apparatus, control method thereof, and control program
JP7057077B2 (en) Purchasing support system
US11881229B2 (en) Server for providing response message on basis of user's voice input and operating method thereof
CN110716634A (en) Interaction method, device, equipment and display equipment
JP2017156514A (en) Electronic signboard system
JP2020091736A (en) Program, information processing device, and information processing method
CN110716641B (en) Interaction method, device, equipment and storage medium
CN110322262B (en) Store information processing method and device and store system
US20240070686A1 (en) Collection of consumer feedback on dispensed product samples to generate machine learning inferences
CN112183408B (en) Customer portrait system and method based on field image
CN109947239A (en) A kind of air imaging system and its implementation
KR20200013164A (en) Electronic apparatus and controlling method thereof
US20210402611A1 (en) Information processing system and information processing method
KR20200094607A (en) Electronic device and operating method for generating caption information for a image sequence
KR101743999B1 (en) Terminal and method for verification content
Lee et al. A Metaverse Emotion Mapping System with an AIoT Facial Expression Recognition Device
JP2019192145A (en) Information processing device, information processing method and program
KR20210111953A (en) Customer reaction apparatus using digital signage

Legal Events

Date Code Title Description
A107 Divisional application of patent