KR20180054505A - Apparatus, method and robot for store management - Google Patents
Apparatus, method and robot for store management Download PDFInfo
- Publication number
- KR20180054505A KR20180054505A KR1020170157627A KR20170157627A KR20180054505A KR 20180054505 A KR20180054505 A KR 20180054505A KR 1020170157627 A KR1020170157627 A KR 1020170157627A KR 20170157627 A KR20170157627 A KR 20170157627A KR 20180054505 A KR20180054505 A KR 20180054505A
- Authority
- KR
- South Korea
- Prior art keywords
- store
- image
- learning
- state
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G06K9/00221—
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G06N3/0436—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
Abstract
Description
본 발명은 매장 관리 장치, 그 방법 및 매장 관리 로봇에 관한 것이다.The present invention relates to a store management device, a method thereof, and a store management robot.
인간에게 서비스를 제공하는 지능형 로봇은 가정 이외에도 식당과 같은 공간에서 그 활용도가 높을 것으로 보이며 이에 적합한 로봇의 연구가 진행되고 있는 상황이다. Intelligent robots that provide services to human beings seem to be highly utilized in the same places as restaurants, and studies of robots suitable for them are underway.
로봇 산업화 시대를 맞아 레스토랑 등과 같은 서비스 제공 장소에서의 로봇의 활용에 대한 기대가 커지고 있는 시점에서 고객의 만족을 높이고 고객의 이용 성향 등에 따른 차별화된 서비스가 요구된다.In the era of industrialization of robots, differentiated services are required to enhance customer satisfaction and to use the customers in a time when expectation of utilization of robots in service providing places such as restaurants is increasing.
그러나, 종래에 로봇 기술은 사용자의 특정 입력에 로봇의 출력을 사전에 정의하기 때문에, 로봇의 행동이 단순 반복적으로 되풀이될 뿐이어서, 사용자와 커뮤니케이션 하는 것이 아니라 지시한 바를 출력하는 단순 작업이 이루어지는 것에 불과하다. 따라서, 사람의 편리를 위한 서비스 로봇은 사용자의 다양한 요구에 적합하게 대응할 수 있는 지능적인 작업 수행과 사용자와의 상호작용이 필요하게 되었다.However, since the robot technology has previously defined the output of the robot to a specific input of the user, the robot's behavior is simply and repetitively repeated, so that a simple operation of outputting the instruction is performed instead of communicating with the user Only. Therefore, service robots for human convenience are required to perform intelligent tasks and to interact with users in order to meet various needs of users.
본 발명이 해결하고자 하는 과제는 학습된 신경망 기술을 토대로 실시간으로 촬영되는 매장 영상으로부터 매장 상태를 인식 및 판단하여 매장 관리에 이용할 수 있도록 하는 매장 관리 장치, 그 방법 및 매장 관리 로봇을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a store management apparatus, a method thereof, and a store management robot that recognize and determine a store status from a store image photographed in real time based on learned neural network technology,
본 발명의 한 특징에 따르면, 매장 관리 장치는 인공 지능형 매장 관리 장치로서, 매장 내 정해진 지점의 매장 영상을 촬영하는 영상 촬영부, 상기 매장 영상을 이용한 매장 관리를 수행하는 프로그램을 저장하는 저장부, 그리고 상기 프로그램을 실행하는 프로세서를 포함하고, 상기 프로그램은, 신경망 모델을 사용하여 매장 영상에 대응되는 매장 상태를 학습하고, 학습 결과를 사용하여 실시간으로 촬영되는 매장 영상으로부터 매장 상태를 인식하며, 매장 상태 인식 결과로부터 기 정의된 매장 상태를 판단하여 외부로 출력하는 명령어들(instructions)을 포함한다.According to an aspect of the present invention, a store management device is an artificial intelligent store management device, comprising: an image capturing section for capturing a store image at a predetermined point in a store; a storage section for storing a program for performing store management using the store image; And a program for executing the program, wherein the program learns the store status corresponding to the store image using the neural network model, recognizes the store status from the store image shot in real time using the learning result, And includes instructions for determining a previously defined store state from the state recognition result and outputting it to the outside.
상기 프로그램은, 상기 영상 촬영부가 서로 다른 복수의 각도 및 복수의 시간에 촬영하여 획득한 서로 다른 종류의 매장 영상을, 상기 매장 영상과 전혀 다른 대조군의 매장 영상을 통한 딥(deep) 신경망 모델 학습을 통하여 후보 영역에서 매장 상태를 구분하는 특징 정보를 추출하여 매장 상태 인식을 위한 학습 정보로 상기 저장부에 저장하고, 상기 학습 정보에 기초하고, 상기 영상 촬영부가 실시간 촬영하는 매장 영상을 입력으로 상기 신경망 모델을 사용하여 매장 상태를 인식하는 명령어들을 포함할 수 있다.The program is a program for performing a deep neural network model learning through a store image of a control group which is different from the store image by using different types of store images obtained by photographing the image photographing unit at a plurality of different angles and a plurality of times And storing the learning information in the storage unit as learning information for recognizing a burial state, and based on the learning information, inputting a burial image shot by the imaging unit in real time, Model may be used to include instructions that recognize the store state.
상기 프로그램은, 매장 상태 인식 결과를 기 정의된 기준값과 대응시켜 매장 상태를 판단하는 명령어들을 포함할 수 있다.The program may include instructions for determining a burial state by associating a burial state recognition result with a predefined reference value.
상기 기준값은, 영상속 카운트된 사람수, 테이블 위에 컵이 있는지 유무 및 의자에 사람이 있는지 유무 중 적어도 하나를 포함하여 설정되고, 상기 매장 상태는, 매장 혼잡도를 포함할 수 있다.The reference value may be set to include at least one of the number of persons counted in the video, presence or absence of a cup on the table, presence or absence of a person in the chair, and the store status may include a store congestion degree.
상기 프로그램은, 매장 영상을 신경망 모델을 사용한 학습이 가능한 외부의 클라우드 서버로 전달하여 매장 영상에 대응되는 감정 학습을 수행시킨 후, 실시간 촬영된 매장 영상을 상기 클라우드 서버로 전달하여 상기 매장 영상에 대응되는 매장 상태 인식을 요청한 후 상기 클라우드 서버로부터 전달되는 매장 상태 인식 결과를 수신하며, 수신한 매장 상태 인식 결과로부터 상기 매장 상태를 판단하는 명령어들을 포함할 수 있다.The program delivers emotional learning corresponding to the store image by delivering the store image to an external cloud server capable of learning using the neural network model, and then transmits the store image in real time to the cloud server to respond to the store image And receiving the store state recognition result transmitted from the cloud server, and determining the store state from the received store state recognition result.
상기 신경망 모델은, 합성곱 신경망(Convolutional Neural Network, CNN) 모델일 수 있다.The neural network model may be a Convolutional Neural Network (CNN) model.
본 발명의 다른 특징에 따르면, 매장 관리 방법은 적어도 하나의 프로세서에 의해 동작하는 매장 관리 장치에서 수행되는 매장관리 방법으로서, 복수의 매장 영상에 대응되는 매장 상태를 신경망 모델을 사용하여 학습하는 단계, 상기 학습의 정보에 기초하여, 실시간으로 촬영된 매장 영상에 대응되는 매장 상태를 인식하는 단계, 그리고 상기 매장 상태의 인식 결과로부터 기 정의된 매장 상태를 판단하여 외부로출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a store management method performed in a store management apparatus operated by at least one processor, the store management method comprising: learning a store state corresponding to a plurality of store images using a neural network model; Recognizing a burial condition corresponding to a burial image photographed in real time based on the learning information, and determining a burial condition predefined from the recognition result of the burial condition and outputting it to the outside.
상기 출력하는 단계는, 매장 상태 인식 결과를 기 정의된 기준값과 대응시켜 매장 상태를 판단하는 단계를 포함할 수 있다.The step of outputting may include a step of determining a buried state by associating a burial state recognition result with a predefined reference value.
상기 학습하는 단계는, 학습을 위한 준비된 매장 영상과 전혀 다른 대조군의 매장 영상을 통한 딥(deep) 신경망 모델 학습을 수행하는 단계, 그리고 상기 학습을 통하여 후보 영역에서 매장 상태를 구분하는 특징 정보를 추출하여 매장 상태 인식을 위한 학습 정보로 추출하여 저장하는 단계를 포함할 수 있다.The learning step includes performing a deep neural network model learning through a store image of a control group completely different from a store image prepared for learning, and extracting feature information for distinguishing store states in the candidate region through the learning And extracting and storing the learning information for the burial state recognition.
상기 학습하는 단계는, 학습을 위한 준비된 매장 영상을 신경망 모델을 사용한 학습이 가능한 외부의 클라우드 서버로 전달하여 매장 영상에 대응되는 감정 학습을 수행시키는 단계를 포함할 수 있다.The learning step may include delivering a store image prepared for learning to an external cloud server capable of learning using a neural network model to perform emotion learning corresponding to the store image.
상기 인식하는 단계는, 실시간으로 촬영되는 매장 영상을 상기 클라우드 서버로 전달하여 매장 영상에 대응되는 매장 상태 인식을 요청하는 단계, 그리고 상기 클라우드 서버로부터 전달되는 매장 인식 결과 수신하여 출력하는 단계를 포함할 수 있다.The recognizing includes transmitting a store image photographed in real time to the cloud server to request store status recognition corresponding to the store image, and receiving and outputting the store recognition result delivered from the cloud server .
상기 신경망 모델은 합성곱 신경망(Convolutional Neural Network, CNN) 모델 모델이고, 상기 합성곱 신경망 모델은, 입력되는 매장 영상에 대해 사람수, 테이블 점유 유무, 의자에 사람이 앉아있는지 유무 및 테이블 위에 놓인 컵의 유무 및 컵의 개수 중 적어도 하나를 매장 상태로 인식할 수 있다.The neural network model is a Convolutional Neural Network (CNN) model model, and the combined neural network model is a model of a neural network model in which the number of people, the presence or absence of a table, whether a person is seated in a chair, And the number of cups can be recognized as a burial state.
본 발명의 또 다른 특징에 따르면, 로봇 장치는 소정의 형상을 가진 본체, 상기 본체에 장착되어 데이터를 화면에 출력하는 디스플레이 장치, 상기 본체에 장착되어, 음성을 출력하는 스피커, 상기 본체에 장착되어, 매장 영상을 촬영하는 카메라, 상기 본체의 내부에 장착되어 프로그램을 저장하는 저장 장치, 그리고 상기 프로그램을 실행하는 적어도 하나의 프로세서로 구성된 제어부를 포함하고, 상기 제어부는, 매장 내 정해진 지점의 매장 영상을 촬영하여 신경망 모델을 사용하여 상기 매장 영상에 대응되는 매장 상태를 학습하고, 학습 결과를 사용하여 실시간으로 촬영되는 매장 영상으로부터 매장 상태를 인식하며, 매장 상태 인식 결과로부터 기 정의된 매장 상태를 판단하고, 상기 매장 상태를 판단한 결과를 자연어 처리하고 상기 자연어에 대응되는 대화 문장을 생성하여 음성으로 출력하거나, 또는, 상기 매장 상태를 판단한 결과에 기초하여 기 정의된 컨시어지 서비스 데이터를 생성하여 상기 디스플레이 장치로 출력하는 명령어들(instructions)을 포함한다.According to another aspect of the present invention, a robot apparatus includes a body having a predetermined shape, a display device mounted on the body and outputting data to a screen, a speaker mounted on the body, , A camera for photographing a store image, a storage device mounted inside the main body for storing a program, and at least one processor for executing the program, wherein the control unit stores the store image at a predetermined point in the store The store state corresponding to the store image is learned using the neural network model, the store state is recognized from the store image photographed in real time using the learning result, and the predefined store state is determined from the store state recognition result , The result of judging the store status is processed in a natural language, By creating a conversation sentences to be output by voice, or, to produce a concierge service definition data group on the basis of the result of the determination of the status store comprises a Commands (instructions) for outputting to the display device.
상기 로봇 장치는 근거리 통신 또는 인터넷 연결을 수행하는 통신 장치를 더 포함하고, 상기 제어부는, 상기 매장 상태를 판단한 결과 또는 상기 컨시어지 서비스 데이터를 상기 근거리 통신 또는 인터넷망을 통해 출력하는 명령어들을 포함할 수 있다.The robot apparatus may further include a communication device that performs a short-range communication or an Internet connection, and the controller may include instructions for outputting the result of the determination of the store status or the concierge service data through the short- have.
본 발명의 실시예에 따르면, 학습된 신경망 기술을 토대로 매장 상태를 실시간으로 파악하여 고객에게 최적화된 맞춤형 서비스를 신속히 제공하는 AI 기반의 차별화된 지능화 서비스를 통한 경쟁력 강화와 수익구조를 개선할 수 있다.According to the embodiment of the present invention, it is possible to improve the competitiveness and profit structure through the AI-based differentiated intelligence service that provides the optimized customized service quickly to the customers by grasping the store status in real time based on the learned neural network technology .
도 1은 본 발명의 한 실시예에 따른 매장 관리 장치의 구성도이다.
도 2는 본 발명의 실시예에 따른 매장 관리 방법의 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 매장 관리 장치가 사용되는 시스템 구조를 개략적으로 도시한 도면이다.
도 4는 도 3에 도시된 매장 관리 장치의 구성을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 매장 관리 방법의 흐름도이다.
도 6은 본 발명의 또 다른 실시예에 따른 로봇 장치의 개략적인 구성도이다.
도 7은 본 발명의 또 다른 실시예에 따른 로봇 장치의 사시도이다.
도 8은 본 발명의 또 다른 실시예에 따른 매장 관리 장치의 하드웨어 구성을 나타낸 블록도이다. 1 is a configuration diagram of a store management apparatus according to an embodiment of the present invention.
2 is a flowchart of a store management method according to an embodiment of the present invention.
3 is a schematic view illustrating a system structure in which a store management apparatus according to another embodiment of the present invention is used.
Fig. 4 is a diagram showing a configuration of the store management apparatus shown in Fig. 3;
5 is a flowchart of a store management method according to another embodiment of the present invention.
6 is a schematic block diagram of a robot apparatus according to another embodiment of the present invention.
7 is a perspective view of a robot apparatus according to another embodiment of the present invention.
8 is a block diagram illustrating a hardware configuration of a store management apparatus according to another embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" ... "," module ", and the like described in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software .
이제, 도면을 참조하여 본 발명의 실시예에 따른 매장 관리 장치, 그 방법 및 매장 관리 로봇에 대하여 설명한다.Now, a store management apparatus, a method thereof, and a store management robot according to an embodiment of the present invention will be described with reference to the drawings.
도 1은 본 발명의 한 실시예에 따른 매장 관리 장치의 구성도이다.1 is a configuration diagram of a store management apparatus according to an embodiment of the present invention.
도 1을 참조하면, 매장 관리 장치(100)는 영상 촬영부(101), 매장 상태 인식부(103), 매장 상태 판단부(105), 출력부(107), 저장부(109) 및 제어부(111)를 포함한다. 1, the
영상 촬영부(101)는 미리 지정된 지점의 매장 영상을 촬영하여 영상에 대응되는 영상 신호를 출력한다. 영상 촬영부(110)로는 팬 틸트 줌 기능(Pan-Tilt-Zoom, PTZ) 카메라가 사용될 수 있다. The
영상 촬영부(101)는 매장 전체를 커버할 수 있도록 카메라 화각(FoV, Field of View)을 분해하고, 분해한 카메라 화각을 지정된 시간에 따라 조정하여 미리 지정한 위치에 대한 영상을 촬영한다.The
매장 상태 인식부(103)는 딥러닝 기술의 신경망 모델, 특히, 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 이용하여 영상 촬영부(101)에서 출력되는 영상을 학습하여 매장 상태에 대한 학습 정보를 생성할 수 있다. 이후, 매장 상태 인식부(105)는 매장 상태에 대한 학습 정보에 기초하여, 영상 촬영부(101)에서 출력되는 영상을 입력으로 하여 CNN 모델을 사용하여 매장 상태를 인식할 수 있다. 예를들면, 영상 속에 이미지를 통해 사람 얼굴을 인식하여 사람수가 몇명인지 카운트하고, 테이블이 빈테이블인지 점유된 테이블인지 구분하며, 의자에 사람이 않아 있는지 아닌지를 인식할 수 있다.The burial
매장 상태 인식부(103)는 영상 촬영부(101)가 다양한 각도에서 그리고 다양한 시간에 촬영하여 획득한 서로 다른 종류의 매장 이미지와, 이러한 이미지와 전혀 다른 대조군의 이미지를 통한 딥(deep) CNN 학습을 통하여 후보 영역에서 매장 상태를 구분하는 특징 정보를 추출해서 숫자로 표현되는 암호화를 수행하여 학습 정보로서 저장한다. 이때, 사용되는 서로 다른 종류의 매장 이미지는, 예를 들면 매장내 테이블의 치워진 상태의 이미지와 컵들이 올려진 상태의 이미지 각각에 대해 회전에 의한 변형, 이동에 의한 변형, 이미지의 일부를 잘라내는 크롭(crop)과 좌우반전(flip)을 통한 변형, 조명의 밝기 조정을 통해 획득한 다양한 매장 이미지들일 수 있다. The store
매장 상태 인식부(103)는 영상 촬영부(101)에서 출력된 영상에서 기 정의된 후보 영역을 검출하고, 검출한 후보 영역의 특징 정보를 계산한다. 여기서, 특징 정보는 HOG(Histogram Of Gradient), 하알 유사(Haar-like), 웨이블릿(Wavelet) 등일 수 있고, 혹은 이러한 특징들이 복합된 것일 수 있다. 그러나, 이는 예시적인 것이며 특징 값은 이들에 한정되지 않는다.The buried
매장 상태 인식부(103)는 학습된 CNN 모델을 사용하여 검출한 후보 영역의 특징 정보를 분류하여, 테이블이 존재하는지, 테이블이 비어있는지, 테이블에 사람이 있는지, 테이블에 컵이 놓여져 있는지 등의 매장 상태 인식 정보를 출력한다. 이때, 매장 상태 인식부(103)는 공지된 객체 인식 기술을 응용하여 사용할 수 있다.The burial
이때, 매장 상태 인식부(103)는 출력한 매장 상태 인식 정보를 학습하여 학습 정보로 저장할 수 있다.At this time, the buried
매장 상태 판단부(105)는 매장 상태 인식부(103)에서 출력되는 매장 상태 인식 정보를 기준값에 따라 구분하여 최종적으로 매장 상태 정보를 출력한다. The burial
매장 상태 판단부(105)는 매장 상태 인식 정보에 기초하여 영상속 카운트 된 사람수가 기 정의된 기준값 이면 혼잡으로 판단하고, 기 정의된 기준값에 해당하지 않으면, 한가함으로 판단할 수 있다.If the number of people counted in the video is a predefined reference value based on the store status recognition information, the buried
매장 상태 판단부(105)는 테이블 위에 컵이 있는지와, 의자에 사람이 있는지를 기준값으로 설정하고, 매장 상태 인식 정보를 기준값과 대응시켜 테이블 점유상태를 판단할 수 있다.The burial
매장 상태 판단부(105)는 의자 점유 상황을 기준값으로 설정하고, 매장 상태 인식 정보를 기준값과 대응시켜 빈테이블 수를 추정할 수 있다.The buried-
출력부(107)는 매장 상태 판단부(105)에서 판단한 매장 상태 정보를 모니터링 시스템(미도시)에 출력한다. 또는 자체 구비한 화면에 출력할 수 있다.The
저장부(109)는 매장 관리 장치(100)의 동작 수행을 위한 명령어(Instruction) 등을 저장할 수도 있다.The
저장부(109)는 매장 관리 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다. The
저장부(109)는 매장 상태 인식부(103)에서의 학습 정보, 매장 상태 인식 결과, 매장 상태 판단부(105)의 매장 상태 판단 결과를 각각 저장할 수 있다. 이러한 저장부(109)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.The
제어부(111)는 매장 관리 장치(100)의 각 구성요소, 즉 영상 촬영부(101), 매장 상태 인식부(103), 매장 상태 판단부(105), 출력부(107), 저장부(109) 간에 전달되는 신호를 처리한다.The
이러한 매장 관리 장치(100)를 사용하여 매장 상태를 학습하여 인식하고 판단하는 매장 관리 방법에 대해 설명한다.A store management method for learning and recognizing and determining the store status using the
도 2는 본 발명의 실시예에 따른 매장 관리 방법의 흐름도이다.2 is a flowchart of a store management method according to an embodiment of the present invention.
도 2를 참조하면, 영상 촬영부(101)를 통해 촬영한 매장 영상 또는 외부 장치(미도시)로부터 입력받은 매장 영상에 대해 전술한 CNN 모델을 사용하여 매장 상태를 인식하는 학습을 수행(S101)한 후, 저장부(109)에 저장한다(S103). 물론 이러한 학습은 여러 번에 걸쳐서 서로 다른 종류의 다수의 매장 영상을 입력하여 수행될 것이다.Referring to FIG. 2, learning is performed to recognize a burial state using the above-described CNN model for a burial image photographed through the
이때, 촬영한 매장 영상은 영상 촬영부(101)가 정해진 시간에 따라 다양한 카메라 화각으로 미리 지정한 위치에 대하여 촬영한 영상일 수 있다.At this time, the photographed burial image may be an image of the image taken by the
이후, 영상 촬영부(101)를 통해 매장 영상을 촬영한다(S105). 그리고 S105 단계에서 촬영된 매장 영상에 대해 S103 단계에서 저장된 학습 정보를 토대로 매장 상태를 인식한다(S107). 이때, 인식되는 매장 상태로는 테이블 점유 유무, 의자에 앉은 사람수, 테이블위에 놓인 컵의 유무, 컵의 개수 등을 포함할 수 있다.Thereafter, the store image is photographed through the image photographing unit 101 (S105). In step S107, the store status is recognized based on the learning information stored in step S103 for the store image photographed in step S105. At this time, the recognized burial conditions may include the presence or absence of a table, the number of people sitting on a chair, the presence or absence of a cup on the table, and the number of cups.
다음, 매장 상태 판단부(105)를 통해 매장 상태 인식 결과를 기 정의된 기준값과 비교하여 매장 상태를 판단한다(S109). 이때, 판단되는 매장 상태로는 다양한 매장 상태를 정의하여 사용할 수 있으며, 본 발명의 실시예에 따르면, 매장 혼잡도가 될 수 있다.Next, the store
다음, 출력부(107)를 통하여 매장 상태 분류 결과를 외부로 출력한다(S111). 이때, 전술한 것처럼, 모니터링 시스템(미도시)의 화면에 출력할 수 있다. 혹은, 매장 내 대기 고객의 단말로 메시지 서비스를 이용하여 전송할 수도 있다.Next, the store status classification result is output to the outside through the output unit 107 (S111). At this time, as described above, it can be outputted on the screen of the monitoring system (not shown). Alternatively, it may be transmitted to a terminal of a waiting customer in a store using a message service.
한편, 도 1 및 도 2에서는 매장 관리 장치(100)가 직접 학습 및 인식을 수행하는 것으로 설명하였지만, 본 발명의 기술적 범위는 여기에 한정되지 않는다. 예를 들어, 매장 영상을 사용하여 외부의 인공지능 클라우드 서버를 통한 학습과, 매장 상태 인식을 수행할 수도 있다.1 and 2, the
최근에는 각종 자료를 사용자의 컴퓨터나 스마트폰 등 내부 저장 공간이 아닌 외부 클라우드 서버에 저장한 뒤에 다운로드받는 서비스인 클라우드 서비스가 각광을 받고 있으며, 이러한 클라우드 서비스는 인공지능 기술을 제공하는 클라우드 서버에 의해서도 제공될 수 있다. 예를 들어, IBM사의 인공지능 기술인 왓슨(Watson)이나 구글사의 텐서플로우(TesnorFlow) 등이 오픈 소프트웨어로서 잘 알려져 있다. 이들은 인공지능을 활용해 자연어 질문을 알아듣고, 방대한 데이터로부터 관련 있는 사항을 분석, 종합해 적절한 답변을 제공하는 기술이다. 이들은 API(Application Programming Interface)를 통해 인공지능 기술을 사용할 수 있는 클라우드 서비스를 제공하고 있다.In recent years, cloud services, a service for downloading various kinds of data after storing them in an external cloud server instead of an internal storage space such as a user's computer or a smart phone, have attracted attention. Such a cloud service is also used by a cloud server providing artificial intelligence Can be provided. For example, IBM's artificial intelligence technology, Watson and Google's TesnorFlow, are well known as open software. They use artificial intelligence to understand natural language questions, analyze and synthesize relevant data from vast amounts of data, and provide appropriate answers. They are providing cloud services that can use artificial intelligence technology through API (Application Programming Interface).
따라서, 본 발명의 다른 실시예에 따른 매장 관리 장치에서는 매장 영상을 통한 매장 상태 인식 학습과, 이러한 학습 결과에 기초한 매장 상태 인식을 매장 관리 장치에서 직접 수행하지 않고 API를 통해 접속되는 외부의 클라우드 서버에게 영상 정보를 전달하여 이에 대응되는 매장 상태 인식 결과를 제공받아서 사용할 수 있다. 이러한 내용에 대해 다음 실시예를 통해 설명한다. Therefore, in the store management apparatus according to another embodiment of the present invention, the store state recognition learning through the store image and the store state recognition based on the learning result are not directly performed in the store management apparatus, and the external cloud server And then receives and stores the stored store state recognition result corresponding thereto. These contents will be described in the following examples.
도 3은 본 발명의 다른 실시예에 따른 매장 관리 장치가 사용되는 시스템 구조를 개략적으로 도시한 도면이다.3 is a schematic view illustrating a system structure in which a store management apparatus according to another embodiment of the present invention is used.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 매장 관리 장치(200)는 학습을 위한 매장 영상을 네트워크(300)를 통해 외부의 클라우드 서버(400)로 전달하여, 매장 영상을 사용하여 인식하는 학습을 수행시킨다. 3, the
학습 후, 매장 관리 장치(200)는 서비스 시점에 매장 영상을 촬영하여 클라우드 서버(400)로 전달하고, 클라우드 서버(400)로부터 매장 상태 인식 정보를 제공받아서 이를 통해 판단한 매장 상태 정보를 외부로 표시할 수 있다. After the learning, the
여기서, 클라우드 서버(400)는 IBM사의 왓슨이나 구글사의 텐서플로우와 같이 딥러닝 기술의 CNN 모델에 따른 정보 학습 및 학습 결과를 이용한 매장 상태 인식이 가능한 서버를 말한다. 또한, 외부의 클라우드 서버(400)가 매장 영상에 대응되는 매장 상태 인식 및 매장 상태 인식을 위한 학습과, 그 학습 정보를 사용하여 매장 영상에 대응되어 실시간으로 매장 상태를 인식하는 기술에 대해서는 API를 제공하여 클라우드 서버(400)로서 동작 가능한 클라우드 서버(400) 고유의 기능으로 이에 대해서는 잘 알려져 있으므로 여기에서는 구체적인 설명을 생략한다.Here, the
도 4는 도 3에 도시된 매장 관리 장치(200)의 구성을 도시한 도면이다.FIG. 4 is a diagram showing the configuration of the
도 4를 참조하면, 매장 관리 장치(200)는 영상 촬영부(201), 서버 인터페이스(203), 매장 상태 인식부(205), 매장 상태 판단부(207), 표시부(209), 저장부(211) 및 제어부(213)를 포함한다. 여기서, 영상 촬영부(201), 매장 상태 인식부(205), 매장 상태 판단부(207), 표시부(209), 저장부(211) 및 제어부(213)는 도 1을 참조하여 설명한 기능과 동작이 동일하므로 여기에서는 이들에 대한 구체적인 설명을 생략하고, 그 기능과 동작이 상이한 구성요소들에 대해서만 설명한다.4, the
서버 인터페이스(203)는 외부의 클라우드 서버(400)가 제공한 API를 사용하여 네트워크(300)를 통해 클라우드 서버(400)에 접속되어 정보의 송수신이 가능하도록 하는 기능을 수행한다. The
매장 상태 인식부(205)는 서버 인터페이스(203)를 통하여 클라우드 서버(400)로 매장 영상을 전달하여 매장 상태 인식에 대한 학습을 수행시킨다. The store
클라우드 서버(400)를 통한 매장 상태 인식에 대한 학습이 완료된 후, 매장 상태 인식부(205)는 영상 촬영부(201)에서 출력되는 영상을 서버 인터페이스(203)를 통해 클라우드 서버(400)에게 전달하고, 전달된 영상에 대응되어 클라우드 서버(400)로부터 제공되는 매장 상태 인식 결과를 사용하여 매장 상태 인식을 수행할 수 있다.After the learning of the store state recognition through the
저장부(211)는 기본적으로는 도 1에서 설명한 매장 관리 장치(100)의 저장부(109)와 유사하지만, 본 발명의 다른 실시예에서는 매장 상태 인식에 대한 학습을 수행하지 않으므로 이러한 학습 정보를 저장하지 않다.Basically, the
또한, 제어부(213)는 매장 영상에 대응되는 매장 상태 인식 및 매장 상태 인식에 대한 학습을 위한 신호 전달 제어는 수행하지 않는다.Also, the
이하, 상기한 매장 관리 장치(200)를 사용하여 매장 상태를 인식하고 판단하는 매장 관리 방법에 대해 설명한다.Hereinafter, a store management method for recognizing and determining the store status using the
도 5는 본 발명의 다른 실시예에 따른 매장 관리 방법의 흐름도이다. 5 is a flowchart of a store management method according to another embodiment of the present invention.
도 5를 참조하면, 영상 촬영부(101)를 통해 촬영(S201)한 매장 영상 또는 외부 장치(미도시)로부터 입력(S201)받은 매장 영상을 외부의 클라우드 서버(400)로 전달(S203)하여 매장 상태 인식에 대한 학습을 수행시킨다(S205). 물론, 이러한 학습은 여러 번에 걸쳐서 얼굴 영상을 입력하여 수행될 것이다. 이와 같이 상기한 과정을 통해, 매장 관리 장치(200)는 매장 영상에 대응되는 매장 상태 인식을 외부의 클라우드 서버(400)를 통해 학습할 수 있다.Referring to FIG. 5, a store image shot through the image shooting unit 101 (S201) or a store image received from the external device (not shown) (S201) is transmitted to the external cloud server 400 (S203) And performs learning about the store state recognition (S205). Of course, this learning will be performed by inputting the face image several times. Thus, through the above process, the
이후, 매장 영상이 촬영되면(S207), 실시간으로 촬영되는 매장 영상을 외부의 클라우드 서버(400)로 전달하여 대응되는 매장 상태 인식을 요청한다(S209).Then, when the store image is photographed (S207), the store image photographed in real time is transmitted to the
클라우드 서버(400)로부터, 전달된 매장 영상에 대응되어 수행된 매장 상태 인식 결과를 수신한다(S211). 즉, 이러한 매장 상태 인식 결과가 매장 상태 인식부(205)에서의 매장 상태 인식 결과가 된다.From the
다음, 도 2에서도 설명한 것처럼, 매장 상태 판단부(207)를 통해 매장 상태 인식 결과를 기 정의된 기준값과 비교하여 매장 상태를 판단한다(S215). 그리고 출력부(209)를 통하여 매장 상태 분류 결과를 외부로 출력한다(S217). Next, as described with reference to FIG. 2, the store
이와 같이, 본 발명의 다른 실시예에 따른 매장 관리 장치(200)에서는 매장 영상에 대응되는 매장 상태 인식 및 매장 상태 인식에 대한 학습을 수행하는 기능을 외부의 클라우드 서버(400)를 사용하여 수행함으로써, 매장 관리 장치(200)의 구성이 간단해져서 컨시어지 로봇에의 탑재가 용이해질 뿐만 아니라, 이미 검증되어 있고 매우 다양하고 많은 정보를 갖고 있는 클라우드 서버(400)를 사용함으로써 매장 관리 장치(200)에 대한 신뢰를 제공할 수 있다.As described above, in the
한편, 전술한 매장 관리 장치(100, 200)는 컨시어지 서비스(Concierge Service)를 제공하는 로봇에 이용될 수 있다. 여기서, 컨시어지 서비스는 고객의 편의를 위해 고객의 요구를 판단하고 이행하는 비서와 같은 서비스로서, 고객과 대면하는 일종의 관문 서비스이다. 이러한 컨시어지 서비스는 예를들면, 레스토랑, 커피전문점, 패스트푸드점, 호텔, 매장 등에서 제공될 수 있다. Meanwhile, the above-described
도 6은 본 발명의 또 다른 실시예에 따른 매장 관리 로봇 장치의 개략적인 구성도이다. 도 6에서는 설명의 편의상 본 발명의 특징과 관련 없는 로봇 장치의 일반적인 구성 및 그 동작에 대한 설명은 생략하였다.6 is a schematic block diagram of a store management robot apparatus according to another embodiment of the present invention. In FIG. 6, the general configuration of the robot apparatus and the operation thereof, which are not related to the features of the present invention, are omitted for convenience of explanation.
도 6을 참조하면, 본 발명의 또 다른 실시예에 따른 로봇 장치(500)는 매장 관리 장치(501), 음성 대화 장치(503), 컨시어지 서비스 처리 장치(505), 저장부(507) 및 제어부(509)를 포함한다. 6, a
매장 관리 장치(501)는 매장 영상을 토대로 매장 상태를 인식하고, 매장 상태를 판단한다. 이러한 매장 관리 장치(501)는 도 1 ~ 도 5에서 설명한 내용과 동일하다.The
음성 대화 장치(503)는 외부의 사람 등으로부터 입력되는 음성 입력을 받아서 그에 대응되는 음성 대화를 위한 음성을 출력한다. 그리고 매장 관리 장치(501)가 출력하는 매장 상태 정보를 자연어 처리하고, 자연어에 대응되는 대화 문장을 생성하여 음성으로 출력할 수 있다. 이때, 대화 문장은 다양한 방식, 예를 들어, 인공지능 방식 등을 사용하여 생성할 수 있으며, 이러한 방식은 로봇 장치(500)의 동작 방식에 따라 다양하게 구성될 수 있으며, 그 구체적인 구성은 본 실시예에서의 특징과는 관련이 없으므로 여기에서는 구체적인 설명을 생략한다.The
컨시어지 서비스 처리 장치(505)는 매장 관리 장치(501)에서 출력되는 매장 상태 판단 결과를 토대로 대응하는 컨시어지 서비스를 제공한다. 한 실시예에 따르면, 매장 상태 판단 결과와, 매장 상태 판단 결과에 따른 대기 시간을 피지컬 웹 유알엘(URL)로 구성하여 매장 내 브로드캐스팅할 수 있다. 그러면, 피지컬 웹 유알엘(URL)을 스캔한 사용자 단말(미도시)은 매장 상태 및 대기 시간을 안내받을 수 있다. 이러한 방식은 로봇 장치(500)의 컨시어지 서비스 시나리오에 따라 다양하게 구성될 수 있으며, 그 구체적인 구성은 본 실시예에서의 특징과는 관련이 없으므로 여기에서는 구체적인 설명을 생략한다.The concierge
저장부(507)는 로봇 장치(500)의 동작 수행을 위한 명령어(Instruction), 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다. The
제어부(509)는 로봇 장치(500)의 각 구성요소, 즉 매장 관리 장치(501), 음성 대화 장치(503), 컨시어지 서비스 처리 장치(505), 저장부(507) 간에 전달되는 신호를 처리한다.The
이와 같은, 로봇 장치(500)는 도 7과 같이 구현될 수 있다. 도 7은 본 발명의 또 다른 실시예에 따른 로봇 장치의 사시도이다.Such a
도 7을 참조하면, 로봇 장치(500)는 사람과 유사하게 머리와 몸통을 지닌 로봇 형상을 가지는 본체(511)의 머리 부분에 마이크(513)가 장착되고, 본체(511)의 얼굴 부분에 매장 영상을 촬영하기 위한 PTZ 카메라(515)가 장착될 수 있다.7, the
본체(511)의 몸통 전면에는 매장 상태 판단 결과, 매장 상태 판단 결과에 따른 컨시어지 서비스 데이터 등을 출력하기 위한 모니터 화면을 구비하는 디스플레이 장치(517)가 장착된다. 본체(511)의 몸통을 둘러싸인 부분에 매장 상태 판단 결과, 매장 상태 판단 결과에 따른 컨시어지 서비스 데이터 등에 대응되는 대화 문장을 음성으로 출력하기 위한 스피커(519)가 장착될 수 있다.A
이때, 본체(511)의 내부에는 전술한 매장 관리 장치(100, 200)가 포함된다.At this time, the above-described
한편, 도 8은 본 발명의 또 다른 실시예에 따른 매장 관리 장치 또는 로봇 장치의 하드웨어 구성을 나타낸 블록도이다.8 is a block diagram illustrating a hardware configuration of a store management apparatus or a robot apparatus according to another embodiment of the present invention.
도 8을 참조하면, 매장 관리 장치 또는 로봇 장치(600)는 근거리 통신 또는 인터넷 연결을 수행하는 통신 장치(601)와, 마이크, 카메라, 외부 장치와 연결되어 데이터를 송수신하는 입출력 포트 등으로 구성된 입력 장치(603)와, 화면에 데이터를 시각적으로 표시하는 디스플레이부, 음성을 출력하는 스피커 등으로 구성된 출력 장치(605)와, 저장 장치(607) 및 프로세서(609) 등을 포함하는 하드웨어로 구성되고, 지정된 장소에 하드웨어와 결합되어 실행되는 프로그램이 저장된다. 하드웨어는 도 1 내지 도 7에서 설명한 실시예들에 따른 구성 및/또는 방법을 실행할 수 있는 구성과 성능을 가진다. 프로그램은 도 1 내지 도 8에서 설명한 실시예들에 따른 구성 및/또는 방법을 실행할 수 있는 명령어들(instructions)을 포함하고, 저장 장치(607) 및 프로세서(609) 등의 하드웨어와 결합하여 본 발명을 구현한다. 8, the store management apparatus or the
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (14)
매장 내 정해진 지점의 매장 영상을 촬영하는 영상 촬영부,
상기 매장 영상을 이용한 매장 관리를 수행하는 프로그램을 저장하는 저장부, 그리고
상기 프로그램을 실행하는 프로세서를 포함하고,
상기 프로그램은,
신경망 모델을 사용하여 매장 영상에 대응되는 매장 상태를 학습하고, 학습 결과를 사용하여 실시간으로 촬영되는 매장 영상으로부터 매장 상태를 인식하며, 매장 상태 인식 결과로부터 기 정의된 매장 상태를 판단하여 외부로 출력하는 명령어들(instructions)을 포함하는, 매장 관리 장치.An intelligent store management device,
An image capturing unit for capturing a store image at a predetermined point in the store,
A storage unit for storing a program for performing store management using the store image,
And a processor for executing the program,
The program includes:
Learning the store status corresponding to the store image using the neural network model, recognizing the store status from the store image photographed in real time using the learning result, determining the predefined store status from the store status recognition result, Wherein the instructions further comprise instructions to:
상기 프로그램은,
상기 영상 촬영부가 서로 다른 복수의 각도 및 복수의 시간에 촬영하여 획득한 서로 다른 종류의 매장 영상을, 상기 매장 영상과 전혀 다른 대조군의 매장 영상을 통한 딥(deep) 신경망 모델 학습을 통하여 후보 영역에서 매장 상태를 구분하는 특징 정보를 추출하여 매장 상태 인식을 위한 학습 정보로 상기 저장부에 저장하고,
상기 학습 정보에 기초하고, 상기 영상 촬영부가 실시간 촬영하는 매장 영상을 입력으로 상기 신경망 모델을 사용하여 매장 상태를 인식하는 명령어들을 포함하는, 매장 관리 장치.The method of claim 1,
The program includes:
Wherein the image capturing unit captures and stores different kinds of store images obtained by photographing at different angles and a plurality of times at a different time from the store image through a deep neural network model learning through a store image of a control group completely different from the store image Storing feature information for identifying a buried state in the storage unit as learning information for recognizing a buried state,
And instructions for recognizing a burial state using the neural network model based on the learning information and inputting a burial image photographed by the image capturing unit in real time.
상기 프로그램은,
매장 상태 인식 결과를 기 정의된 기준값과 대응시켜 매장 상태를 판단하는 명령어들을 포함하는, 매장 관리 장치.The method of claim 1,
The program includes:
Wherein the store management device includes instructions for determining a store state by associating a store state recognition result with a predefined reference value.
상기 기준값은,
영상속 카운트된 사람수, 테이블 위에 컵이 있는지 유무 및 의자에 사람이 있는지 유무 중 적어도 하나를 포함하여 설정되고,
상기 매장 상태는,
매장 혼잡도를 포함하는, 매장 관리 장치.4. The method of claim 3,
The reference value,
The number of persons counted in the video, presence or absence of a cup on the table, presence or absence of a person in the chair,
In the store state,
A store management device, including store congestion.
상기 프로그램은,
매장 영상을 신경망 모델을 사용한 학습이 가능한 외부의 클라우드 서버로 전달하여 매장 영상에 대응되는 감정 학습을 수행시킨 후,
실시간 촬영된 매장 영상을 상기 클라우드 서버로 전달하여 상기 매장 영상에 대응되는 매장 상태 인식을 요청한 후 상기 클라우드 서버로부터 전달되는 매장 상태 인식 결과를 수신하며,
수신한 매장 상태 인식 결과로부터 상기 매장 상태를 판단하는 명령어들을 포함하는, 매장 관리 장치.The method according to claim 1,
The program includes:
The store image is transmitted to an external cloud server capable of learning using a neural network model to perform emotion learning corresponding to the store image,
The method includes receiving a burial state recognition result transmitted from the cloud server after delivering a real-time burial image to the cloud server, requesting burial state recognition corresponding to the burial image,
And judging the store status from the received store status recognition result.
상기 신경망 모델은,
합성곱 신경망(Convolutional Neural Network, CNN) 모델인, 매장 관리 장치.Article 1,
The neural network model includes:
A store management device, which is a Convolutional Neural Network (CNN) model.
복수의 매장 영상에 대응되는 매장 상태를 신경망 모델을 사용하여 학습하는 단계,
상기 학습의 정보에 기초하여, 실시간으로 촬영된 매장 영상에 대응되는 매장 상태를 인식하는 단계, 그리고
상기 매장 상태의 인식 결과로부터 기 정의된 매장 상태를 판단하여 외부로출력하는 단계
를 포함하는 매장 관리 방법.A store management method performed in a store management device operated by at least one processor,
Learning a store state corresponding to a plurality of store images using a neural network model;
Recognizing a burial state corresponding to a burial image photographed in real time based on the learning information, and
Determining a predefined store state from the recognition result of the store state and outputting it to the outside
.
상기 출력하는 단계는,
매장 상태 인식 결과를 기 정의된 기준값과 대응시켜 매장 상태를 판단하는 단계를 포함하는, 매장 관리 방법.8. The method of claim 7,
Wherein the outputting step comprises:
Determining a store status by associating a store status recognition result with a predefined reference value.
상기 학습하는 단계는,
학습을 위한 준비된 매장 영상과 전혀 다른 대조군의 매장 영상을 통한 딥(deep) 신경망 모델 학습을 수행하는 단계, 그리고
상기 학습을 통하여 후보 영역에서 매장 상태를 구분하는 특징 정보를 추출하여 매장 상태 인식을 위한 학습 정보로 추출하여 저장하는 단계
를 포함하는 매장 관리 방법.9. The method of claim 8,
Wherein the learning comprises:
Performing a deep neural network model learning through a store image prepared for learning and a store image of a completely different control group, and
Extracting feature information for identifying a buried state in the candidate region through the learning, extracting and extracting learning information for burial state recognition
.
상기 학습하는 단계는,
학습을 위한 준비된 매장 영상을 신경망 모델을 사용한 학습이 가능한 외부의 클라우드 서버로 전달하여 매장 영상에 대응되는 감정 학습을 수행시키는 단계
를 포함하는 매장 관리 방법.9. The method of claim 8,
Wherein the learning comprises:
Delivering the store image prepared for learning to an external cloud server capable of learning using a neural network model, and performing emotion learning corresponding to the store image
.
상기 인식하는 단계는,
실시간으로 촬영되는 매장 영상을 상기 클라우드 서버로 전달하여 매장 영상에 대응되는 매장 상태 인식을 요청하는 단계, 그리고
상기 클라우드 서버로부터 전달되는 매장 인식 결과 수신하여 출력하는 단계
를 포함하는, 매장 관리 방법.11. The method of claim 10,
Wherein the recognizing comprises:
Transmitting a store image photographed in real time to the cloud server to request store status recognition corresponding to the store image; and
Receiving the store recognition result transmitted from the cloud server and outputting
The store management method comprising:
상기 신경망 모델은 합성곱 신경망(Convolutional Neural Network, CNN) 모델 모델이고,
상기 합성곱 신경망 모델은,
입력되는 매장 영상에 대해 사람수, 테이블 점유 유무, 의자에 사람이 앉아있는지 유무 및 테이블 위에 놓인 컵의 유무 및 컵의 개수 중 적어도 하나를 매장 상태로 인식하는, 매장 관리 방법.8. The method of claim 7,
The neural network model is a Convolutional Neural Network (CNN) model model,
The combined-product neural network model includes:
Wherein at least one of the number of people, the presence or absence of a table, the presence or absence of a person sitting in a chair, the presence or absence of a cup placed on the table, and the number of cups is recognized as a burial state.
소정의 형상을 가진 본체,
상기 본체에 장착되어 데이터를 화면에 출력하는 디스플레이 장치,
상기 본체에 장착되어, 음성을 출력하는 스피커,
상기 본체에 장착되어, 매장 영상을 촬영하는 카메라,
상기 본체의 내부에 장착되어 프로그램을 저장하는 저장 장치, 그리고
상기 프로그램을 실행하는 적어도 하나의 프로세서로 구성된 제어부를 포함하고,
상기 제어부는,
매장 내 정해진 지점의 매장 영상을 촬영하여 신경망 모델을 사용하여 상기 매장 영상에 대응되는 매장 상태를 학습하고, 학습 결과를 사용하여 실시간으로 촬영되는 매장 영상으로부터 매장 상태를 인식하며, 매장 상태 인식 결과로부터 기 정의된 매장 상태를 판단하고,
상기 매장 상태를 판단한 결과를 자연어 처리하고 상기 자연어에 대응되는 대화 문장을 생성하여 음성으로 출력하거나, 또는, 상기 매장 상태를 판단한 결과에 기초하여 기 정의된 컨시어지 서비스 데이터를 생성하여 상기 디스플레이 장치로 출력하는 명령어들(instructions)을 포함하는, 로봇 장치.A robot apparatus comprising:
A body having a predetermined shape,
A display device mounted on the main body and outputting data to a screen,
A speaker mounted on the main body for outputting sound,
A camera mounted on the main body for shooting a store image,
A storage device mounted inside the main body for storing a program, and
And a control unit configured of at least one processor for executing the program,
Wherein,
The store image corresponding to the store image is learned by using the neural network model, the store status is recognized from the store image photographed in real time using the learning result, and the store status is recognized from the store status recognition result Determine the predefined store status,
Processing the natural language result of the determination of the buried state, generating a conversation sentence corresponding to the natural language and outputting it as a voice, or generating predefined concierge service data based on the result of determining the buried state and outputting the concierge service data to the display device The instructions comprising instructions to:
근거리 통신 또는 인터넷 연결을 수행하는 통신 장치를 더 포함하고,
상기 제어부는,
상기 매장 상태를 판단한 결과 또는 상기 컨시어지 서비스 데이터를 상기 근거리 통신 또는 인터넷망을 통해 출력하는 명령어들을 포함하는, 로봇 장치.The method of claim 13,
Further comprising a communication device for performing a short-range communication or an Internet connection,
Wherein,
And outputting the result of the determination of the buried state or the concierge service data through the local area communication or the Internet network.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160152216 | 2016-11-15 | ||
KR20160152216 | 2016-11-15 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170074439A Division KR101803081B1 (en) | 2016-11-15 | 2017-06-13 | Robot for store management |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180054505A true KR20180054505A (en) | 2018-05-24 |
Family
ID=60811479
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170074432A KR101854431B1 (en) | 2016-11-15 | 2017-06-13 | Concierge robot |
KR1020170074439A KR101803081B1 (en) | 2016-11-15 | 2017-06-13 | Robot for store management |
KR1020170157627A KR20180054505A (en) | 2016-11-15 | 2017-11-23 | Apparatus, method and robot for store management |
KR1020180048708A KR20180054528A (en) | 2016-11-15 | 2018-04-26 | Concierge robot system, concierge service method and concierge robot |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170074432A KR101854431B1 (en) | 2016-11-15 | 2017-06-13 | Concierge robot |
KR1020170074439A KR101803081B1 (en) | 2016-11-15 | 2017-06-13 | Robot for store management |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180048708A KR20180054528A (en) | 2016-11-15 | 2018-04-26 | Concierge robot system, concierge service method and concierge robot |
Country Status (1)
Country | Link |
---|---|
KR (4) | KR101854431B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096854A (en) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for controlling a plurality of robots using artificial intelligence |
KR20190096857A (en) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for determining route for robot and method for the same |
KR20190096871A (en) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for controlling plurality of robots and method for the same |
KR20190100115A (en) * | 2019-08-09 | 2019-08-28 | 엘지전자 주식회사 | Artificial intelligence server and method for determining deployment area of robot |
KR102040574B1 (en) | 2018-07-26 | 2019-11-06 | 강삼태 | Store and shop management method |
WO2019240452A1 (en) * | 2018-06-15 | 2019-12-19 | 네이버랩스 주식회사 | Method and system for automatically collecting and updating information related to point of interest in real space |
KR20210008997A (en) * | 2019-07-16 | 2021-01-26 | 조강훈 | System and method for managing customer service of franchise merchant |
KR20220031967A (en) * | 2020-09-06 | 2022-03-15 | 조강훈 | Smart active food franchise service management system |
KR20220140226A (en) * | 2021-04-09 | 2022-10-18 | 주식회사 닐슨 | Method, apparatus and computer program for determining contents |
WO2023212614A1 (en) * | 2022-04-26 | 2023-11-02 | Haystack Robotics, Inc. | Automated robotic ground-truth, checklists, and physical traceability |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565434B2 (en) | 2017-06-30 | 2020-02-18 | Google Llc | Compact language-free facial expression embedding and novel triplet training scheme |
JP6658795B2 (en) * | 2018-05-11 | 2020-03-04 | セイコーエプソン株式会社 | Machine learning device, photographing time estimation device, machine learning program, and method for producing photograph data |
KR102139855B1 (en) * | 2018-05-23 | 2020-07-30 | 한국과학기술원 | Intelligent personal assistant system based on the inner state of user |
KR102040218B1 (en) | 2018-06-11 | 2019-11-04 | 엘지전자 주식회사 | Moving robot capable of recognizing waiting line and method for controlling the moving robot |
CN109514585A (en) * | 2018-08-01 | 2019-03-26 | 苏州优智达机器人有限公司 | Service humanoid robot |
KR102242779B1 (en) * | 2018-09-14 | 2021-04-20 | 엘지전자 주식회사 | Robot and method for operating the same |
CN109822581A (en) * | 2018-12-08 | 2019-05-31 | 浙江国自机器人技术有限公司 | Guide method for computer room robot |
KR102115754B1 (en) * | 2019-04-26 | 2020-05-27 | 김병수 | Concierge service system |
WO2020246643A1 (en) * | 2019-06-07 | 2020-12-10 | 엘지전자 주식회사 | Serving robot and customer serving method using same |
WO2021045271A1 (en) * | 2019-09-05 | 2021-03-11 | 엘지전자 주식회사 | Robot |
KR102295807B1 (en) * | 2020-02-24 | 2021-08-31 | 연세대학교 산학협력단 | Concierge robot and method of providing personalized service using the same |
KR102386353B1 (en) | 2020-09-17 | 2022-04-12 | 유진기술 주식회사 | Telepresence robot and manless store managing method using the same |
KR102620674B1 (en) * | 2021-01-14 | 2024-01-04 | 순천대학교 산학협력단 | Artificial Intelligence-based User Responsive Kiosk Payment System |
US11911890B2 (en) | 2021-04-28 | 2024-02-27 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for providing a service using a robot |
CN113700414B (en) * | 2021-10-29 | 2022-03-11 | 杭州明融科技有限公司 | Valuables safety control system |
KR20230063129A (en) * | 2021-11-01 | 2023-05-09 | (주)뉴빌리티 | Method for providing advertisement in unmanned moving object and system thereof |
KR102498533B1 (en) * | 2022-07-15 | 2023-02-09 | 권용현 | Interactive electronic device for performing functions of providing responses to questions from users and real-time conversation with the users using models learned by deep learing technique and operating method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4923876B2 (en) | 2006-09-01 | 2012-04-25 | 富士通株式会社 | Information providing robot and information providing method using robot |
CN101973031B (en) * | 2010-08-24 | 2013-07-24 | 中国科学院深圳先进技术研究院 | Cloud robot system and implementation method |
-
2017
- 2017-06-13 KR KR1020170074432A patent/KR101854431B1/en active IP Right Grant
- 2017-06-13 KR KR1020170074439A patent/KR101803081B1/en active IP Right Grant
- 2017-11-23 KR KR1020170157627A patent/KR20180054505A/en active Application Filing
-
2018
- 2018-04-26 KR KR1020180048708A patent/KR20180054528A/en active Application Filing
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190141892A (en) * | 2018-06-15 | 2019-12-26 | 네이버랩스 주식회사 | Method and system for automatically collecting and updating information about point of interest in real space |
WO2019240452A1 (en) * | 2018-06-15 | 2019-12-19 | 네이버랩스 주식회사 | Method and system for automatically collecting and updating information related to point of interest in real space |
KR102040574B1 (en) | 2018-07-26 | 2019-11-06 | 강삼태 | Store and shop management method |
KR20210008997A (en) * | 2019-07-16 | 2021-01-26 | 조강훈 | System and method for managing customer service of franchise merchant |
US11455529B2 (en) | 2019-07-30 | 2022-09-27 | Lg Electronics Inc. | Artificial intelligence server for controlling a plurality of robots based on guidance urgency |
KR20190096857A (en) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for determining route for robot and method for the same |
KR20190096854A (en) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for controlling a plurality of robots using artificial intelligence |
US11511422B2 (en) | 2019-07-30 | 2022-11-29 | Lg Electronics Inc. | Artificial intelligence server for determining route of robot and method for the same |
KR20190096871A (en) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | Artificial intelligence server for controlling plurality of robots and method for the same |
US11383379B2 (en) | 2019-07-31 | 2022-07-12 | Lg Electronics Inc. | Artificial intelligence server for controlling plurality of robots and method for the same |
KR20190100115A (en) * | 2019-08-09 | 2019-08-28 | 엘지전자 주식회사 | Artificial intelligence server and method for determining deployment area of robot |
US11093795B2 (en) | 2019-08-09 | 2021-08-17 | Lg Electronics Inc. | Artificial intelligence server for determining deployment area of robot and method for the same |
KR20220031967A (en) * | 2020-09-06 | 2022-03-15 | 조강훈 | Smart active food franchise service management system |
WO2022149666A1 (en) * | 2020-09-06 | 2022-07-14 | 조강훈 | Smart active system for managing restaurant franchise service |
KR20220140226A (en) * | 2021-04-09 | 2022-10-18 | 주식회사 닐슨 | Method, apparatus and computer program for determining contents |
WO2023212614A1 (en) * | 2022-04-26 | 2023-11-02 | Haystack Robotics, Inc. | Automated robotic ground-truth, checklists, and physical traceability |
Also Published As
Publication number | Publication date |
---|---|
KR101854431B1 (en) | 2018-05-03 |
KR101803081B1 (en) | 2017-11-29 |
KR20180054528A (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101803081B1 (en) | Robot for store management | |
CN110291489A (en) | The efficient mankind identify intelligent assistant's computer in calculating | |
JP5864783B2 (en) | Method and apparatus for operator absent image capture | |
WO2019085585A1 (en) | Device control processing method and apparatus | |
US7725547B2 (en) | Informing a user of gestures made by others out of the user's line of sight | |
CN111163906B (en) | Mobile electronic device and method of operating the same | |
KR101887637B1 (en) | Robot system | |
US10789458B2 (en) | Human behavior recognition apparatus and method | |
CN104125396A (en) | Image shooting method and device | |
CN108198130B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
KR101978299B1 (en) | Apparatus for service contents in contents service system | |
CN105981375A (en) | Information processing apparatus, control method, program, and system | |
CN109543633A (en) | A kind of face identification method, device, robot and storage medium | |
EP3635513B1 (en) | Selective detection of visual cues for automated assistants | |
JP7118697B2 (en) | Point-of-regard estimation processing device, point-of-regard estimation model generation device, point-of-regard estimation processing system, point-of-regard estimation processing method, program, and point-of-regard estimation model | |
CN108764973A (en) | A kind of advertisement broadcast method, device, equipment and storage medium | |
US11076091B1 (en) | Image capturing assistant | |
KR20210048272A (en) | Apparatus and method for automatically focusing the audio and the video | |
KR20220004259A (en) | Method and system for remote medical service using artificial intelligence | |
CN106471440A (en) | Eye tracking based on efficient forest sensing | |
KR20190118965A (en) | System and method for eye-tracking | |
CN110096251A (en) | Exchange method and device | |
CN113703585A (en) | Interaction method, interaction device, electronic equipment and storage medium | |
JPH09307868A (en) | Communication equipment and communication method | |
KR20190113252A (en) | Method for eye-tracking and terminal for executing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |