KR102234555B1 - Method, apparatus and system for managing crime prevention and security for unmanned store operation - Google Patents

Method, apparatus and system for managing crime prevention and security for unmanned store operation Download PDF

Info

Publication number
KR102234555B1
KR102234555B1 KR1020200138246A KR20200138246A KR102234555B1 KR 102234555 B1 KR102234555 B1 KR 102234555B1 KR 1020200138246 A KR1020200138246 A KR 1020200138246A KR 20200138246 A KR20200138246 A KR 20200138246A KR 102234555 B1 KR102234555 B1 KR 102234555B1
Authority
KR
South Korea
Prior art keywords
unmanned store
user
neural network
artificial neural
server
Prior art date
Application number
KR1020200138246A
Other languages
Korean (ko)
Inventor
박재한
Original Assignee
주식회사 만랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만랩 filed Critical 주식회사 만랩
Priority to KR1020200138246A priority Critical patent/KR102234555B1/en
Application granted granted Critical
Publication of KR102234555B1 publication Critical patent/KR102234555B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)

Abstract

Disclosed is a system for managing crime prevention and security for unmanned store operation. According to an embodiment of the present invention, the system comprises: a 360-degree camera installed around a main facility of an unmanned store in an overlapping manner, and photographing the unmanned store in real time; an integrated server for identifying and tracking a user, and detecting, tracking, and responding to an event occurring in the unmanned store, on the basis of real-time photographing data obtained through the 360-degree camera; a database for storing the real-time photographing data obtained from a server, and storing user identification information on the user of the unmanned store; an operator portable terminal for receiving an event occurrence signal when the event occurs, from the server; and security control devices including a door opening/closing facility, a disaster prevention facility and a theft bell controlled by the server on the basis of the event occurrence signal when the event occurs. The integrated server transceives signals with the 360-degree camera, the database, the operator portable terminal, and the security control devices, and includes artificial neural networks for identifying and tracking the user, or performing calculation for detecting, tracking, and responding to the event occurring in the unmanned store. The 360-degree camera is photographing equipment capable of obtaining an image at all 360-degree positions of three-axial directions without movement or rotation from one position, and is installed in an overlapping manner not to have a blind spot excluding an exceptional space in which the image photographed by each camera corresponds to a vector predetermined in the unmanned store, and the event includes theft, damage, fire, and flood. Accordingly, the preference of a user is analyzed based on artificial intelligence, such that a recommendation order can be generated therefrom.

Description

무인 매장 운영을 위한 방범 및 보안 관리 방법, 장치 및 시스템{METHOD, APPARATUS AND SYSTEM FOR MANAGING CRIME PREVENTION AND SECURITY FOR UNMANNED STORE OPERATION}Security and security management method, device and system for unmanned store operation {METHOD, APPARATUS AND SYSTEM FOR MANAGING CRIME PREVENTION AND SECURITY FOR UNMANNED STORE OPERATION}

아래 실시예들은 무인 매장의 운영을 위한 방범 및 보안을 관리하는 기술에 관한 것이다.The following embodiments relate to a technology for managing crime prevention and security for the operation of an unmanned store.

무인 매장의 운영에 있어서 방범 및 보안은 매우 중요한 요소라고 할 수 있다. 현재의 방범 및 보안 체계는 오픈된 시간 동안 CCTV를 통한 관찰 및 마감 시간 이후의 움직임에 대한 분석 및 이를 통한 신고 과정 등이 있을 수 있다. 다만, 사용자에 최적화된 주문 접수가 어려워 비효율을 초래할 수 있고, 도난 및 파손에 대한 상세한 대응이 어렵다. 또한 화재 및 수재를 동반한 이벤트의 발생 시 이에 대응하는 매뉴얼이 따로 구분되어 존재하지 않으며, 정보를 저장하는 수단도 미비한 것이 현실이다. 따라서 사용자에 최적화된 사용 환경을 제공하고, 도난 및 파손에 대응하기 위한 수단을 제공하며, 화재 및 수재에 대한 등급화된 구분을 통해 각각에 대해 대응할 수 있는 기술의 개발이 요구된다.Crime prevention and security are very important factors in the operation of unmanned stores. The current crime prevention and security system may include observation through CCTV during the open time, analysis of movements after the deadline, and reporting through it. However, it is difficult to receive orders optimized for users, which may lead to inefficiency, and detailed response to theft and damage is difficult. In addition, in the event of an event accompanied by fire or flood, there is no separate manual corresponding to it, and the means for storing information is also insufficient. Therefore, it is required to develop a technology that can respond to each by providing an optimized use environment for users, providing a means to cope with theft and damage, and classifying fire and flood damage.

대한민국 등록특허공보 KR10-2132086Korean Patent Publication No. KR10-2132086 대한민국 공개특허공보 KR10-2020-0056498Korean Patent Application Publication KR10-2020-0056498 대한민국 등록특허공보 KR10-1935470Republic of Korea Patent Publication KR10-1935470 대한민국 등록특허공보 KR10-2040574Republic of Korea Patent Publication KR10-2040574

실시예들은 인공지능을 기반으로 사용자의 기호를 분석하고, 이로부터 추천 주문을 생성하고자 한다.The embodiments attempt to analyze a user's preferences based on artificial intelligence and generate a recommendation order from this.

실시예들은 인공지능을 기반으로 식별 태그의 촬영 데이터를 분석해 도난 및 파손 여부를 분석하고 이에 대응하고자 한다.The embodiments seek to analyze whether or not theft or damage is stolen by analyzing photographing data of an identification tag based on artificial intelligence, and respond to this.

실사예들은 인공지능을 기반으로 화재 및 수재를 세분화해 분류하고, 분류에 기초하여 화재 및 수재에 대응하고자 한다.The actual examples are to classify and classify fires and floods based on artificial intelligence, and respond to fires and floods based on classification.

일실시예에 따른 무인 매장 운영을 위한 방범 및 보안 관리 시스템에 있어서, 무인 매장의 주요 시설물 주변으로 중첩되게 설치되어 상기 무인 매장을 실시간 촬영하는 360도 카메라; 상기 360도 카메라를 통해 획득한 실시간 촬영 데이터에 기초하여, 사용자를 식별 및 추적하고, 상기 무인 매장 내에서 발생하는 이벤트에 대하여 감지, 추적 및 대응을 수행하는 통합 서버; 상기 서버로부터 획득한 상기 실시간 촬영 데이터를 저장하고, 상기 무인 매장의 상기 사용자에 대한 사용자 식별 정보를 저장하는 데이터베이스; 상기 서버로부터 상기 이벤트 발생 시 이벤트 발생 신호를 전송 받는 운영자 휴대용 단말; 및 상기 이벤트 발생 시 상기 이벤트 발생 신호에 기초하여, 상기 서버에 의해 제어 되는 도어 개폐 설비, 방재 설비 및 도난 벨을 포함한 보안 조절 장치들을 포함하고, 상기 통합 서버는 상기 360도 카메라, 상기 데이터베이스, 상기 운영자 휴대용 단말 및 상기 보안 조절 장치들과 신호들을 송수신하고, 상기 사용자를 식별 및 추적하거나, 상기 무인 매장 내에서 발생하는 상기 이벤트를 감지, 추적 및 대응하기 위한 연산을 수행하는 인공 신경망들을 포함하고, 상기 360도 카메라는 한 위치로부터 이동이나 회전 동작 없이 3축 방향의 모든 360도 위치의 영상을 획득할 수 있는 촬영 장비로서, 각각의 카메라를 통해 촬영되는 영상이 상기 무인 매장 내에 미리 지정한 벡터에 해당하는 예외 공간을 제외하고 사각 지대가 없도록 중첩되어 설치되고, 상기 이벤트는 도난, 파손, 화재 및 수재를 포함할 수 있다.A security and security management system for operating an unmanned store according to an embodiment, comprising: a 360-degree camera installed to be superimposed around major facilities of an unmanned store and photographing the unmanned store in real time; An integrated server that identifies and tracks a user based on real-time photographing data acquired through the 360-degree camera, and detects, tracks, and responds to events occurring in the unmanned store; A database for storing the real-time photographing data obtained from the server and storing user identification information for the user of the unmanned store; An operator portable terminal receiving an event occurrence signal when the event occurs from the server; And security control devices including a door opening/closing facility, a disaster prevention facility, and a burglar bell controlled by the server, based on the event occurrence signal when the event occurs, and the integrated server includes the 360-degree camera, the database, and the An operator portable terminal and artificial neural networks that transmit and receive signals with the security control devices, identify and track the user, or perform an operation to detect, track, and respond to the event occurring in the unmanned store, The 360-degree camera is a photographing equipment capable of acquiring images of all 360-degree positions in the three-axis direction without moving or rotating from one location, and the image captured by each camera corresponds to a predefined vector in the unmanned store. Except for the exception space, it is overlapped and installed so that there is no blind spot, and the event may include theft, damage, fire, and flood damage.

일실시예에 따르면, 상기 통합 서버는 상기 무인 매장 내로 상기 사용자가 입장할 경우, 상기 360도 카메라를 제어해 상기 사용자의 얼굴 이미지를 포함한 촬영 데이터를 획득하고, 상기 촬영 데이터를 전처리하여 제1 입력을 생성하고, 상기 제1 입력을 제1 인공 신경망에 입력하여, 제1 출력을 획득하고, 상기 제1 출력에 기초하여, 상기 사용자 식별 정보를 상기 데이터베이스로부터 획득하고, 상기 데이터베이스에 상기 사용자 식별 정보가 존재하지 않을 경우, 새로운 사용자 식별 정보를 생성해 상기 데이터베이스에 저장하고, 상기 사용자 식별 정보에 기초하여, 미리 저장된 추천 주문을 획득하고, 상기 추천 주문에 대한 사용자의 응답에 기초하여, 주문 신호를 생성하고, 상기 주문 신호에 기초하여, 제2 입력을 생성하고, 상기 제2 입력을 제2 인공 신경망에 입력하여, 제2 출력을 획득하고, 상기 제2 출력에 기초하여, 상기 추천 주문의 내용을 수정하고, 상기 주문 신호 및 수정된 상기 추천 주문을 데이터베이스에 저장할 수 있다.According to an embodiment, when the user enters the unmanned store, the integrated server acquires photographing data including the user's face image by controlling the 360-degree camera, and preprocesses the photographing data to input the first And, by inputting the first input into a first artificial neural network, obtaining a first output, and obtaining the user identification information from the database based on the first output, and the user identification information in the database If is not present, new user identification information is generated and stored in the database, based on the user identification information, a pre-stored recommended order is obtained, and an order signal is generated based on the user's response to the recommended order. Generate, based on the order signal, generate a second input, input the second input to a second artificial neural network to obtain a second output, and based on the second output, the content of the recommended order And, the order signal and the modified recommendation order may be stored in a database.

일실시예에 따르면, 상기 통합 서버는 상기 사용자가 상기 무인 매장으로부터 식별 태그가 장착된 물품과 함께 상기 360도 카메라의 화각 밖으로 이동할 경우, 상기 360도 카메라를 통해 촬영된 상기 촬영 데이터를 상기 이벤트 중 상기 도난에 해당하는 도난 촬영 데이터로 분류하고, 상기 도난으로 분류된 시점으로부터 24시간 이전까지의 영상을 포함한 도난 촬영 데이터를 상기 데이터베이스에 저장하고, 상기 도난 촬영 데이터를 전처리하여 제3 입력을 생성하고, 상기 제3 입력을 제3 인공 신경망에 입력하여, 제3 출력을 획득하고, 상기 제3 출력에 기초하여, 편집된 도난 촬영 데이터를 생성하고, 상기 편집된 도난 촬영 데이터 및 상기 사용자의 식별 정보를 포함하는 상기 이벤트 발생 신호를 상기 운영자 휴대용 단말에 전송하고, 상기 식별 태그는 상기 360도 카메라의 적외선 비전을 통해 식별 가능한 특수 파장을 지속적으로 발산하는 장치로서, 상기 특수 파장의 손상 및 제거 시, 상기 제3 인공 신경망을 통해 상기 이벤트 중 상기 손에 해당하는 것으로 간주될 수 있다.According to an embodiment, when the user moves out of the angle of view of the 360-degree camera together with an item on which an identification tag is mounted from the unmanned store, the integrated server transfers the photographing data taken through the 360-degree camera during the event. Classify as the theft photographing data corresponding to the theft, store theft photographing data including images up to 24 hours before the time of the classification as theft in the database, pre-process the theft photographing data to generate a third input, and , By inputting the third input into a third artificial neural network, obtaining a third output, and generating edited theft photographing data based on the third output, and the edited theft photographing data and identification information of the user As a device that transmits the event occurrence signal including a to the operator's portable terminal, and the identification tag continuously emits a special wavelength identifiable through the infrared vision of the 360-degree camera, when the special wavelength is damaged or removed, It may be considered to correspond to the hand among the events through the third artificial neural network.

일실시예에 따르면, 상기 이벤트 발생 신호는 A등급, B등급, C등급 및 D등급의 총 4개의 등급으로 분류되고, 상기 A등급, 상기 B등급 및 상기 C등급은 상기 통합 서버의 상기 제3 인공 신경망, 제4 인공 신경망 및 제5 인공 신경망에 의해 결정되고, 상기 D등급은 상기 통합 서버의 통신 장애에 따른 상기 운영자 휴대용 단말의 자동 생성 신호를 통해 결정되고, 상기 A등급은 상기 도난 및 상기 파손으로 분류된 경우에 해당하고, 상기 B등급은 상기 화재 및 상기 수재가 발생하였으나, 상기 보안 조절 장치들 중 상기 방재 설비를 통해 진화 가능한 것으로 판단된 경우에 해당하고, 상기 C등급은 상기 화재 및 상기 수재가 발생하였고, 상기 보안 조절 장치들 중 상기 방재 설비를 통해 진화가 불가능한 것으로 판단된 경우에 해당하고, 상기 D등급은 상기 통합 서버의 고장 및 통신 불량으로 인해 상기 운영자 휴대용 단말로 수신되는 신호 반응이 없는 경우에 해당할 수 있다.According to an embodiment, the event occurrence signal is classified into a total of four grades: A grade, B grade, C grade, and D grade, and the A grade, the B grade and the C grade are the third It is determined by an artificial neural network, a fourth artificial neural network, and a fifth artificial neural network, and the D grade is determined through an automatically generated signal from the operator portable terminal according to a communication failure of the integrated server, and the A grade is the theft and the It corresponds to a case classified as damage, and the B class corresponds to a case where the fire and the flood disaster occurred, but it is determined that it can be extinguished through the disaster prevention facility among the security control devices, and the C class is the fire and This corresponds to the case where the flood has occurred and it is determined that it is impossible to extinguish through the disaster prevention facility among the security control devices, and the D grade is a signal received by the operator's portable terminal due to a failure and communication failure of the integrated server. This may be the case when there is no response.

일실시예에 따르면, 상기 이벤트 발생 신호가 A등급인 경우, 상기 통합 서버가 상기 사용자가 이용하고 있는 디바이스에 상기 파손 및 상기 도난에 대한 사실 여부 확인 문항을 전송하고, 이에 대한 상기 사용자의 응답이 부재하거나 미비한 경우, 상기 보안 조절 장치들 중 상기 도어 개폐 설비를 제어해 도어를 폐쇄하고, 상기 도난 벨을 제어해 음성 신호를 출력하고, 상기 이벤트 발생 신호가 B등급인 경우, 상기 통합 서버가 상기 보안 조절 장치들 중 상기 방재 설비를 제어해 적정 방재 동작을 수행하고, 상기 도어 개폐 설비를 제어해 도어를 개방하고, 상기 도난 벨을 제어해 음성 신호를 출력하고, 상기 이벤트 발생 신호가 C등급인 경우, 상기 통합 서버가 상기 보안 조절 장치들 중 상기 방재 설비를 제어해 최대 방재 동작을 수행하고, 상기 도어 개폐 설비를 제어해 도어를 개방하고, 상기 도난 벨을 제어해 음성 신호를 출력하고, 상기 이벤트 발생 신호가 D등급에 해당하는 경우, 상기 운영자 휴대용 단말에서 상기 이벤트 발생 신호를 자동으로 생성하고, 상기 운영자 휴대용 단말에서 자동 동작 수행 신호를 전송해, 상기 보안 조절 장치들 중 상기 도어 개폐 설비의 도어 개방 동작, 상기 도난 벨의 음성 신호 출력을 수행하도록 하고, 상기 이벤트 발생 신호의 A등급, B등급 및 C등급에서 상기 통합 서버가 상기 이벤트 발생 신호를 상기 운영자 휴대용 단말에 자동으로 전송할 수 있다.According to an embodiment, when the event occurrence signal is Class A, the integrated server transmits a question to confirm the fact of the damage and the theft to the device used by the user, and the user's response to this When absent or inadequate, the door is closed by controlling the door opening/closing facility among the security control devices, and the voice signal is output by controlling the theft bell. Among the security control devices, the disaster prevention facility is controlled to perform an appropriate disaster prevention operation, the door opening and closing facility is controlled to open the door, the theft bell is controlled to output a voice signal, and the event occurrence signal is C grade. In this case, the integrated server controls the disaster prevention facility among the security control devices to perform the maximum disaster prevention operation, controls the door opening/closing facility to open the door, controls the burglar bell to output a voice signal, and the When the event occurrence signal corresponds to the class D, the operator portable terminal automatically generates the event occurrence signal, and the operator portable terminal transmits an automatic operation execution signal, and the door opening/closing facility among the security control devices The door opening operation and the voice signal output of the burglar bell may be performed, and the integrated server may automatically transmit the event occurrence signal to the operator's portable terminal in the A, B, and C grades of the event generation signal.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The apparatus according to an embodiment may be controlled by a computer program stored in a medium in order to execute the method of any one of the above-described methods in combination with hardware.

실시예들은 인공지능을 기반으로 사용자의 기호를 분석하고, 이로부터 추천 주문을 생성할 수 있다.Embodiments may analyze a user's preferences based on artificial intelligence, and generate a recommendation order from this.

실시예들은 인공지능을 기반으로 식별 태그의 촬영 데이터를 분석해 도난 및 파손 여부를 분석하고 이에 대응할 수 있다.The embodiments may analyze the theft or damage by analyzing the photographing data of the identification tag based on artificial intelligence, and respond to this.

실사예들은 인공지능을 기반으로 화재 및 수재를 세분화해 분류하고, 분류에 기초하여 화재 및 수재에 대응할 수 있다.Real-life examples can be classified by subdividing fire and flood damage based on artificial intelligence, and responding to fire and flood damage based on the classification.

도 1은 일실시예에 따른 무인 매장 운영을 위한 방범 및 보안 관리 시스템을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 사용자 식별 및 추천 주문 생성 과정을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 식별 태그를 이용한 도난 및 파손을 판단하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 이벤트 발생 신호의 등급을 분류하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 이벤트 발생 신호의 등급에 따른 보안 조절 장비들의 동작을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a view for explaining a security and security management system for unmanned store operation according to an embodiment.
2 is a diagram illustrating a process of identifying a user and generating a recommended order according to an exemplary embodiment.
3 is a view for explaining a process of determining theft and damage using an identification tag according to an embodiment.
4 is a diagram for describing a process of classifying an event occurrence signal according to an exemplary embodiment.
5 is a view for explaining the operation of security control equipment according to the level of the event occurrence signal according to an embodiment.
6 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for the purpose of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products such as a personal computer, a laptop computer, a tablet computer, a smart phone, a television, a smart home appliance, an intelligent vehicle, a kiosk, and a wearable device.

도 1은 일실시예에 따른 무인 매장 운영을 위한 방범 및 보안 관리 시스템을 설명하기 위한 도면이다.1 is a view for explaining a security and security management system for unmanned store operation according to an embodiment.

일실시예에 따른 무인 매장 운영을 위한 방범 및 보안 관리 시스템은 무인 매장의 주요 시설물 주변으로 중첩되게 설치되어 무인 매장을 실시간 촬영하는 360도 카메라(101); 360도 카메라(101)를 통해 획득한 실시간 촬영 데이터에 기초하여, 사용자를 식별 및 추적하고, 무인 매장 내에서 발생하는 이벤트에 대하여 감지, 추적 및 대응을 수행하는 통합 서버(100); 서버로부터 획득한 실시간 촬영 데이터를 저장하고, 무인 매장의 사용자에 대한 사용자 식별 정보를 저장하는 데이터베이스(102); 서버로부터 이벤트 발생 시 이벤트 발생 신호를 전송 받는 운영자 휴대용 단말(103); 및 이벤트 발생 시 이벤트 발생 신호에 기초하여, 서버에 의해 제어 되는 도어 개폐 설비, 방재 설비 및 도난 벨을 포함한 보안 조절 장치들(104)을 포함할 수 있다.The security and security management system for unmanned store operation according to an embodiment includes a 360-degree camera 101 that is superimposed around the main facilities of the unmanned store and photographs the unmanned store in real time; An integrated server 100 that identifies and tracks a user based on real-time photographing data acquired through the 360-degree camera 101 and detects, tracks, and responds to events occurring in unmanned stores; A database 102 that stores real-time photographing data acquired from the server and stores user identification information for users of unmanned stores; An operator portable terminal 103 that receives an event occurrence signal when an event occurs from the server; And security control devices 104 including door opening/closing facilities, disaster prevention facilities, and burglar bells controlled by the server based on the event generation signal when an event occurs.

일실시예에 따른 무인 매장 운영을 위한 방범 및 보안 관리 시스템은 서버 및 단말을 포함할 수 있다. 서버 및 단말은 네트워크에 연결되어 유무선 통신을 통해 데이터를 교환할 수 있다. 무인 매장 운영을 위한 방범 및 보안 관리 시스템을 위한 서버는 통합 서버(100)일 수 있다. 서버는 360도 카메라(101)를 통해 촬영된 촬영 데이터를 수집하고 이로부터 인공지능을 이용하여 분석할 수 있다. 서버는 인공지능을 통해 360도 카메라(101)로부터 촬영된 촬영 데이터를 분석하고, 데이터베이스(102)를 조회한 결과로부터 보안 조절 장치들(104)을 제어 할 수 있다.The security and security management system for unmanned store operation according to an embodiment may include a server and a terminal. The server and the terminal are connected to the network and can exchange data through wired or wireless communication. The server for the security and security management system for unmanned store operation may be the integrated server 100. The server may collect photographing data photographed through the 360-degree camera 101 and analyze it using artificial intelligence therefrom. The server may analyze the photographed data captured from the 360-degree camera 101 through artificial intelligence, and control the security control devices 104 from the result of querying the database 102.

서버는 서버를 이용하여 서비스를 제공하는 자 또는 단체가 보유한 자체 서버일 수도 있고; 클라우드 서버일 수도 있고; 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버는 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 서버는 운영자 휴대용 단말(103)과 유무선으로 통신하도록 구성될 수 있다.The server may be its own server owned by a person or organization that provides services using the server; May be a cloud server; It may be a peer-to-peer (p2p) set of distributed nodes. The server has a computing function of a typical computer; Save/refer to function; Input/output function; And it may be configured to perform all or part of the control function. The server may include at least one artificial neural network that performs an inference function. The server may be configured to communicate with the operator's portable terminal 103 by wired or wirelessly.

서버는 운영자 휴대용 단말(103)과 통신하며, 360도 카메라(101)의 촬영 데이터를 분석해 이로부터 추론한 이벤트들에 대응하기 위한 보안 조절 장치들(104)의 제어 신호들을 생성하기 위한 동작들을 수행할 수 있다. 따라서, 서버를 통해 제공되는 서비스는 무인 매장을 운영하면서 방범 및 보안을 자동으로 수행하고자 하는 개인 및 단체에게 적합할 수 있다. The server communicates with the operator's portable terminal 103 and performs operations to generate control signals of the security control devices 104 to respond to events inferred from the analysis of the photographing data of the 360-degree camera 101. can do. Therefore, the service provided through the server may be suitable for individuals and organizations who want to automatically perform crime prevention and security while operating an unmanned store.

일실시예에 따른 단말은 운영자 휴대용 단말(103)일 수 있다. 단말은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 단말은 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 단말은 서버와 유무선으로 통신하도록 구성될 수 있다. The terminal according to an embodiment may be an operator portable terminal 103. The terminal may be a desktop computer, a laptop computer, a tablet, a smartphone, or the like. The terminal includes an operation function of a general computer; Save/refer to function; Input/output function; And it may be configured to perform all or part of the control function. The terminal may be configured to communicate with the server by wired or wirelessly.

단말은 서버와 연동된 어플리케이션이 설치되거나, 서버와 연동된 웹페이지에 연결될 수 있다. 단말은 웹페이지 또는 어플리케이션을 통해, 서버가 연산을 통해 전송한 각종 신호들을 수신할 수 있으며, 이에 대해 원격 신호를 전송해 서버에서 제어할 수 있는 동작을 수동으로 조작할 수 있다. 운영자 휴대용 단말(103)의 사용자는 무인 매장을 운영하고자 하는 회사 또는 개인이 될 수 있으나, 직업에 특별한 제약은 없다. 서버의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.The terminal may be installed with an application linked to the server or connected to a web page linked to the server. The terminal may receive various signals transmitted by the server through calculations through a web page or an application, and transmit a remote signal for this to manually manipulate operations that can be controlled by the server. The user of the operator's portable terminal 103 may be a company or an individual who wants to operate an unmanned store, but there is no particular restriction on the job. As long as the processing capacity of the server allows, the number of terminals is not particularly limited.

이하에서, 서버의 동작을 중심으로 실시예가 기술되나, 실시예들은 통신의 주체나 양상에 의해 제한되지 않고 다양한 응용예가 채용될 수 있다.Hereinafter, embodiments will be described centering on the operation of the server, but the embodiments are not limited by the subject or aspect of communication, and various application examples may be employed.

일실시예에 따른 360도 카메라(101)는 한 위치로부터 이동이나 회전 동작 없이 3축 방향의 모든 360도 위치의 영상을 획득할 수 있는 촬영 장비로서, 각각의 카메라를 통해 촬영되는 영상이 무인 매장 내에 미리 지정한 벡터에 해당하는 예외 공간을 제외하고 사각 지대가 없도록 중첩되어 설치될 수 있다. 통합 서버(100)는 360도 카메라(101)로부터 촬영된 영상에서 중첩된 범위를 통해 무인 매장 전체의 파노라믹 비전을 형성할 수 있으며, 이로부터 이벤트의 발생 위치를 추적할 수 있다. 예외 공간은 화장실을 비롯한 사생활 침해 공간이 포함될 수 있고, 운영자에 의해 지정된 모든 공간을 포함할 수 있다.The 360-degree camera 101 according to an embodiment is a photographing equipment capable of acquiring images of all 360-degree positions in the three-axis direction without moving or rotating from one location. It can be installed so that there is no blind spot except for the exception space corresponding to the vector specified in advance. The integrated server 100 may form a panoramic vision of the entire unmanned store through an overlapped range in the image captured from the 360-degree camera 101, and track the location of the event from this. Exception spaces may include spaces infringing on privacy, including toilets, and may include all spaces designated by the operator.

일실시예에 따른 통합 서버(100)는 360도 카메라(101), 데이터베이스(102), 운영자 휴대용 단말(103) 및 보안 조절 장치들(104)과 신호들을 송수신하고, 사용자를 식별 및 추적하거나, 무인 매장 내에서 발생하는 이벤트를 감지, 추적 및 대응하기 위한 연산을 수행하는 인공 신경망들을 포함할 수 있다. 일실예에 따른 통합 서버(100)의 동작은 무인 매장의 사용자를 추적하여 식별하고, 식별한 사용자에 대한 식별 정보를 조회하여 사용자의 기존 주문 내역을 기반으로 한 추천 주문을 획득하고, 제시한 추천 주문에 대한 응답으로 사용자가 주문을 시행할 경우 이에 대한 주문 신호로부터 향후의 추천 주문을 위한 학습을 수행할 수 있다. 또한, 통합 서버(100)는 무인 매장 내부의 이벤트 발생 시 해당 이벤트에 대한 대응을 위해 인공 신경망을 이용할 수 있으며, 인공 신경망의 분석을 통하여 이벤트에 대한 대응을 수행할 수 있다. 사용자의 식별 및 주문 과정과 이벤트에 대한 대응에 대한 자세한 설명은 도 2 내지 도 5를 참조하여 후술한다.The integrated server 100 according to an embodiment transmits and receives signals with the 360-degree camera 101, the database 102, the operator's portable terminal 103, and the security control devices 104, and identifies and tracks a user, or It may include artificial neural networks that perform operations to detect, track, and respond to events occurring in unmanned stores. The operation of the integrated server 100 according to an example is to track and identify a user of an unmanned store, retrieve identification information on the identified user, obtain a recommended order based on the user's existing order history, and recommend a suggested recommendation. When a user places an order in response to an order, learning for a future recommended order may be performed from an order signal for this. In addition, when an event in an unmanned store occurs, the integrated server 100 may use an artificial neural network to respond to the event, and may perform a response to the event through analysis of the artificial neural network. A detailed description of the user's identification and order process and response to events will be described later with reference to FIGS. 2 to 5.

일실시예에 따른 데이터베이스(102)는 사용자에 대한 사용자 식별 정보들과 해당 사용자의 주문 내역을 포함한 주문 신호 및 추천 주문들을 모두 저장할 수 있다. 또한 데이터베이스(102)는 해당 사용자의 이용 실태를 통합 서버(100)의 인공 신경망이 분석한 결과로서, 해당 사용자에 대한 등급을 포함하여 저장할 수 있다. 데이터베이스(102)는 이벤트에 대한 정보들을 모두 포함할 수 있으며, 이벤트에 대한 대응 매뉴얼을 저장할 수 있다. 또한 데이터베이스(102)는 이벤트의 발생 시 해당 데이터베이스(102) 내의 모든 정보를 자동으로 운영자 휴대용 단말(103)과 공유하는 클라우드로 전송하여, 향후 해당 이벤트 문제의 발생 원인을 추적하는 데에 도움을 줄 수 있다. 일반적으로 이벤트는 도난, 파손, 화재 및 수재를 포함할 수 있으나, 이에 국한하지 않으며, 운영자의 요청에 따라 그 종류 및 수가 증가할 수 있다.The database 102 according to an embodiment may store all user identification information for a user, an order signal including an order history of a corresponding user, and recommended orders. In addition, the database 102 may store the user's usage status, including the grade of the corresponding user, as a result of analysis by the artificial neural network of the integrated server 100. The database 102 may include all information on an event, and may store a response manual for the event. In addition, when an event occurs, the database 102 automatically transmits all the information in the database 102 to the cloud shared with the operator's portable terminal 103 to help track the cause of the event problem in the future. I can. In general, events may include theft, damage, fire, and flood damage, but are not limited thereto, and the types and numbers may increase according to the operator's request.

일실시예에 따른 보안 조절 장치들(104)은 도어 개폐 설비, 방재 설비 및 도난 벨을 포함할 수 있다. 도어 개폐 설비는 무인 매장을 들어오기 위해 설치된 두 종류의 도어 중 더 외부에 근접한 메인 도어를 제어하기 위한 설비로서, 이벤트의 발생 시 메인 도어를 개방 또는 폐쇄함으로써 이벤트 상황에 대한 적절한 대처를 하도록 도움을 줄 수 있다. 방재 설비는 화재나 수재와 같은 인명 피해를 유발할 수 있는 이벤트에 대한 대처 설비로서, 화재 시를 대비해 스프링클러, 소화전, 소화기, 소화용 가스, 비상 탈출구 안내등 등이 포함될 수 있고, 수재 시를 대비해 유압 펌프를 포함한 장치를 기반으로 내부의 물을 외부로 배출시키는 장치 등이 포함될 수 있으나, 이에 국한하지 않는다. 도난 벨은 이벤트의 발생에 따라 높은 데시벨의 음성 신호를 출력할 수 있는 장치로서, 대부분의 이벤트 발생 시 작동할 수 있다. 도난 벨을 비롯한 모든 보안 조절 장치들(104)은 운영자 휴대용 단말(103)을 통하여 운영자가 수동으로 제어할 수 있다.The security control devices 104 according to an embodiment may include a door opening and closing facility, a disaster prevention facility, and a burglar bell. The door opening/closing facility is a facility for controlling the main door closer to the outside of the two types of doors installed to enter the unmanned store.When an event occurs, the main door is opened or closed to help appropriate response to the event situation. Can give. Disaster prevention facilities are facilities that respond to events that may cause human damage such as fire or flood, and may include sprinklers, fire hydrants, fire extinguishers, fire extinguishing gas, emergency exit guides, etc. in case of fire. A device for discharging internal water to the outside based on a device including a pump may be included, but is not limited thereto. Theft bell is a device capable of outputting a high-decibel voice signal according to the occurrence of an event, and can be activated when most events occur. All security control devices 104, including the theft bell, can be manually controlled by the operator through the operator's portable terminal 103.

일실시예에 따르면, 운영자는 운영자 휴대용 단말(103)을 통해 보안 조절 장치들(104)을 제어하기 위한 신호를 통합 서버(100) 또는 보안 조절 장치들(104)에 직접 전송할 수 있다. 운영자는 통합 서버(100)로부터 이벤트 발생 신호를 전달받지 않은 경우라도, 운영자 휴대용 단말(103)을 통해 360도 카메라(101)를 통해 촬영되는 촬영 데이터를 실시간으로 확인할 수 있으며, 직접 운영자 휴대용 단말(103)에 미리 지정된 값을 선택해 임의로 이벤트 발생 신호를 생성할 수 있다. 이를 통해 생성된 이벤트 발생 신호는 통합 서버(100)를 통해 생성된 이벤트 발생 신호와 동일한 동작 제어 효과를 가질 수 있으며, 모두 데이터베이스(102)에 저장될 수 있다. 운영자는 통합 서버(100)를 통한 경우가 아니라도 운영자 휴대용 단말(103)을 통해 직접 보안 조절 장치들(104)을 제어할 수 있는데, 이는 이벤트 발생 신호의 D등급에 해당하는 경우가 아니라면, 각각의 보안 조절 장치들(104)에 대해 수동으로 제어 동작을 위한 신호를 입력함으로써 가능할 수 있다. 운영자는 본인이 소지한 운영자 휴대용 단말(103)에 이벤트 발생 신호의 D등급에 해당하는 경우가 아니라도, 미리 정해둔 보안 조절 장치들(104)에 대한 세팅값을 저장해두었다가 언제든 사용할 수 있다.According to an embodiment, the operator may directly transmit a signal for controlling the security adjustment devices 104 through the operator's portable terminal 103 to the integrated server 100 or the security adjustment devices 104. Even when the event occurrence signal is not received from the integrated server 100, the operator can check the photographing data taken through the 360-degree camera 101 through the operator portable terminal 103 in real time, and can directly check the operator portable terminal ( 103) can be selected in advance to generate an event occurrence signal. The event generation signal generated through this may have the same operation control effect as the event generation signal generated through the integrated server 100, and all may be stored in the database 102. The operator can directly control the security control devices 104 through the operator's portable terminal 103, even if it is not through the integrated server 100, which is not the case that corresponds to the class D of the event occurrence signal, respectively. This may be possible by manually inputting a signal for the control operation to the security control devices 104 of the. Even if the operator does not correspond to the class D of the event occurrence signal in the operator's portable terminal 103, the operator can store and use the settings for the security control devices 104 that have been set in advance.

도 2는 일실시예에 따른 사용자 식별 및 추천 주문 생성 과정을 설명하기 위한 도면이다.2 is a diagram illustrating a process of identifying a user and generating a recommended order according to an exemplary embodiment.

일실시예에 따르면, 통합 서버는 무인 매장 내로 사용자가 입장할 경우, 360도 카메라를 제어해 사용자의 얼굴 이미지(201)를 포함한 촬영 데이터(202)를 획득할 수 있다. 통합 서버는 획득한 촬영 데이터(202)로부터 얼굴 이미지(201)를 특정해 얼굴 이미지(201) 내부의 특징점을 추출하고, 해당 특징점들의 관계 및 좌표를 포함하는 전처리를 수행할 수 있다. 통합 서버는 전처리를 통해 가공된 정보를 포함해 제1 입력을 생성할 수 있다. 통합 서버는 제1 입력을 제1 인공 신경망(203)에 입력하여, 제1 출력을 획득할 수 있다. 제1 입력은 제1 인공 신경망(203)의 입력층 노드에 대응할 수 있으며, 제1 출력을 제1 인공 신경망(203)의 출력층 노드에 대응할 수 있다. 제1 인공 신경망(203)은 컨볼루션 신경망일 수 있다. 제1 인공 신경망(203)은 특징 추출 신경망과 분류 신경망으로 구성돼있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다. 제1 인공 신경망(203)은 은닉층과 출력층을 가질 수 있다. 제1 인공 신경망(203)에는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제1 인공 신경망(203)의 출력층 노드는 총 14개로 할 수 있으나, 이에 국한하지 않는다. 제1 인공 신경망(203)의 출력층 활성함수는 소프트맥스 함수를 사용할 수 있으나, 이에 국한하지 않는다. 소프트맥스 함수는 one-hot 인코딩의 대표 함수로서, 모든 출력 노드의 합을 총 1이 되게 하며 가장 최대의 값을 가지는 출력 노드의 출력을 1로 하고, 나머지 출력 노드의 출력을 0으로 하는 함수이다. 통합 서버는 14개의 출력을 각각 0 또는 1의 값으로 한 2진법의 코드로 생성할 수 있으며, 이에 따라 14개의 출력으로 총 16,384개의 값을 지시할 수 있다. 각 코드가 지시하는 바는 무인 매장을 사용자의 식별 정보(205)로 사용될 수 있다.According to an embodiment, when a user enters an unmanned store, the integrated server may control a 360-degree camera to obtain photographing data 202 including the user's face image 201. The integrated server may extract a feature point inside the face image 201 by specifying the face image 201 from the acquired photographing data 202, and perform pre-processing including the relationship and coordinates of the corresponding feature points. The integrated server may generate the first input including information processed through pre-processing. The integrated server may obtain a first output by inputting the first input to the first artificial neural network 203. The first input may correspond to an input layer node of the first artificial neural network 203, and the first output may correspond to an output layer node of the first artificial neural network 203. The first artificial neural network 203 may be a convolutional neural network. The first artificial neural network 203 is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network processes an input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference. The first artificial neural network 203 may have a hidden layer and an output layer. In general, the first artificial neural network 203 has three or more hidden layers, and the number of nodes of each hidden layer is designated as 100, but may be set to more or less depending on the case. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the first artificial neural network 203 may be a total of 14, but is not limited thereto. The output layer activation function of the first artificial neural network 203 may use a softmax function, but is not limited thereto. The softmax function is a representative function of one-hot encoding, which makes the sum of all output nodes total 1, the output of the output node with the largest value as 1, and the output of the remaining output nodes as 0. . The integrated server can generate 14 outputs as a binary code with a value of 0 or 1, respectively, and accordingly, can indicate a total of 16,384 values with 14 outputs. The bar indicated by each code may be used as the identification information 205 of the user of the unmanned store.

학습 장치는 제1 인공 신경망(203)을 제1 레이블들을 통해 학습할 수 있다. 학습 장치는 통합 서버와 동일할 수 있으나, 이에 국한하지 않는다. 제1 레이블들은 10만개의 사람 얼굴 이미지(201)를 포함한 촬영 데이터(202)들과 해당 촬영 데이터(202)로부터 동일 인물 및 다른 인물임을 지시하는 식별 정보(205)들을 포함할 수 있다. 제1 인공 신경망(203)은 제1 레이블드 트레이닝 입력들을 입력해 얻은 제1 레이블드 트레이닝 출력들을 제1 레이블들과 비교해 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 제1 인공 신경망(203)의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.The learning device may learn the first artificial neural network 203 through the first labels. The learning device may be the same as the integrated server, but is not limited thereto. The first labels may include photographing data 202 including 100,000 face images 201 and identification information 205 indicating that the person is the same person or different person from the corresponding photographing data 202. The first artificial neural network 203 may be formed by calculating a loss function by comparing first labeled training outputs obtained by inputting first labeled training inputs with first labels. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), or the like may be used. However, the present invention is not limited thereto, and loss functions used in various artificial neural network models may be used as long as the deviation, error, or difference between the output of the first artificial neural network 203 and the label can be measured.

다음으로, 학습 장치는 비교값을 기초로 제1 인공 신경망(203)을 최적화할 수 있다. 학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.Next, the learning device may optimize the first artificial neural network 203 based on the comparison value. By updating the weight of the nodes of the artificial neural network so that the comparison value of the learning device becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched. It can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of artificial neural networks, known backpropagation algorithms, stochastic gradient descent, and the like can be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

일실시예에 따르면, 통합 서버는 제1 출력에 기초하여, 사용자 식별 정보(205)를 데이터베이스(204)로부터 획득할 수 있다. 만약 사용자에 대한 식별 정보(205)가 존재하지 않을 경우, 통합 서버는 새로운 사용자 식별 정보(205)를 생성해 데이터베이스(204)에 저장할 수 있다. 통합 서버는 사용자 식별 정보(205)로부터 데이터베이스(204)를 조회하여 사용자에 대한 각종 정보들을 획득할 수 있다. 예를 들어, 통합 서버는 데이터베이스(204)를 조회하여 사용자 식별 정보(205)로부터 사용자의 이용 실태에 따라 구분된 등급을 조회할 수 있다. 구분된 등급에는 A, B, C, D 또는 F 등이 존재할 수 있으며, 각각은 해당 무인 매장의 이용 권한이나 해당 무인 매장을 관리하기 편하도록 임의로 지정된 값일 수 있다. 이를 테면, A는 무인 매장의 이용을 깨끗하게 관리해 온 사용자, B는 무인 매장을 이벤트 발생 없이 사용하였으나, 깨끗하지 않은 관리 상태를 보인 사용자, C는 파손에 해당하는 이벤트를 2회 이하로 발생시켰던 사용자, D는 파손에 해당하는 이벤트를 3회 이상 발생시켰던 사용자, F는 파손을 제외한 이벤트를 1회 이상 발생시켰던 사용자일 수 있다. 통합 서버는 해당 사용자의 이용 실태에 대한 등급을 나누기 위한 추가적인 인공 신경망을 보유할 수 있는데, 일반적으로 제10 인공 신경망이 이에 해당할 수 있으나, 이에 국한하지 않는다.According to an embodiment, the integrated server may obtain the user identification information 205 from the database 204 based on the first output. If the user identification information 205 does not exist, the integrated server may generate new user identification information 205 and store it in the database 204. The integrated server may obtain various types of information about a user by inquiring the database 204 from the user identification information 205. For example, the integrated server may query the database 204 to inquire the class classified according to the user's usage condition from the user identification information 205. Classified grades may include A, B, C, D, or F, and each may be a value randomly designated to facilitate the use of the corresponding unmanned store or manage the corresponding unmanned store. For example, A is a user who has cleanly managed the use of an unmanned store, B is a user who has used the unmanned store without an event, but shows an unclean management state, and C is a user who has generated an event corresponding to damage less than two times. , D may be a user who has generated an event corresponding to damage three or more times, and F may be a user who has generated an event excluding damage one or more times. The integrated server may have an additional artificial neural network for classifying the user's usage status. In general, the tenth artificial neural network may correspond to this, but is not limited thereto.

일실시예에 따르면, 통합 서버는 데이터베이스(204)를 조회해 사용자 식별 정보(205)로부터 추천 주문(206)을 획득할 수 있다. 추천 주문(206)은 통합 서버의 제2 인공 신경망(208)을 통해 미리 연산된 자료로서, 해당 사용자의 당일 무인 매장 이용 종료 시 해당 연산을 수행하도록 할 수 있다. 통합 서버는 획득한 추천 주문(206)을 사용자에게 제공하여, 사용자가 주문을 일일이 기록하는 수고를 덜어줄 수 있다. 사용자는 추천 주문(206)에 대한 응답으로서 예, 아니오를 비롯한 최초 응답과, 아니오의 선택 시 세부적인 주문을 수정하는 과정을 수행할 수 있다. 수정된 주문은 통합 서버를 거쳐 주문 신호(207)로 생성될 수 있다. 통합 서버는 주문 신호(207)에 기초하여, 제2 입력을 생성할 수 있다. 통합 서버는 제2 입력을 제2 인공 신경망(208)에 입력하여, 제2 출력을 획득할 수 있다. 제2 입력은 제2 인공 신경망(208)의 입력층 노드에 대응할 수 있으며, 제2 출력은 제2 인공 신경망(208)의 출력층 노드에 대응할 수 있다. 제2 인공 신경망(208)은 은닉층과 출력층을 가질 수 있다. 제2 인공 신경망(208)에는 일반적으로 은닉층이 5개 이상 존재하며, 각 은닉층의 노드는 50개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제2 인공 신경망(208)의 출력층 노드는 총 10개로 할 수 있으나, 이에 국한하지 않는다. 10개의 출력층 노드는 각각 주문을 위한 선택 옵션들의 종류에 해당할 수 있으며, 하나의 선택 옵션에 대한 선택지의 종류 및 수는 운영자의 요청에 따라 지정될 수 있다.According to an embodiment, the integrated server may obtain a recommendation order 206 from the user identification information 205 by querying the database 204. The recommended order 206 is pre-calculated data through the second artificial neural network 208 of the integrated server, and may be performed when the user ends using the unmanned store on the same day. The integrated server provides the obtained recommended order 206 to the user, so that the user can save the trouble of recording the order one by one. As a response to the recommended order 206, the user may perform an initial response including yes and no, and a process of modifying a detailed order when selecting no. The revised order may be generated as an order signal 207 via the integration server. The integration server may generate a second input based on the order signal 207. The integrated server may input the second input to the second artificial neural network 208 to obtain a second output. The second input may correspond to an input layer node of the second artificial neural network 208, and the second output may correspond to an output layer node of the second artificial neural network 208. The second artificial neural network 208 may have a hidden layer and an output layer. In general, the second artificial neural network 208 has five or more hidden layers, and 50 nodes of each hidden layer are designated, but more or less may be determined depending on the case. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the second artificial neural network 208 may be a total of 10, but is not limited thereto. Each of the 10 output layer nodes may correspond to a type of selection options for an order, and the type and number of options for one selection option may be designated according to an operator's request.

학습 장치는 제2 인공 신경망(208)을 제2 레이블들을 통해 학습할 수 있다. 학습 장치는 통합 서버와 동일할 수 있으나, 이에 국한하지 않는다. 제2 레이블들은 10만 개의 식별 정보(205)와 이에 대응하는 주문 내역들의 조합, 이로부터 추출한 추천 주문(206)들을 포함할 수 있다. 제2 인공 신경망(208)은 제2 레이블드 트레이닝 입력들을 입력해 얻은 제2 레이블드 트레이닝 출력들을 제2 레이블들과 비교해 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 제2 인공 신경망(208)의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.The learning device may learn the second artificial neural network 208 through the second labels. The learning device may be the same as the integrated server, but is not limited thereto. The second labels may include 100,000 pieces of identification information 205, a combination of order details corresponding thereto, and recommended orders 206 extracted therefrom. The second artificial neural network 208 may be formed by comparing the second labeled training outputs obtained by inputting the second labeled training inputs with the second labels and calculating a loss function. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), or the like may be used. However, the present invention is not limited thereto, and loss functions used in various artificial neural network models may be used as long as the deviation, error, or difference between the output of the second artificial neural network 208 and the label can be measured.

다음으로, 학습 장치는 비교값을 기초로 제2 인공 신경망(208)을 최적화할 수 있다. 학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.Next, the learning device may optimize the second artificial neural network 208 based on the comparison value. By updating the weight of the nodes of the artificial neural network so that the comparison value of the learning device becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched. It can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of artificial neural networks, known backpropagation algorithms, stochastic gradient descent, and the like can be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

일실시예에 따르면, 통합 서버는 제2 출력에 기초하여, 추천 주문(206)의 내용을 수정할 수 있다. 통합 서버는 기존의 추천 주문(206)을 수정한 결과 및 해당 주문 신호(207)를 모두 포함하여, 데이터베이스(204)에 저장할 수 있다. 저장된 데이터는 향후 인공 신경망의 학습이나, 사용자 식별 정보(205) 관리를 위해 사용될 수 있다.According to an embodiment, the integrated server may modify the contents of the recommended order 206 based on the second output. The integrated server may store the result of modifying the existing recommendation order 206 and the corresponding order signal 207 in the database 204. The stored data may be used for learning of an artificial neural network in the future or for managing user identification information 205.

일실시예에 따른 통합 서버는 인공지능을 기반으로 사용자의 기호를 분석하고, 이로부터 추천 주문을 생성할 수 있다.The integrated server according to an embodiment may analyze a user's preferences based on artificial intelligence and generate a recommendation order from this.

도 3은 일실시예에 따른 식별 태그를 이용한 도난 및 파손을 판단하는 과정을 설명하기 위한 도면이다.3 is a view for explaining a process of determining theft and damage using an identification tag according to an embodiment.

일실시예에 따른 통합 서버는 사용자가 무인 매장으로부터 식별 태그(301)가 장착된 물품과 함께 360도 카메라의 화각(302) 밖으로 이동할 경우, 360도 카메라를 통해 촬영된 촬영 데이터를 이벤트 중 도난에 해당하는 도난 촬영 데이터(303)로 분류할 수 있다. 식별 태그(301)는 360도 카메라의 적외선 비전을 통해 식별 가능한 특수 파장을 지속적으로 발산하는 장치일 수 있다. 해당 식별 태그(301)의 크기, 모양, 형태 및 적용 방법에 대한 상세한 결정 방법은 운영자의 선택을 통해 결정될 수 있다. 식별 태그(301)는 액체 형의 물질을 겉에 도포하는 방법도 포함할 수 있어, 해당 물품의 전체 범위를 포함하도록 할 수 있다. 이에 따라 통합 서버는 촬영 데이터에서 식별 태그(301)의 특수 파장의 손상 및 제거가 발생하면, 이를 이벤트 중 파손(307)에 해당하는 파손 촬영 데이터로 분류할 수 있다. 도난 촬영 데이터(303) 및 파손 촬영 데이터에는 해당 도난 및 파손(307)이 발생한 것으로 분류된 시점으로부터 24시간 이전의 영상을 포함한 모든 촬영 데이터를 포함할 수 있다. 해당 도난 촬영 데이터(303) 및 파손 촬영 데이터는 모두 데이터베이스에 자동으로 저장될 수 있다.The integrated server according to an embodiment, when the user moves out of the angle of view 302 of the 360 degree camera together with the item on which the identification tag 301 is mounted from an unmanned store, the photographed data captured through the 360 degree camera is prevented from being stolen during an event. It can be classified as the corresponding theft photographing data 303. The identification tag 301 may be a device that continuously emits a special wavelength that can be identified through infrared vision of a 360 degree camera. A detailed determination method for the size, shape, shape and application method of the identification tag 301 may be determined through selection of an operator. The identification tag 301 may also include a method of applying a liquid type material to the surface, so that the entire range of the corresponding article may be included. Accordingly, when the special wavelength of the identification tag 301 is damaged or removed from the photographing data, the integrated server may classify it as damaged photographing data corresponding to the damage 307 during the event. The theft photographing data 303 and the damaged photographing data may include all photographing data including an image 24 hours before the time when the theft and damage 307 is classified as occurring. Both the theft photographing data 303 and the damaged photographing data may be automatically stored in the database.

통합 서버는 도난 촬영 데이터(303) 및 파손 촬영 데이터를 전처리하여 제3 입력을 생성할 수 있다. 통합 서버는 제3 입력을 제3 인공 신경망(304)에 입력하여, 제3 출력을 획득할 수 있다. 제3 입력은 제3 인공 신경망(304)의 입력층 노드에 대응할 수 있으며, 제3 출력을 제3 인공 신경망(304)의 출력층 노드에 대응할 수 있다. 제3 인공 신경망(304)은 컨볼루션 신경망일 수 있다. 제3 인공 신경망(304)은 특징 추출 신경망과 분류 신경망으로 구성돼있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다. 제3 인공 신경망(304)은 은닉층과 출력층을 가질 수 있다. 제3 인공 신경망(304)에는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제3 인공 신경망(304)의 출력층 노드는 총 100개로 할 수 있으나, 이에 국한하지 않는다. 100개의 출력은 해당 영상에 대한 편집 지점 및 편집 방법에 대한 정보를 포함할 수 있으며, 통합 서버는 이로부터 생성된 제3 출력을 해당 도난 촬영 데이터(303) 및 파손 촬영 데이터의 편집에 사용할 수 있다. 100개의 출력 중 첫 번째 노드는 해당 촬영 데이터가 도난 또는 파손(307) 중 어디에 해당하는지를 지시하는 값을 포함할 수 있다.The integrated server may generate a third input by pre-processing the stolen photographing data 303 and the damaged photographing data. The integrated server may input the third input to the third artificial neural network 304 to obtain a third output. The third input may correspond to an input layer node of the third artificial neural network 304, and the third output may correspond to an output layer node of the third artificial neural network 304. The third artificial neural network 304 may be a convolutional neural network. The third artificial neural network 304 is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network processes an input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference. The third artificial neural network 304 may have a hidden layer and an output layer. In general, three or more hidden layers are present in the third artificial neural network 304, and the number of nodes of each hidden layer is designated as 100, but may be set to more or less depending on the case. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the third artificial neural network 304 may be 100, but is not limited thereto. The 100 outputs can include information on the editing point and editing method for the video, and the integrated server can use the third output generated therefrom to edit the theft photographing data 303 and the damaged photographing data. . Among the 100 outputs, the first node may include a value indicating whether the corresponding photographing data is stolen or damaged 307.

학습 장치는 제3 인공 신경망(304)을 제3 레이블들을 통해 학습할 수 있다. 학습 장치는 통합 서버와 동일할 수 있으나, 이에 국한하지 않는다. 제3 레이블들은 도난 및 파손(307)의 상황들을 포함하는 촬영 데이터들과 이로부터 전문가들에 의해 유의미하다고 생각되는 영상들만을 편집하기 위하여 지정한 편집 지점들 및 편집 방법들을 포함할 수 있다. 제3 인공 신경망(304)은 제3 레이블드 트레이닝 입력들을 입력해 얻은 제3 레이블드 트레이닝 출력들을 제3 레이블들과 비교해 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 제3 인공 신경망(304)의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.The learning device may learn the third artificial neural network 304 through third labels. The learning device may be the same as the integrated server, but is not limited thereto. The third labels may include photographing data including situations of theft and damage 307 and editing points and editing methods designated for editing only images deemed to be meaningful by experts therefrom. The third artificial neural network 304 may be formed by calculating a loss function by comparing third labeled training outputs obtained by inputting third labeled training inputs with third labels. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), or the like may be used. However, the present invention is not limited thereto, and loss functions used in various artificial neural network models may be used as long as the deviation, error, or difference between the output of the third artificial neural network 304 and the label can be measured.

다음으로, 학습 장치는 비교값을 기초로 제3 인공 신경망(304)을 최적화할 수 있다. 학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.Next, the learning device may optimize the third artificial neural network 304 based on the comparison value. By updating the weight of the nodes of the artificial neural network so that the comparison value of the learning device becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched. It can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of artificial neural networks, known backpropagation algorithms, stochastic gradient descent, and the like can be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

일실시예에 따르면, 통합 서버는 제3 출력에 기초하여, 도난 촬영 데이터(303) 및 파손 촬영 데이터를 편집할 수 있다. 편집된 도난 촬영 데이터(305) 및 편집된 파손 촬영 데이터는 통합 서버에 의해 이벤트 발생 신호(306)에 포함될 수 있다. 통합 서버는 해당 편집된 도난 촬영 데이터(305) 및 편집된 파손 촬영 데이터를 해당 사용자의 식별 정보와 함께 이벤트 발생 신호(306)에 포함시킬 수 있으며, 해당 이벤트 발생 신호(306)를 운영자 휴대용 단말에 전송할 수 있다.According to an embodiment, the integrated server may edit the stolen photographing data 303 and the damaged photographing data based on the third output. The edited theft photographing data 305 and the edited damaged photographing data may be included in the event occurrence signal 306 by the integrated server. The integrated server may include the edited theft photographing data 305 and the edited damaged photographing data together with the user's identification information in the event occurrence signal 306, and transmit the event occurrence signal 306 to the operator's portable terminal. Can be transmitted.

일실시예에 따르면, 통합 서버는 인공지능을 기반으로 식별 태그의 촬영 데이터를 분석해 도난 및 파손 여부를 분석하고 이에 대응할 수 있다.According to an embodiment, the integrated server may analyze photographing data of an identification tag based on artificial intelligence to analyze whether it is stolen or damaged, and respond to it.

도 4 및 도 5는 일실시예에 따른 이벤트 발생 신호의 등급을 분류하는 과정 및 등급에 따른 보안 조절 장비들의 동작을 설명하기 위한 도면이다.4 and 5 are diagrams for explaining a process of classifying a class of an event occurrence signal and an operation of security control devices according to the class according to an exemplary embodiment.

일실시예에 따른 이벤트 발생 신호는 A등급(401), B등급(402), C등급(403) 및 D등급(404)의 총 4개의 등급으로 분류될 수 있으며, A등급(401), B등급(402) 및 C등급(403)은 통합 서버의 제3 인공 신경망(410), 제4 인공 신경망(420) 및 제5 인공 신경망(430)에 의해 결정되고, D등급(404)은 통합 서버의 통신 장애에 따른 운영자 휴대용 단말의 자동 생성 신호를 통해 결정될 수 있다.The event occurrence signal according to an embodiment can be classified into a total of four grades: A grade 401, B grade 402, C grade 403, and D grade 404, and A grade 401, B The grade 402 and the C grade 403 are determined by the third artificial neural network 410, the fourth artificial neural network 420 and the fifth artificial neural network 430 of the integrated server, and the D grade 404 is the integrated server. It can be determined through an automatically generated signal of the operator's portable terminal according to the communication failure.

일실시예에 따른 통합 서버는 제3 인공 신경망(410)을 통하여, 발생한 이벤트에 대한 촬영 데이터를 분석해 해당 이벤트가 파손 및 도난에 해당하는지 분류할 수 있다. 이에 따라 파손 및 도난으로 분류되지 않은 촬영 데이터는 제4 인공 신경망(420) 및 제5 인공 신경망(430)을 거쳐 등급이 분류될 수 있다. 제3 인공 신경망(410)에 대한 설명은 전술한 바와 동일하다.The integrated server according to an embodiment may analyze photographing data on an event that has occurred through the third artificial neural network 410 and classify whether the event corresponds to damage or theft. Accordingly, photographing data that is not classified as damaged or stolen may be graded through the fourth artificial neural network 420 and the fifth artificial neural network 430. The description of the third artificial neural network 410 is the same as described above.

일실시예에 따르면, 통합 서버는 파손 및 도난으로 분류되지 않은 촬영 데이터를 전처리하여 제4 입력을 생성할 수 있다. 통합 서버는 제4 입력을 제4 인공 신경망(420)에 입력하여, 제4 출력을 획득할 수 있다. 제4 입력은 제4 인공 신경망(420)의 입력층 노드에 대응할 수 있으며, 제4 출력을 제4 인공 신경망(420)의 출력층 노드에 대응할 수 있다. 제4 인공 신경망(420)은 컨볼루션 신경망일 수 있다. 제4 인공 신경망(420)은 특징 추출 신경망과 분류 신경망으로 구성돼있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다. 제4 인공 신경망(420)은 은닉층과 출력층을 가질 수 있다. 제4 인공 신경망(420)에는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제4 인공 신경망(420)의 출력층 노드는 총 100개로 할 수 있으나, 이에 국한하지 않는다. 100개의 출력은 해당 영상에 대한 편집 지점 및 편집 방법에 대한 정보를 포함할 수 있으며, 통합 서버는 이로부터 생성된 제4 출력을 해당 촬영 데이터의 편집에 사용할 수 있다. 100개의 출력 중 첫 번째 노드는 해당 촬영 데이터가 화재 또는 수재 중 어디에 해당하는지를 지시하는 값을 포함할 수 있다.According to an embodiment, the integrated server may generate a fourth input by pre-processing photographing data that is not classified as damaged or stolen. The integrated server may input the fourth input to the fourth artificial neural network 420 to obtain a fourth output. The fourth input may correspond to the input layer node of the fourth artificial neural network 420, and the fourth output may correspond to the output layer node of the fourth artificial neural network 420. The fourth artificial neural network 420 may be a convolutional neural network. The fourth artificial neural network 420 is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network processes an input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference. The fourth artificial neural network 420 may have a hidden layer and an output layer. In general, the fourth artificial neural network 420 has three or more hidden layers, and the number of nodes of each hidden layer is designated as 100, but may be set to more or less depending on the case. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the fourth artificial neural network 420 may be 100, but is not limited thereto. The 100 outputs may include information on the editing point and editing method for the corresponding image, and the integrated server may use the fourth output generated therefrom to edit the corresponding photographing data. The first node among the 100 outputs may include a value indicating whether the corresponding photographing data corresponds to fire or flood.

학습 장치는 제4 인공 신경망(420)을 제4 레이블들을 통해 학습할 수 있다. 학습 장치는 통합 서버와 동일할 수 있으나, 이에 국한하지 않는다. 제4 레이블들은 도난 및 파손의 상황을 제외한 이벤트 발생 촬영 데이터들과 이로부터 전문가들에 의해 유의미하다고 생각되는 영상들만을 편집하기 위하여 지정한 편집 지점들 및 편집 방법들을 포함할 수 있다. 제4 인공 신경망(420)은 제4 레이블드 트레이닝 입력들을 입력해 얻은 제4 레이블드 트레이닝 출력들을 제4 레이블들과 비교해 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 제4 인공 신경망(420)의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.The learning device may learn the fourth artificial neural network 420 through the fourth labels. The learning device may be the same as the integrated server, but is not limited thereto. The fourth labels may include event-occurring photographing data excluding situations of theft and damage, and editing points and editing methods designated for editing only images deemed to be meaningful by experts therefrom. The fourth artificial neural network 420 may be formed by calculating a loss function by comparing fourth labeled training outputs obtained by inputting fourth labeled training inputs with fourth labels. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), or the like may be used. However, the present invention is not limited thereto, and loss functions used in various artificial neural network models may be used as long as the deviation, error, or difference between the output of the fourth artificial neural network 420 and the label can be measured.

다음으로, 학습 장치는 비교값을 기초로 제4 인공 신경망(420)을 최적화할 수 있다. 학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.Next, the learning device may optimize the fourth artificial neural network 420 based on the comparison value. By updating the weight of the nodes of the artificial neural network so that the comparison value of the learning device becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched. It can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of artificial neural networks, known backpropagation algorithms, stochastic gradient descent, and the like can be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

통합 서버는 제4 출력에 기초하여, 해당 촬영 데이터가 화재 및 수재 중 어디에 해당하는지를 판단할 수 있으며, 해당 촬영 데이터를 화재 촬영 데이터 또는 수재 촬영 데이터 중 어느 하나로 분류하고, 이를 편집한 편집된 화재 촬영 데이터 및 편집된 수재 촬영 데이터를 획득할 수 있다. 전체 화재 촬영 데이터 및 수재 촬영 데이터는 통합 서버를 통해 데이터베이스에 자동으로 저장될 수 있으며, 해당 편집된 화재 촬영 데이터 및 편집된 수재 촬영 데이터는 운영자 휴대용 단말에 전송될 수 있다.The integrated server can determine whether the corresponding shooting data corresponds to fire or flood, based on the fourth output, and classifies the shooting data as either fire shooting data or flood shooting data, and edited fire shooting by editing the data. Data and edited handwriting data can be obtained. All fire shooting data and flood shooting data may be automatically stored in a database through an integrated server, and the edited fire shooting data and the edited flood shooting data may be transmitted to the operator's portable terminal.

통합 서버는 제4 출력으로부터 획득한 편집된 화재 촬영 데이터 및 편집된 수재 촬영 데이터를 전처리하여 제5 입력을 생성할 수 있다. 통합 서버는 제5 입력을 제5 인공 신경망(430)에 입력하여, 제5 출력을 획득할 수 있다. 제5 입력은 제5 인공 신경망(430)의 입력층 노드에 대응할 수 있으며, 제5 출력을 제5 인공 신경망(430)의 출력층 노드에 대응할 수 있다. 제5 인공 신경망(430)은 컨볼루션 신경망일 수 있다. 제5 인공 신경망(430)은 특징 추출 신경망과 분류 신경망으로 구성돼있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다. 제5 인공 신경망(430)은 은닉층과 출력층을 가질 수 있다. 제5 인공 신경망(430)에는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제5 인공 신경망(430)의 출력층 노드는 총 4개로 할 수 있으나, 이에 국한하지 않는다. 제5 인공 신경망(430)의 출력층 활성함수는 소프트맥스 함수를 사용할 수 있으나, 이에 국한하지 않는다. 소프트맥스 함수는 one-hot 인코딩의 대표 함수로서, 모든 출력 노드의 합을 총 1이 되게 하며 가장 최대의 값을 가지는 출력 노드의 출력을 1로 하고, 나머지 출력 노드의 출력을 0으로 하는 함수이다. 통합 서버는 4개의 출력으로부터 해당 화재 및 수재가 방재 설비(503)를 통해 진압 가능한 수준인지 아닌지를 판단하는 정보를 획득할 수 있다.The integrated server may generate the fifth input by pre-processing the edited fire photographing data and the edited flood photographing data obtained from the fourth output. The integrated server may input the fifth input to the fifth artificial neural network 430 to obtain the fifth output. The fifth input may correspond to an input layer node of the fifth artificial neural network 430, and the fifth output may correspond to an output layer node of the fifth artificial neural network 430. The fifth artificial neural network 430 may be a convolutional neural network. The fifth artificial neural network 430 is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network processes an input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference. The fifth artificial neural network 430 may have a hidden layer and an output layer. In general, the fifth artificial neural network 430 has three or more hidden layers, and the number of nodes of each hidden layer is designated as 100, but may be set to more or less depending on the case. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the fifth artificial neural network 430 may be a total of 4, but is not limited thereto. The output layer activation function of the fifth artificial neural network 430 may use a softmax function, but is not limited thereto. The softmax function is a representative function of one-hot encoding, which makes the sum of all output nodes total 1, the output of the output node with the largest value as 1, and the output of the remaining output nodes as 0. . The integrated server may obtain information for determining whether or not the corresponding fire and flood prevention is at a level that can be suppressed through the disaster prevention facility 503 from the four outputs.

학습 장치는 제5 인공 신경망(430)을 제5 레이블들을 통해 학습할 수 있다. 학습 장치는 통합 서버와 동일할 수 있으나, 이에 국한하지 않는다. 제5 레이블들은 화재 및 수재에 대한 촬영 데이터와 이에 대해 전문가가 판단한 화재 및 수재의 자체적인 방재 설비(503)를 통한 방재 가능 여부를 포함할 수 있다. 제5 인공 신경망(430)은 제5 레이블드 트레이닝 입력들을 입력해 얻은 제5 레이블드 트레이닝 출력들을 제5 레이블들과 비교해 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 제5 인공 신경망(430)의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.The learning device may learn the fifth artificial neural network 430 through fifth labels. The learning device may be the same as the integrated server, but is not limited thereto. The fifth labels may include photographing data on fire and flood damage, and whether or not disaster prevention is possible through the fire and flood prevention facility 503 determined by an expert. The fifth artificial neural network 430 may be formed by calculating a loss function by comparing fifth labeled training outputs obtained by inputting fifth labeled training inputs with fifth labels. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), or the like may be used. However, the present invention is not limited thereto, and loss functions used in various artificial neural network models may be used as long as the deviation, error, or difference between the output of the fifth artificial neural network 430 and the label can be measured.

다음으로, 학습 장치는 비교값을 기초로 제5 인공 신경망(430)을 최적화할 수 있다. 학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.Next, the learning device may optimize the fifth artificial neural network 430 based on the comparison value. By updating the weight of the nodes of the artificial neural network so that the comparison value of the learning device becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched. It can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of artificial neural networks, known backpropagation algorithms, stochastic gradient descent, and the like can be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

일실시예에 따른 A등급(401)은 도난 및 파손으로 분류된 경우에 해당한다. 도난 및 파손의 분류는 제3 인공 신경망(410)을 통해 이뤄질 수 있으며, 도난 및 파손은 식별 태그의 제거 및 손상과 관련되어 있다. 이에 따라 운영자는 도난 및 파손이 우려되는 물품에 식별 태그를 설치할 수 있다.A grade 401 according to an embodiment corresponds to a case classified as theft and damage. Theft and damage may be classified through the third artificial neural network 410, and theft and damage are related to the removal and damage of the identification tag. This allows operators to install identification tags on items that are likely to be stolen or damaged.

일실시예에 따르면, 이벤트 발생 신호가 A등급(401)인 경우, 통합 서버가 사용자가 이용하고 있는 디바이스에 파손 및 도난에 대한 사실 여부 확인 문항을 전송하고, 이에 대한 사용자의 응답이 부재하거나 미비한 경우, 보안 조절 장치들 중 도어 개폐 설비(501)를 제어해 도어를 폐쇄하고, 도난 벨(502)을 제어해 음성 신호를 출력할 수 있다. 사용자는 도난 및 파손에 대한 사실 여부 확인 문항을 성실히 응답할 의무가 있으며, 응답이 부적절할 경우 자동으로 신고 접수될 수 있다.According to an embodiment, when the event occurrence signal is Class A (401), the integrated server transmits a question to confirm the fact of damage or theft to the device being used by the user, and the user's response is absent or insufficient. In this case, among the security control devices, the door opening/closing facility 501 may be controlled to close the door, and the theft bell 502 may be controlled to output a voice signal. Users are obligated to faithfully respond to questions to confirm theft or damage, and if the response is inappropriate, a report can be automatically received.

일실시예에 따른 B등급(402)은 화재 및 수재가 발생하였으나, 보안 조절 장치들 중 방재 설비(503)를 통해 진화 가능한 것으로 판단된 경우에 해당할 수 있다. 해당 화재 및 수재에 대한 진화 가능 여부는 제5 인공 신경망(430)을 통해 판단될 수 있다.Class B 402 according to an embodiment may correspond to a case where fire and flooding have occurred, but it is determined that it is possible to extinguish through the disaster prevention facility 503 among security control devices. Whether the fire or flood can be extinguished may be determined through the fifth artificial neural network 430.

일실시예에 따르면, 이벤트 발생 신호가 B등급(402)인 경우, 통합 서버가 보안 조절 장치들 중 방재 설비(503)를 제어해 적정 방재 동작을 수행하고, 도어 개폐 설비(501)를 제어해 도어를 개방하고, 도난 벨(502)을 제어해 음성 신호를 출력할 수 있다.According to an embodiment, when the event occurrence signal is a B class 402, the integrated server controls the disaster prevention facility 503 among the security control devices to perform an appropriate disaster prevention operation, and controls the door opening/closing facility 501. By opening the door and controlling the anti-theft bell 502, a voice signal can be output.

일실시예에 따른 C등급(403)은 화재 및 수재가 발생하였고, 보안 조절 장치들 중 방재 설비(503)를 통해 진화가 불가능한 것으로 판단된 경우에 해당할 수 있다. 해당 화재 및 수재에 대한 진화 가능 여부는 제5 인공 신경망(430)을 통해 판단될 수 있다.The C grade 403 according to an embodiment may correspond to a case where fire and flooding have occurred, and it is determined that it is impossible to extinguish through the disaster prevention facility 503 among security control devices. Whether the fire or flood can be extinguished may be determined through the fifth artificial neural network 430.

일실시예에 따르면, 이벤트 발생 신호가 C등급(403)인 경우, 통합 서버가 보안 조절 장치들 중 방재 설비(503)를 제어해 최대 방재 동작을 수행하고, 도어 개폐 설비(501)를 제어해 도어를 개방하고, 도난 벨(502)을 제어해 음성 신호를 출력할 수 있다.According to an embodiment, when the event occurrence signal is a C class 403, the integrated server controls the disaster prevention facility 503 among the security control devices to perform the maximum disaster prevention operation, and controls the door opening/closing facility 501. By opening the door and controlling the anti-theft bell 502, a voice signal can be output.

일실시예에 따르면, 운영자는 운영자 휴대용 단말을 통하여, 통합 서버에 직접 이벤트 발생 신호를 전달할 수 있다. 일반적으로, 운영자가 촬영 데이터를 통해 부가적으로 도난, 파손 등의 이벤트가 발생했다고 판단하는 경우가 이러한 경우에 해당할 수 있으나, 이에 국한하지 않는다. 운영자는 본인이 소지한 운영자 휴대용 단말을 통해 이벤트 발생 신호 중, A등급(401), B등급(402) 및 C등급(403)에 해당하는 이벤트 발생 신호를 통합 서버에 임의로 전송할 수 있다. 이에 대해 통합 서버는 운영자 휴대용 단말을 통해 전달된 경우라도, 인공 신경망을 거친 것과 마찬가지로 보안 조절 장치들을 제어할 수 있다. 또한 해당 이벤트 발생 신호 및 촬영 데이터는 모두 데이터베이스에 보관되어, 향후 통합 서버 내의 인공 신경망을 학습하기 위한 자료로 사용될 수 있다.According to an embodiment, the operator may directly transmit the event occurrence signal to the integrated server through the operator's portable terminal. In general, this may be the case when the operator determines that an event such as theft or damage has occurred additionally through the photographing data, but is not limited thereto. The operator may arbitrarily transmit an event occurrence signal corresponding to the A grade 401, B grade 402 and C grade 403 among the event occurrence signals through the operator's portable terminal possessed by the operator to the integrated server. On the other hand, the integrated server can control the security control devices, even if it is transmitted through the operator's portable terminal, as if it went through an artificial neural network. In addition, all the event occurrence signals and photographing data are stored in the database, and can be used as data for learning the artificial neural network in the integrated server in the future.

일실시예에 따른 D등급(404)은 통합 서버의 고장 및 통신 불량으로 인해 운영자 휴대용 단말로 수신되는 신호 반응이 없는 경우에 해당할 수 있다. D등급(404)에 대한 판단은 운영자 휴대용 단말을 통해 결정될 수 있는데, 이를 테면 통합 서버의 주기적인 신호 교환이 5회 이상 부재할 경우를 D등급(404)으로 판단할 수 있다.D-grade 404 according to an embodiment may correspond to a case in which there is no signal response received by the operator's portable terminal due to a failure of the integrated server and communication failure. Determination of the D-grade 404 may be determined through the operator's portable terminal, for example, if there is no periodic signal exchange of the integrated server five or more times, it may be determined as the D-grade 404.

일실시예에 따르면, 이벤트 발생 신호가 D등급(404)에 해당하는 경우, 운영자 휴대용 단말에서 이벤트 발생 신호를 자동으로 생성하고, 운영자 휴대용 단말에서 자동 동작 수행 신호를 전송해, 보안 조절 장치들 중 도어 개폐 설비(501)의 도어 개방 동작, 도난 벨(502)의 음성 신호 출력을 수행하도록 할 수 있다. 또한, 이외의 경우에도 운영자는 자신의 운영자 휴대용 단말을 통해 언제든 보안 조절 장치들을 제어할 수 있다. 통합 서버는 이벤트 발생 신호의 A등급(401), B등급(402) 및 C등급(403)의 모든 경우에서 이벤트 발생 신호를 운영자 휴대용 단말에 자동으로 전송할 수 있다.According to an embodiment, when the event occurrence signal corresponds to the D-class 404, the operator portable terminal automatically generates an event occurrence signal, and the operator portable terminal transmits an automatic operation execution signal, among the security control devices. The door opening operation of the door opening/closing facility 501 and the voice signal output of the burglar bell 502 may be performed. In addition, in other cases, the operator can control the security control devices at any time through his operator's portable terminal. The integrated server may automatically transmit the event occurrence signal to the operator's portable terminal in all cases of the A grade 401, B grade 402 and C grade 403 of the event occurrence signal.

일실시예에 따르면, 통합 서버는 인공지능을 기반으로 화재 및 수재를 세분화해 분류하고, 분류에 기초하여 화재 및 수재에 대응할 수 있다.According to an embodiment, the integrated server may classify and classify fires and floods based on artificial intelligence, and respond to fires and floods based on the classification.

도 6은 일실시예에 따른 장치의 구성의 예시도이다.6 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(601)는 프로세서(602) 및 메모리(603)를 포함한다. 일실시예에 따른 장치(601)는 상술한 서버 또는 단말일 수 있다. 프로세서는 도 1 내지 도 5를 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 5를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(603)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(603)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. The device 601 according to one embodiment includes a processor 602 and a memory 603. The device 601 according to an embodiment may be the above-described server or terminal. The processor may include at least one of the devices described above with reference to FIGS. 1 to 5, or may perform at least one of the methods described above with reference to FIGS. 1 to 5. The memory 603 may store information related to the above-described method or a program in which the above-described method is implemented. The memory 603 may be a volatile memory or a nonvolatile memory.

프로세서(602)는 프로그램을 실행하고, 장치(601)를 제어할 수 있다. 프로세서(602)에 의하여 실행되는 프로그램의 코드는 메모리(603)에 저장될 수 있다. 장치(601)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 602 can execute programs and control the device 601. The code of a program executed by the processor 602 may be stored in the memory 603. The device 601 is connected to an external device (for example, a personal computer or a network) through an input/output device (not shown), and can exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the following claims.

Claims (3)

무인 매장 운영을 위한 방범 및 보안 관리 시스템에 있어서,
무인 매장의 주요 시설물 주변으로 중첩되게 설치되어 상기 무인 매장을 실시간 촬영하는 360도 카메라;
상기 360도 카메라를 통해 획득한 실시간 촬영 데이터에 기초하여, 사용자를 식별 및 추적하고, 상기 무인 매장 내에서 발생하는 이벤트에 대하여 감지, 추적 및 대응을 수행하는 통합 서버;
상기 서버로부터 획득한 상기 실시간 촬영 데이터를 저장하고, 상기 무인 매장의 상기 사용자에 대한 사용자 식별 정보를 저장하는 데이터베이스;
상기 서버로부터 상기 이벤트 발생 시 이벤트 발생 신호를 전송 받는 운영자 휴대용 단말; 및
상기 이벤트 발생 시 상기 이벤트 발생 신호에 기초하여, 상기 서버에 의해 제어 되는 도어 개폐 설비, 방재 설비 및 도난 벨을 포함한 보안 조절 장치들
을 포함하고,
상기 통합 서버는
상기 360도 카메라, 상기 데이터베이스, 상기 운영자 휴대용 단말 및 상기 보안 조절 장치들과 신호들을 송수신하고,
상기 사용자를 식별 및 추적하거나, 상기 무인 매장 내에서 발생하는 상기 이벤트를 감지, 추적 및 대응하기 위한 연산을 수행하는 인공 신경망들을 포함하고,
상기 360도 카메라는
한 위치로부터 이동이나 회전 동작 없이 3축 방향의 모든 360도 위치의 영상을 획득할 수 있는 촬영 장비로서,
각각의 카메라를 통해 촬영되는 영상이 상기 무인 매장 내에 미리 지정한 벡터에 해당하는 예외 공간을 제외하고 사각 지대가 없도록 중첩되어 설치되고,
상기 이벤트는
도난, 파손, 화재 및 수재를 포함하고,
상기 통합 서버는
상기 무인 매장 내로 상기 사용자가 입장할 경우, 상기 360도 카메라를 제어해 상기 사용자의 얼굴 이미지를 포함한 촬영 데이터를 획득하고,
상기 촬영 데이터를 전처리하여 제1 입력을 생성하고,
상기 제1 입력을 제1 인공 신경망에 입력하여, 제1 출력을 획득하고,
상기 제1 출력에 기초하여, 상기 사용자 식별 정보를 상기 데이터베이스로부터 획득하고,
상기 데이터베이스에 상기 사용자 식별 정보가 존재하지 않을 경우, 새로운 사용자 식별 정보를 생성해 상기 데이터베이스에 저장하고,
상기 사용자 식별 정보에 기초하여, 미리 저장된 추천 주문을 획득하고,
상기 추천 주문에 대한 사용자의 응답에 기초하여, 주문 신호를 생성하고,
상기 주문 신호에 기초하여, 제2 입력을 생성하고,
상기 제2 입력을 제2 인공 신경망에 입력하여, 제2 출력을 획득하고,
상기 제2 출력에 기초하여, 상기 추천 주문의 내용을 수정하고,
상기 주문 신호 및 수정된 상기 추천 주문을 데이터베이스에 저장하는
무인 매장 운영을 위한 방범 및 보안 관리 시스템.
In the crime prevention and security management system for unmanned store operation,
360-degree cameras installed to be superimposed around the main facilities of the unmanned store to photograph the unmanned store in real time;
An integrated server that identifies and tracks a user based on real-time photographing data acquired through the 360-degree camera, and detects, tracks, and responds to events occurring in the unmanned store;
A database for storing the real-time photographing data obtained from the server and storing user identification information for the user of the unmanned store;
An operator portable terminal receiving an event occurrence signal when the event occurs from the server; And
When the event occurs, based on the event occurrence signal, security control devices including door opening/closing facilities, disaster prevention facilities, and burglar bells controlled by the server
Including,
The integrated server
Transmitting and receiving signals with the 360-degree camera, the database, the operator's portable terminal, and the security control devices,
Including artificial neural networks that identify and track the user or perform an operation to detect, track, and respond to the event occurring in the unmanned store,
The 360 degree camera
It is a photographing equipment that can acquire images of all 360-degree positions in the three-axis direction without moving or rotating from one position.
The images captured by each camera are superimposed and installed so that there is no blind spot except for an exception space corresponding to a pre-designated vector in the unmanned store,
The above event is
Including theft, damage, fire and flood,
The integrated server
When the user enters the unmanned store, by controlling the 360-degree camera to obtain photographing data including the user's face image,
Preprocessing the photographing data to generate a first input,
Inputting the first input to a first artificial neural network to obtain a first output,
Based on the first output, obtain the user identification information from the database,
If the user identification information does not exist in the database, new user identification information is created and stored in the database,
Obtaining a pre-stored recommended order based on the user identification information,
Based on the user's response to the recommended order, an order signal is generated,
Based on the order signal, generate a second input,
Inputting the second input to a second artificial neural network to obtain a second output,
Based on the second output, correct the content of the recommended order,
To store the order signal and the modified recommendation order in a database
Security and security management system for unmanned store operation.
삭제delete 무인 매장 운영을 위한 방범 및 보안 관리 시스템에 있어서,
무인 매장의 주요 시설물 주변으로 중첩되게 설치되어 상기 무인 매장을 실시간 촬영하는 360도 카메라;
상기 360도 카메라를 통해 획득한 실시간 촬영 데이터에 기초하여, 사용자를 식별 및 추적하고, 상기 무인 매장 내에서 발생하는 이벤트에 대하여 감지, 추적 및 대응을 수행하는 통합 서버;
상기 서버로부터 획득한 상기 실시간 촬영 데이터를 저장하고, 상기 무인 매장의 상기 사용자에 대한 사용자 식별 정보를 저장하는 데이터베이스;
상기 서버로부터 상기 이벤트 발생 시 이벤트 발생 신호를 전송 받는 운영자 휴대용 단말; 및
상기 이벤트 발생 시 상기 이벤트 발생 신호에 기초하여, 상기 서버에 의해 제어 되는 도어 개폐 설비, 방재 설비 및 도난 벨을 포함한 보안 조절 장치들
을 포함하고,
상기 통합 서버는
상기 360도 카메라, 상기 데이터베이스, 상기 운영자 휴대용 단말 및 상기 보안 조절 장치들과 신호들을 송수신하고,
상기 사용자를 식별 및 추적하거나, 상기 무인 매장 내에서 발생하는 상기 이벤트를 감지, 추적 및 대응하기 위한 연산을 수행하는 인공 신경망들을 포함하고,
상기 360도 카메라는
한 위치로부터 이동이나 회전 동작 없이 3축 방향의 모든 360도 위치의 영상을 획득할 수 있는 촬영 장비로서,
각각의 카메라를 통해 촬영되는 영상이 상기 무인 매장 내에 미리 지정한 벡터에 해당하는 예외 공간을 제외하고 사각 지대가 없도록 중첩되어 설치되고,
상기 이벤트는
도난, 파손, 화재 및 수재를 포함하고,
상기 통합 서버는
상기 사용자가 상기 무인 매장으로부터 식별 태그가 장착된 물품과 함께 상기 360도 카메라의 화각 밖으로 이동할 경우,
상기 360도 카메라를 통해 촬영된 상기 촬영 데이터를 상기 이벤트 중 상기 도난에 해당하는 도난 촬영 데이터로 분류하고,
상기 도난으로 분류된 시점으로부터 24시간 이전까지의 영상을 포함한 도난 촬영 데이터를 상기 데이터베이스에 저장하고,
상기 도난 촬영 데이터를 전처리하여 제3 입력을 생성하고,
상기 제3 입력을 제3 인공 신경망에 입력하여, 제3 출력을 획득하고,
상기 제3 출력에 기초하여, 편집된 도난 촬영 데이터를 생성하고,
상기 편집된 도난 촬영 데이터 및 상기 사용자의 식별 정보를 포함하는 상기 이벤트 발생 신호를 상기 운영자 휴대용 단말에 전송하고,
상기 식별 태그는
상기 360도 카메라의 적외선 비전을 통해 식별 가능한 특수 파장을 지속적으로 발산하는 장치로서,
상기 특수 파장의 손상 및 제거 시, 상기 제3 인공 신경망을 통해 상기 이벤트 중 상기 파손에 해당하는 것으로 간주되는
무인 매장 운영을 위한 방범 및 보안 관리 시스템.

In the crime prevention and security management system for unmanned store operation,
360-degree cameras installed to be superimposed around the main facilities of the unmanned store to photograph the unmanned store in real time;
An integrated server that identifies and tracks a user based on real-time photographing data acquired through the 360-degree camera, and detects, tracks, and responds to events occurring in the unmanned store;
A database for storing the real-time photographing data obtained from the server and storing user identification information for the user of the unmanned store;
An operator portable terminal receiving an event occurrence signal when the event occurs from the server; And
When the event occurs, based on the event occurrence signal, security control devices including door opening/closing facilities, disaster prevention facilities, and burglar bells controlled by the server
Including,
The integrated server
Transmitting and receiving signals with the 360-degree camera, the database, the operator's portable terminal, and the security control devices,
Including artificial neural networks that identify and track the user or perform an operation to detect, track, and respond to the event occurring in the unmanned store,
The 360 degree camera
It is a photographing equipment that can acquire images of all 360-degree positions in the three-axis direction without moving or rotating from one position.
The images captured by each camera are superimposed and installed so that there is no blind spot except for an exception space corresponding to a pre-designated vector in the unmanned store,
The above event is
Including theft, damage, fire and flood,
The integrated server
When the user moves out of the angle of view of the 360-degree camera together with an item equipped with an identification tag from the unmanned store,
Classifying the photographing data photographed through the 360-degree camera as theft photographing data corresponding to the theft among the events,
Store theft photographing data including images up to 24 hours before the time classified as theft in the database,
Preprocessing the theft photographing data to generate a third input,
Inputting the third input to a third artificial neural network to obtain a third output,
Based on the third output, edited theft photographing data is generated,
Transmitting the event generation signal including the edited theft photographing data and the user's identification information to the operator's portable terminal,
The identification tag is
As a device that continuously emits a special wavelength that can be identified through the infrared vision of the 360-degree camera,
When the special wavelength is damaged or removed, the third artificial neural network is considered to correspond to the damage among the events.
Security and security management system for unmanned store operation.

KR1020200138246A 2020-10-23 2020-10-23 Method, apparatus and system for managing crime prevention and security for unmanned store operation KR102234555B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200138246A KR102234555B1 (en) 2020-10-23 2020-10-23 Method, apparatus and system for managing crime prevention and security for unmanned store operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200138246A KR102234555B1 (en) 2020-10-23 2020-10-23 Method, apparatus and system for managing crime prevention and security for unmanned store operation

Publications (1)

Publication Number Publication Date
KR102234555B1 true KR102234555B1 (en) 2021-03-31

Family

ID=75238145

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200138246A KR102234555B1 (en) 2020-10-23 2020-10-23 Method, apparatus and system for managing crime prevention and security for unmanned store operation

Country Status (1)

Country Link
KR (1) KR102234555B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102440000B1 (en) 2022-05-16 2022-09-05 주식회사 모노소프트 Unmanned accommodation managing system and method performing thereof
KR20220145072A (en) 2021-04-21 2022-10-28 조정민 Unmanned store operation system and unmanned store management method
WO2024096463A1 (en) * 2022-10-31 2024-05-10 김용범 Electronic device providing service using edge computing and method for operating same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0442623B2 (en) * 1983-04-12 1992-07-14 Fuji Photo Film Co Ltd
JP2009009231A (en) * 2007-06-26 2009-01-15 Toshiba Corp Security management system and security management method
KR101935470B1 (en) 2017-12-01 2019-04-03 케이티텔레캅 주식회사 Apparatus and Method for managing a department
KR102040574B1 (en) 2018-07-26 2019-11-06 강삼태 Store and shop management method
JP2020053019A (en) * 2018-07-16 2020-04-02 アクセル ロボティクス コーポレーションAccel Robotics Corp. Autonomous store tracking system
KR20200056498A (en) 2018-11-09 2020-05-25 주식회사 에스원 Residual Person Monitering Method based on Deep Learning to prevent negligent Accident of Store and System thereof
KR102132086B1 (en) 2018-10-23 2020-07-08 주식회사 에스원 Unmanned shop control device and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0442623B2 (en) * 1983-04-12 1992-07-14 Fuji Photo Film Co Ltd
JP2009009231A (en) * 2007-06-26 2009-01-15 Toshiba Corp Security management system and security management method
KR101935470B1 (en) 2017-12-01 2019-04-03 케이티텔레캅 주식회사 Apparatus and Method for managing a department
JP2020053019A (en) * 2018-07-16 2020-04-02 アクセル ロボティクス コーポレーションAccel Robotics Corp. Autonomous store tracking system
KR102040574B1 (en) 2018-07-26 2019-11-06 강삼태 Store and shop management method
KR102132086B1 (en) 2018-10-23 2020-07-08 주식회사 에스원 Unmanned shop control device and method thereof
KR20200056498A (en) 2018-11-09 2020-05-25 주식회사 에스원 Residual Person Monitering Method based on Deep Learning to prevent negligent Accident of Store and System thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220145072A (en) 2021-04-21 2022-10-28 조정민 Unmanned store operation system and unmanned store management method
KR102440000B1 (en) 2022-05-16 2022-09-05 주식회사 모노소프트 Unmanned accommodation managing system and method performing thereof
WO2024096463A1 (en) * 2022-10-31 2024-05-10 김용범 Electronic device providing service using edge computing and method for operating same

Similar Documents

Publication Publication Date Title
KR102234555B1 (en) Method, apparatus and system for managing crime prevention and security for unmanned store operation
EP3874480B1 (en) Facility surveillance systems and methods
US20210279603A1 (en) Security systems and methods
US20190087464A1 (en) Regional population management system and method
KR102376479B1 (en) Method, device and system for controlling for automatic recognition of object based on artificial intelligence
US11057649B1 (en) Live video streaming based on an environment-related trigger
CA2881744C (en) Unmanned vehicle (uv) control system and uv movement and data control system
US20150077550A1 (en) Sensor and data fusion
US20230334967A1 (en) Artificial Intelligence (AI)-Based Security Systems for Monitoring and Securing Physical Locations
KR102234556B1 (en) Controllong apparatus for processing of unmanned store access
US20220415138A1 (en) Artificial Intelligence (AI)-Based Security Systems for Monitoring and Securing Physical Locations
KR20220059210A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
CN116862740A (en) Intelligent prison management and control system based on Internet
Arslan et al. Sound based alarming based video surveillance system design
Pandiaraja et al. An analysis of abnormal event detection and person identification from surveillance cameras using motion vectors with deep learning
KR102551298B1 (en) Manpower assignment automation method and evaluation method, device and system for building management
KR102426803B1 (en) Method, device and system for automatically uploading overseas sales page of product based on artificial intelligence
KR102647139B1 (en) Apparatus and method for detecting abnormal behavior through deep learning-based image analysis
KR20220063865A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
KR102300101B1 (en) Apparatus and system for fire detection and ventilation of road tunnels
Theodosiadou et al. Real‐time threat assessment based on hidden Markov models
Yoon et al. Tracking model for abnormal behavior from multiple network CCTV using the Kalman Filter
Paul et al. Integrated Intelligent Surveillance System Using Deep Learning
KR102676337B1 (en) Method, device and system for notificating of emergency situation and critical situation in parking lot based on closed circuit television image processing
Yadav et al. SMART AI SECURITY GUARD

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant