KR102345421B1 - Integrated safety control system using mobile unmanned robot - Google Patents

Integrated safety control system using mobile unmanned robot Download PDF

Info

Publication number
KR102345421B1
KR102345421B1 KR1020210039463A KR20210039463A KR102345421B1 KR 102345421 B1 KR102345421 B1 KR 102345421B1 KR 1020210039463 A KR1020210039463 A KR 1020210039463A KR 20210039463 A KR20210039463 A KR 20210039463A KR 102345421 B1 KR102345421 B1 KR 102345421B1
Authority
KR
South Korea
Prior art keywords
worker
server
mobile unmanned
location information
monitoring
Prior art date
Application number
KR1020210039463A
Other languages
Korean (ko)
Inventor
정세중
김종호
김대영
Original Assignee
(주)한울전력기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)한울전력기술 filed Critical (주)한울전력기술
Priority to KR1020210039463A priority Critical patent/KR102345421B1/en
Application granted granted Critical
Publication of KR102345421B1 publication Critical patent/KR102345421B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/02Manipulators mounted on wheels or on carriages travelling along a guideway
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • H04N5/23296
    • H04N5/23299
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Electromagnetism (AREA)
  • Alarm Systems (AREA)

Abstract

Provided is an integrated safety control system including: a plurality of fixed cameras photographing a predesignated monitoring area; a fixed camera operation server transmitting a driving command to the plurality of fixed cameras, and receiving first image information from the plurality of fixed cameras; a plurality of movable unmanned monitoring robots moved along a fixed rail, and monitoring a plurality of predesignated areas; a movable unmanned monitoring robot operation server transmitting driving commands to the plurality of movable unmanned monitoring robots, and receiving second image information and first sensor information from the plurality of movable unmanned monitoring robots; an image storage server storing the first image information and the second image information; a worker position information server receiving position information of a worker within a specific space from a worker terminal, and transmitting guide information to the worker terminal; a fire detector placed in a predesignated monitoring area, and monitoring whether a fire occurs on equipment in the specific space; and a comprehensive monitoring server determining whether a fire or abnormality occurs on the equipment in the specific space, based on the first image information received from the fixed camera operation server, the second image information and the first sensor information received from the movable unmanned monitoring robot operation server, and the second sensor information received from the fire detector, and monitoring a worker moving path and an access record based on the position information of the worker received from the worker position information server. Therefore, the present invention is capable of enabling accurate and efficient monitoring in regard to safety.

Description

이동식 무인감시로봇을 이용한 통합 안전 관제 시스템{INTEGRATED SAFETY CONTROL SYSTEM USING MOBILE UNMANNED ROBOT}Integrated safety control system using mobile unmanned surveillance robot {INTEGRATED SAFETY CONTROL SYSTEM USING MOBILE UNMANNED ROBOT}

본 발명은 통합 안전 관제 시스템에 관한 것으로, 특히 이동식 무인감시로봇 및 작업자 위치 기반 통합 안전 관제 시스템에 관한 것이다.The present invention relates to an integrated safety control system, and more particularly, to a mobile unmanned surveillance robot and an integrated safety control system based on a worker's location.

발전설비는 누유, 화재와 같은 사고 위험 및 운전기기에 의한 인명사고 위험이 항상 존재하므로 운전원의 지속적이고 효과적인 감시가 요구된다.In power generation facilities, there is always the risk of accidents such as oil leakage and fire, and the risk of human accidents caused by operating equipment, so continuous and effective monitoring of the operator is required.

최근 발전설비는 통합제어계통 구성과 제어실 운영 및 배치 최적화로 설비운영의 사각지대가 확대되어 설비/안전사고 위험성이 증가되고 있다.Recently, power generation facilities have increased the risk of facility/safety accidents due to the expansion of blind spots in facility operation due to the integrated control system configuration and control room operation and layout optimization.

종래 감시체계는 한정된 시간동안 특정 지역을 개별 감시하므로 효율적인 설비관리가 어렵고, 화재 및 누유 등의 사고발생시 신속한 상황판단이 어려워 대형 사고로 확대될 수 있는 문제점이 있었다.Since the conventional monitoring system individually monitors a specific area for a limited time, it is difficult to efficiently manage facilities, and it is difficult to quickly determine the situation when an accident such as a fire or oil leak occurs, so that a large-scale accident may occur.

종래에는 영상 분석을 통한 장비 감시 및 작업자 안전관리와 같은 4차 산업에 적합한 감시 구조가 미비한 문제점이 있었다.Conventionally, there was a problem in that the monitoring structure suitable for the 4th industry, such as equipment monitoring and worker safety management through image analysis, was insufficient.

이에 따라, 특정 공간 전체에 대한 효율적인 운전현황 감시 및 사전 사고 예방이 가능하고, 사고 재발방지와 사고시 정확하고 신속한 대응이 가능한 기술이 요구된다.Accordingly, it is possible to efficiently monitor the operation status of the entire specific space and prevent accidents in advance, and a technology capable of preventing the recurrence of accidents and responding accurately and quickly in case of accidents is required.

본 발명이 이루고자 하는 기술적 과제는 특정 공간 전체에 대한 효율적인 운전현황 감시 및 사전 사고 예방이 가능하고, 사고 재발방지와 사고시 정확하고 신속한 대응이 가능한 통합 안전 관제 시스템을 제공하는 것이다.The technical problem to be achieved by the present invention is to provide an integrated safety control system capable of efficiently monitoring the operating status of the entire specific space and preventing accidents in advance, preventing the recurrence of accidents and enabling accurate and rapid response in case of accidents.

한 실시예에 따르면, 통합 안전 관제 시스템이 제공된다. 상기 통합 안전 관제 시스템은 미리 지정된 감시구역을 촬영하는 복수의 고정식 촬영 장치, 상기 복수의 고정식 촬영 장치에게 운전 명령을 송신하고, 상기 복수의 고정식 촬영 장치로부터 제1 영상 정보를 수신하는 고정식 촬영 장치 운영 서버, 고정된 레일을 따라 이동하고, 미리 지정된 복수의 감시구역을 모니터링하는 복수의 이동식 무인감시로봇, 상기 복수의 이동식 무인감시로봇에게 운전 명령을 송신하고, 상기 복수의 이동식 무인감시로봇으로부터 제2 영상 정보 및 제1 센서 정보를 수신하는 이동식 무인감시로봇 운영 서버, 상기 제1 영상 정보 및 상기 제2 영상 정보를 저장하는 영상 저장 서버, 작업자 단말로부터 특정 공간 내 작업자의 위치 정보를 수신하고, 상기 작업자 단말에게 안내 정보를 송신하는 작업자 위치 정보 서버, 미리 지정된 감시구역에 배치되며, 특정 공간 내 장비의 화재 발생 여부를 모니터링하는 화재 감지 장치, 그리고 상기 고정식 촬영 장치 운영 서버로부터 수신하는 상기 제1 영상 정보, 상기 이동식 무인감시로봇 운영 서버로부터 수신하는 상기 제2 영상 정보 및 상기 제1 센서 정보, 및 상기 화재 감지 장치로부터 수신하는 제2 센서 정보에 기반하여, 특정 공간 내 장비의 화재 또는 이상 발생 여부를 판단하고, 상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여 작업자 동선 및 출입내역을 모니터링하는 종합 감시 서버를 포함한다.According to one embodiment, an integrated safety control system is provided. The integrated safety control system operates a plurality of fixed photographing devices for photographing a predetermined monitoring area, a fixed photographing device that transmits a driving command to the plurality of fixed photographing devices, and receives first image information from the plurality of fixed photographing devices A server, a plurality of mobile unmanned surveillance robots that move along a fixed rail and monitor a plurality of pre-designated surveillance zones, transmit a driving command to the plurality of mobile unmanned surveillance robots, and receive a second from the plurality of mobile unmanned surveillance robots A mobile unmanned surveillance robot operation server that receives image information and first sensor information, an image storage server that stores the first image information and the second image information, receives the location information of a worker in a specific space from a worker terminal, and the A worker location information server that transmits guidance information to a worker terminal, a fire detection device that is disposed in a pre-designated monitoring area and monitors whether fire occurs in a specific space, and the first image received from the stationary imaging device operation server Based on the information, the second image information and the first sensor information received from the mobile unmanned monitoring robot operation server, and the second sensor information received from the fire detection device, whether a fire or abnormality occurs in the equipment in a specific space and a comprehensive monitoring server for determining the worker's location information and monitoring worker movement and entry/exit details based on the location information of the worker received from the worker location information server.

상기 종합 감시 서버는, 상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여, 상기 복수의 고정식 촬영 장치 중 적어도 하나의 고정식 촬영 장치를 선택하고, 선택된 고정식 촬영 장치의 위치 정보를 바탕으로 작업자 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 상기 거리, 방향, 회전 각도 및 틸트 각도를 상기 고정식 촬영 장치 운영 서버에게 송신하고, 상기 고정식 촬영 장치 운영 서버는 상기 선택된 고정식 촬영 장치에게 상기 거리, 방향, 회전 각도 및 틸트 각도를 송신하며, 상기 선택된 고정식 촬영 장치는 상기 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 상기 제1 영상 정보를 생성할 수 있다.The comprehensive monitoring server, based on the location information of the worker received from the worker location information server, selects at least one fixed photographing device from among the plurality of fixed photographing devices, and based on the location information of the selected fixed photographing device Calculate the distance, direction, rotation angle, and tilt angle for the operator's position, and transmit the distance, direction, rotation angle and tilt angle to the stationary imaging device operation server, wherein the stationary imaging device operation server is the selected stationary imaging device transmits the distance, direction, rotation angle, and tilt angle to the user, and the selected stationary photographing device rotates horizontally or vertically based on the distance, direction, rotation angle and tilt angle, or performs a zoom-in or zoom-out operation; The first image information may be generated.

상기 종합 감시 서버는, 상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여, 상기 복수의 이동식 무인감시로봇 중 적어도 하나의 이동식 무인감시로봇을 선택하고, 선택된 이동식 무인감시로봇의 위치 정보를 바탕으로 작업자 위치에 대한 이동 거리 및 이동 방향을 산출하고, 상기 이동 거리 및 이동 방향을 상기 이동식 무인감시로봇 운영 서버에게 송신하고, 상기 이동식 무인감시로봇 운영 서버는 상기 선택된 이동식 무인감시로봇에게 상기 이동 거리 및 이동 방향을 송신하며, 상기 선택된 이동식 무인감시로봇은 상기 이동 거리 및 이동 방향을 바탕으로 작업자 위치까지 이동하여 상기 제2 영상 정보를 생성할 수 있다.The comprehensive monitoring server, based on the location information of the worker received from the worker location information server, selects at least one mobile unmanned surveillance robot from among the plurality of mobile unmanned surveillance robots, location information of the selected mobile unmanned surveillance robot Calculates the movement distance and movement direction for the position of the worker based on The moving distance and moving direction are transmitted, and the selected mobile unmanned surveillance robot may move to the operator's position based on the moving distance and moving direction to generate the second image information.

상기 종합 감시 서버는, 상기 제1 영상 정보 및 상기 제2 영상 정보를 분석하여 제1 특정 공간 내 작업자의 유무, 및 상기 제1 특정 공간의 위치 정보를 도출하고, 상기 제1 특정 공간 내 작업자가 인식되면, 작업자가 인식된 상기 제1 특정 공간의 위치 정보와 상기 작업자 위치 정보 서버로부터 상기 제1 특정 공간 내 인식된 작업자의 작업자 단말로부터 수신되는 작업자의 위치 정보를 비교하고, 작업자가 인식된 상기 제1 특정 공간의 위치 정보와 상기 제1 특정 공간 내 인식된 작업자의 작업자 단말로부터 수신되는 작업자의 위치 정보가 일치하지 않으면, 상기 제1 특정 공간에 설치된 스피커를 통해 경보음을 출력할 수 있다.The comprehensive monitoring server analyzes the first image information and the second image information to derive the presence or absence of a worker in the first specific space and location information of the first specific space, and the worker in the first specific space When recognized, the worker compares the location information of the recognized first specific space with the location information of the worker received from the worker terminal of the worker recognized in the first specific space from the worker location information server, and the worker is recognized When the location information of the first specific space and the location information of the worker received from the worker terminal of the worker recognized in the first specific space do not match, an alarm sound may be output through a speaker installed in the first specific space.

상기 종합 감시 서버는, 상기 화재 감지 장치로부터 수신하는 화재 발생 위치 정보에 기반하여, 상기 복수의 고정식 촬영 장치 중 적어도 하나의 고정식 촬영 장치를 선택하고, 선택된 고정식 촬영 장치의 위치 정보를 바탕으로 화재 발생 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 상기 거리, 방향, 회전 각도 및 틸트 각도를 상기 고정식 촬영 장치 운영 서버에게 송신하고, 상기 고정식 촬영 장치 운영 서버는 상기 선택된 고정식 촬영 장치에게 상기 거리, 방향, 회전 각도 및 틸트 각도를 송신하며, 상기 선택된 고정식 촬영 장치는 상기 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 상기 제1 영상 정보를 생성할 수 있다.The comprehensive monitoring server selects at least one fixed photographing device from among the plurality of fixed photographing devices based on the fire occurrence location information received from the fire detection device, and generates a fire based on the location information of the selected fixed photographing device Calculate the distance, direction, rotation angle, and tilt angle for the location, and transmit the distance, direction, rotation angle, and tilt angle to the stationary photographing device operation server, and the stationary photographing device operation server sends the selected stationary photographing device to the operation server. The distance, direction, rotation angle, and tilt angle are transmitted, and the selected fixed photographing device rotates horizontally or vertically based on the distance, direction, rotation angle and tilt angle, or performs a zoom-in or zoom-out operation, and the first 1 You can create image information.

상기 종합 감시 서버는, 상기 화재 감지 장치로부터 수신하는 화재 발생 위치 정보에 기반하여, 상기 복수의 이동식 무인감시로봇 중 적어도 하나의 이동식 무인감시로봇을 선택하고, 선택된 이동식 무인감시로봇의 위치 정보를 바탕으로 화재 발생 위치에 대한 이동 거리 및 이동 방향을 산출하고, 상기 이동 거리 및 이동 방향을 상기 이동식 무인감시로봇 운영 서버에게 송신하고, 상기 이동식 무인감시로봇 운영 서버는 상기 선택된 이동식 무인감시로봇에게 상기 이동 거리 및 이동 방향을 송신하며, 상기 선택된 이동식 무인감시로봇은 상기 이동 거리 및 이동 방향을 바탕으로 화재 발생 위치까지 이동하여 상기 제2 영상 정보를 생성할 수 있다.The comprehensive monitoring server selects at least one mobile unmanned surveillance robot from among the plurality of mobile unmanned surveillance robots based on the fire occurrence location information received from the fire detection device, and based on the location information of the selected mobile unmanned surveillance robot calculates the moving distance and the moving direction for the location of the fire with a The distance and movement direction are transmitted, and the selected mobile unmanned surveillance robot may move to a fire location based on the movement distance and movement direction to generate the second image information.

특정 공간 전체에 대한 효율적인 운전현황 감시 및 사전 사고 예방이 가능하고, 사고 재발방지와 사고시 정확하고 신속한 대응이 가능하다.It is possible to efficiently monitor the operation status of the entire specific space and prevent accidents in advance, and it is possible to prevent recurrence of accidents and to respond accurately and quickly in case of accidents.

이동식 무인감시로봇을 통해 특정 공간 내의 장비 이상 여부 및 작업자 안전에 대한 정확하고 효율적인 감시가 가능하다.Accurate and efficient monitoring of equipment abnormalities and worker safety in a specific space is possible through a mobile unmanned monitoring robot.

인공신경망을 이용한 영상 분석을 통해 빠르고 정밀한 작업자 인식, 위치 정보 도출, 및 화재 감시가 가능하다.Through image analysis using artificial neural network, fast and precise worker recognition, location information derivation, and fire monitoring are possible.

음향 데이터를 이용한 진동 및 상태 감시를 통해 특정 공간 내 장비의 이상 여부를 실시간 파악할 수 있다.Vibration and condition monitoring using sound data enables real-time detection of abnormalities in equipment in a specific space.

도 1 및 도 2는 한 실시예에 따른 통합 안전 관제 시스템의 블록도이다.
도 3은 한 실시예에 따른 통합 안전 관제 시스템을 설명하기 위한 도면이다.
도 4 및 도 5는 한 실시예에 따른 통합 안전 관제 시스템의 이동식 무인감시로봇을 설명하기 위한 도면이다.
도 6은 한 실시예에 따른 통합 안전 관제 시스템의 이동식 무인감시로봇의 블록도이다.
도 7은 한 실시예에 따른 통합 안전 관제 시스템의 종합 감시 서버의 블록도이다.
1 and 2 are block diagrams of an integrated safety control system according to an embodiment.
3 is a view for explaining an integrated safety control system according to an embodiment.
4 and 5 are diagrams for explaining a mobile unmanned surveillance robot of the integrated safety control system according to an embodiment.
6 is a block diagram of a mobile unmanned surveillance robot of an integrated safety control system according to an embodiment.
7 is a block diagram of a comprehensive monitoring server of an integrated safety control system according to an embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

도 1 및 도 2는 한 실시예에 따른 통합 안전 관제 시스템의 블록도이다. 도 3은 한 실시예에 따른 통합 안전 관제 시스템을 설명하기 위한 도면이다. 도 4 및 도 5는 한 실시예에 따른 통합 안전 관제 시스템의 이동식 무인감시로봇을 설명하기 위한 도면이다. 도 6은 한 실시예에 따른 통합 안전 관제 시스템의 이동식 무인감시로봇의 블록도이다. 도 7은 한 실시예에 따른 통합 안전 관제 시스템의 종합 감시 서버의 블록도이다.1 and 2 are block diagrams of an integrated safety control system according to an embodiment. 3 is a view for explaining an integrated safety control system according to an embodiment. 4 and 5 are diagrams for explaining a mobile unmanned surveillance robot of the integrated safety control system according to an embodiment. 6 is a block diagram of a mobile unmanned surveillance robot of an integrated safety control system according to an embodiment. 7 is a block diagram of a comprehensive monitoring server of an integrated safety control system according to an embodiment.

도 1 내지 도 3을 참조하면, 한 실시예에 따른 통합 안전 관제 시스템은 고정식 촬영 장치(110), 고정식 촬영 장치 운영 서버(120), 이동식 무인감시로봇(210), 이동식 무인감시로봇 운영 서버(220), 종합 감시 서버(300), 영상 저장 서버(400), 뷰어 관리 서버(500), 사용자 단말(600), 작업자 단말(700), 화재 감지 장치(800), 작업자 위치 정보 서버(900)를 포함한다. 1 to 3, the integrated safety control system according to an embodiment includes a stationary imaging device 110, a stationary imaging device operation server 120, a mobile unmanned surveillance robot 210, and a mobile unmanned surveillance robot operation server ( 220), comprehensive monitoring server 300, image storage server 400, viewer management server 500, user terminal 600, operator terminal 700, fire detection device 800, operator location information server 900 includes

고정식 촬영 장치(110)는 미리 지정된 감시구역(예, 도 5의 1 내지 33구역) 내 설치되어 미리 지정된 감시구역을 촬영한다. 고정식 촬영 장치(110)는 한 실시예로서, 실화상(CCD) 카메라 및 적외선(IR) 카메라를 포함할 수 있다. The stationary imaging device 110 is installed in a pre-designated monitoring area (eg, zones 1 to 33 in FIG. 5 ) to photograph the pre-designated monitoring area. The stationary photographing apparatus 110 may include a real image (CCD) camera and an infrared (IR) camera, as an embodiment.

고정식 촬영 장치(110)는 한 실시예로서, 독립형 중요 장비, 간헐적 감시 구역, 또는 집중 감시 구역 및 장비 근처의 레일 상에 배치될 수 있다.The stationary imaging device 110 may, in one embodiment, be placed on a stand-alone critical equipment, an intermittent monitoring area, or a centralized monitoring area and a rail near the equipment.

고정식 촬영 장치(110)는 한 실시예로서, 팬/틸트/줌 동작이 가능하며, 고정식 촬영 장치 운영 서버(120)로부터 수신하는 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 제1 영상 정보를 생성할 수 있다.The stationary photographing device 110, as an embodiment, is capable of pan/tilt/zoom operations, and is horizontal or vertical based on the distance, direction, rotation angle and tilt angle received from the stationary photographing device operation server 120 . It may rotate, perform a zoom-in or zoom-out operation, and generate first image information.

고정식 촬영 장치 운영 서버(120)는 복수의 고정식 촬영 장치(110)에게 운전 명령을 송신하고, 복수의 고정식 촬영 장치(110)로부터 제1 영상 정보를 수신한다.The stationary imaging device operation server 120 transmits a driving command to the plurality of stationary imaging devices 110 and receives first image information from the plurality of stationary imaging devices 110 .

고정식 촬영 장치 운영 서버(120)는 한 실시예로서, 복수의 고정식 촬영 장치(110)로부터 수신하는 제1 영상 정보를 종합 감시 서버(300)에게 송신할 수 있다.The stationary imaging device operation server 120 may transmit the first image information received from the plurality of stationary imaging devices 110 to the general monitoring server 300 as an embodiment.

이동식 무인감시로봇(210)은 레일을 따라 이동하고, 미리 지정된 복수의 감시구역을 모니터링한다.The mobile unmanned monitoring robot 210 moves along the rail and monitors a plurality of pre-designated monitoring areas.

도 4를 참조하면, 이동식 무인감시로봇(210)은 한 실시예로서, 특정 공간(예, 산업플랜트) 내 위험등급 별로 구획된 감시구역의 레일 상에 배치될 수 있다. 레일은 한 실시예로서, 특정 공간(예, 산업플랜트) 내의 천정으로부터 일정거리 떨어진 위치에 설치될 수 있고, 이동식 무인감시로봇(210)은 한 실시예로서, 레일을 따라 이동하여 특정 공간(예, 산업플랜트) 내 모든 구역을 감시할 수 있다. Referring to FIG. 4 , the mobile unmanned monitoring robot 210 may be disposed on the rail of a monitoring area partitioned by risk level within a specific space (eg, an industrial plant) as an embodiment. The rail may be installed at a certain distance away from the ceiling in a specific space (eg, an industrial plant) as an embodiment, and the mobile unmanned monitoring robot 210 as an embodiment moves along the rail to a specific space (eg, , industrial plants) can be monitored in all areas.

이동식 무인감시로봇(210)은 한 실시예로서, 미리 지정된 복수의 감시구역 별로 복수개 배치될 수 있고, 미리 설정된 경로(예, 도 5의 1 내지 17 경로)를 따라 이동할 수 있다. 이를 통해, 특정 공간(예, 산업플랜트) 내 모든 구역을 사각지대 없이 다양한 방향, 각도, 거리에서 감시가 가능하므로, 감시의 정확성 및 신뢰도를 향상시킬 수 있다.As an embodiment, the mobile unmanned surveillance robot 210 may be arranged in plurality for each of a plurality of pre-designated monitoring areas, and may move along a preset path (eg, paths 1 to 17 in FIG. 5 ). Through this, it is possible to monitor all areas within a specific space (eg, industrial plant) from various directions, angles, and distances without blind spots, thereby improving the accuracy and reliability of monitoring.

도 5를 참조하면, 이동식 무인감시로봇(210)은 한 실시예로서, 영상 촬영부(211)를 통해 팬/틸트/줌 동작이 가능하며, 이동식 무인감시로봇 운영 서버(220)로부터 수신하는 작업자 위치에 대한 이동 거리 및 이동 방향을 바탕으로 작업자 위치까지 이동하여 제2 영상 정보를 생성할 수 있다.Referring to FIG. 5 , the mobile unmanned surveillance robot 210 is an embodiment, and a pan/tilt/zoom operation is possible through the image capturing unit 211, and a worker receiving from the mobile unmanned surveillance robot operation server 220 The second image information may be generated by moving to the position of the operator based on the movement distance and movement direction for the position.

이동식 무인감시로봇 운영 서버(220)는 복수의 이동식 무인감시로봇(210)에게 운전 명령을 송신하고, 복수의 이동식 무인감시로봇(210)으로부터 제2 영상 정보 및 센서 정보를 수신한다. The mobile unmanned surveillance robot operation server 220 transmits a driving command to the plurality of mobile unmanned surveillance robots 210 , and receives second image information and sensor information from the plurality of mobile unmanned surveillance robots 210 .

이동식 무인감시로봇 운영 서버(220)는 한 실시예로서, 복수의 이동식 무인감시로봇(210)으로부터 수신하는 제2 영상 정보 및 센서 정보를 종합 감시 서버(300)에게 송신할 수 있다. 센서 정보는 한 실시예로서, 음향 정보, 공기질 정보(CH4, CO, CO2 농도 등)를 포함할 수 있다.As an embodiment, the mobile unmanned surveillance robot operation server 220 may transmit the second image information and sensor information received from the plurality of mobile unmanned surveillance robots 210 to the comprehensive surveillance server 300 . The sensor information, as an embodiment, may include acoustic information and air quality information (CH4, CO, CO2 concentration, etc.).

도 6을 참조하면, 이동식 무인감시로봇(210)은 한 실시예로서, 영상 촬영부(211), 센서부(212), 음성입출력부(213), 작업자 감시부(214), 경보부(215), 공기질 감시부(216), 화재 감시부(217), 배터리부(218)를 포함할 수 있다.Referring to FIG. 6 , the mobile unmanned surveillance robot 210 is an embodiment, and an image capturing unit 211 , a sensor unit 212 , an audio input/output unit 213 , an operator monitoring unit 214 , and an alarm unit 215 . , an air quality monitoring unit 216 , a fire monitoring unit 217 , and a battery unit 218 .

영상 촬영부(211)는 미리 지정된 복수의 감시구역을 촬영할 수 있다. 영상 촬영부(211)는 한 실시예로서, 실화상(CCD) 카메라 및 적외선(IR) 카메라를 포함할 수 있다.The image photographing unit 211 may photograph a plurality of pre-designated monitoring areas. The image capturing unit 211 may include a real image (CCD) camera and an infrared (IR) camera, as an embodiment.

센서부(212)는 감시구역 내 장비로부터 발생하는 음향을 감지하고, 감시구역 내 공기질을 측정할 수 있다. 센서부(212)는 한 실시예로서, 음향센서, 공기질 측정 센서(CH4, CO, CO2 등)를 포함할 수 있다. The sensor unit 212 may detect a sound generated from equipment in the monitoring area and measure air quality in the monitoring area. As an embodiment, the sensor unit 212 may include an acoustic sensor and an air quality measurement sensor (CH4, CO, CO2, etc.).

음성입출력부(213)는 감시구역 내 작업자의 음성을 인식하고, 미리 저장된 맵데이터에 기반하여 입력되는 음성에 대응하는 음성 메시지를 출력할 수 있다. 음성입출력부(213)는 한 실시예로서, 마이크 및 스피커를 포함할 수 있다.The voice input/output unit 213 may recognize the voice of the operator in the monitoring area and output a voice message corresponding to the input voice based on map data stored in advance. The audio input/output unit 213 may include a microphone and a speaker as an embodiment.

작업자 감시부(214)는 작업자의 위치 정보를 실시간 수집하고, 작업자의 위치 정보와 미리 설정된 기준 위치 정보와 비교하여 작업자의 비인가 구역 출입 여부를 판단할 수 있다. 위치 정보는 한 실시예로서, GPS 정보, 비콘 위치 정보, AP 정보를 포함할 수 있다.The worker monitoring unit 214 may collect the location information of the worker in real time, and compare the location information of the worker with preset reference location information to determine whether the worker enters the unauthorized area. The location information, as an embodiment, may include GPS information, beacon location information, and AP information.

작업자 감시부(214)는 한 실시예로서, 작업자 단말(700)로부터 GPS 정보를 실시간 수신할 수 있다. 작업자 감시부(214)는 한 실시예로서, 작업자의 의류, 신발, 또는 모자에 부착되는 비콘으로부터 위치 정보를 실시간 수신할 수 있다. 작업자 감시부(214)는 작업자 단말(700)로부터 AP 정보를 실시간 수신할 수 있다. The operator monitoring unit 214 may receive GPS information from the operator terminal 700 in real time, as an embodiment. The worker monitoring unit 214 may receive, in real time, location information from a beacon attached to the worker's clothes, shoes, or hat, as an embodiment. The operator monitoring unit 214 may receive the AP information from the operator terminal 700 in real time.

경보부(215)는 작업자 감시부(214)가 작업자의 비인가 구역 출입으로 판단하면, 경보음을 출력할 수 있다. 경보부(215)는 한 실시예로서, 작업자 감시부(214)가 작업자의 비인가 구역 출입으로 판단하면, 종합 감시 서버(300)에게 알림 메시지를 송신할 수 있다.The alarm unit 215 may output an alarm when the operator monitoring unit 214 determines that the operator enters the unauthorized area. As an embodiment, the alarm unit 215 may transmit a notification message to the comprehensive monitoring server 300 when the operator monitoring unit 214 determines that the operator enters an unauthorized area.

공기질 감시부(216)는 센서부(212)를 통해 측정된 감시구역 내 공기질을 미리 설정된 기준값과 비교하여, 공기질 위험 상태 여부를 판단할 수 있다.The air quality monitoring unit 216 may compare the air quality in the monitoring area measured by the sensor unit 212 with a preset reference value to determine whether the air quality is in a dangerous state.

경보부(215)는 공기질 감시부(216)가 공기질 위험 상태로 판단하면 경보음을 출력할 수 있다. 경보부(215)는 한 실시예로서, 공기질 감시부(216)가 공기질 위험 상태로 판단하면, 종합 감시 서버(300)에게 알림 메시지를 송신할 수 있다.The alarm unit 215 may output an alarm when the air quality monitoring unit 216 determines that the air quality is in a dangerous state. As an embodiment, the alarm unit 215 may transmit a notification message to the comprehensive monitoring server 300 when the air quality monitoring unit 216 determines that the air quality is in a dangerous state.

화재 감시부(217)는 미리 입력된 학습 데이터를 바탕으로 기계 학습을 수행하고, 영상 촬영부(211)를 통해 영상 데이터를 입력 변수로 하는 기계 학습 알고리즘을 이용하여, 감시구역 내 장비의 화재 발생 여부를 판단할 수 있다. 화재 감시부(217)는 영상 촬영부(211)를 통해 영상 데이터를 입력 변수로 하는 기계 학습 알고리즘을 이용하여, 사람 및 사물에 대한 행동패턴을 분석하고, 설정된 이벤트가 탐지되면 경보부(215)를 통해 종합 감시 서버(300)에게 알림 메시지를 송신할 수 있다.The fire monitoring unit 217 performs machine learning based on the learning data input in advance, and uses a machine learning algorithm that uses the image data as an input variable through the image capturing unit 211 to generate a fire in the equipment in the monitoring area. can determine whether The fire monitoring unit 217 uses a machine learning algorithm that uses image data as an input variable through the image capturing unit 211 to analyze behavior patterns for people and objects, and when a set event is detected, the alarm unit 215 is activated. It is possible to transmit a notification message to the comprehensive monitoring server 300 through.

경보부(215)는 화재 감시부(217)가 화재 발생으로 판단하면 경보음을 출력할 수 있다.The alarm unit 215 may output an alarm sound when the fire monitoring unit 217 determines that a fire has occurred.

배터리부(218)는 한 실시예로서, 무선 충전 배터리를 포함할 수 있다. 이동식 무인감시로봇(210)은 설정에 따라 레일 상의 미리 지정된 위치에 마련된 무선 충전 포트로 이동할 수 있고, 배터리부(218)는 무선 충전 포트를 통해 충전될 수 있다.The battery unit 218 may include a wireless charging battery as an example. The mobile unmanned surveillance robot 210 may move to a wireless charging port provided at a predetermined location on the rail according to settings, and the battery unit 218 may be charged through the wireless charging port.

종합 감시 서버(300)는 고정식 촬영 장치 운영 서버(120)로부터 수신하는 제1 영상 정보, 이동식 무인감시로봇 운영 서버(220)으로부터 수신하는 제2 영상 정보 및 제1 센서 정보, 화재 감지 장치(800)로부터 수신하는 제2 센서 정보에 기반하여, 특정 공간(예, 산업플랜트) 내 장비의 화재 또는 이상 발생 여부를 판단하고, 작업자 위치 정보 서버(900)로부터 수신하는 작업자의 위치 정보에 기반하여 작업자 동선 및 출입내역을 모니터링한다.The comprehensive monitoring server 300 includes the first image information received from the stationary photographing device operation server 120 , the second image information and the first sensor information received from the mobile unmanned surveillance robot operation server 220 , and the fire detection device 800 . ) based on the second sensor information received from, determining whether a fire or abnormality occurs in equipment in a specific space (eg, an industrial plant), and based on the location information of the worker received from the worker location information server 900 , the worker Monitor movement and entry/exit details.

제1 영상 정보 및 제2 영상 정보는 한 실시예로서, 감시구역의 실화상 영상 정보 및 열화상 영상 정보를 포함할 수 있다. 제1 센서 정보는 한 실시예로서, 음향 데이터 및 공기질 데이터를 포함할 수 있다. 제2 센서 정보는 한 실시예로서, 온도 데이터, 연기 감지 정보, 불꽃 감지 정보 등을 포함할 수 있다.The first image information and the second image information may include real image image information and thermal image information of the monitoring area as an embodiment. The first sensor information may include sound data and air quality data as an embodiment. The second sensor information, as an embodiment, may include temperature data, smoke detection information, flame detection information, and the like.

도 4를 참조하면, 종합 감시 서버(300)는 한 실시예로서, 통신부(310), 종합 분석부(320), 및 작업자 위치 모니터링부(330)를 포함할 수 있다.Referring to FIG. 4 , the comprehensive monitoring server 300 may include, as an embodiment, a communication unit 310 , a comprehensive analysis unit 320 , and a worker location monitoring unit 330 .

통신부(310)는 고정식 촬영 장치(110)로부터 제1 영상 정보를 수신하고, 이동식 무인감시로봇(210)으로부터 제2 영상 정보 및 제1 센서 정보를 수신하며, 화재 감지 장치(800)로부터 제2 센서 정보를 수신할 수 있다. The communication unit 310 receives the first image information from the stationary photographing device 110 , the second image information and the first sensor information from the mobile unmanned surveillance robot 210 , and the second image information from the fire detection device 800 . You can receive sensor information.

종합 분석부(320)는 미리 입력된 학습 데이터를 바탕으로 기계 학습을 수행하고, 제1 영상 정보 및 제2 영상 정보를 입력으로 하는 기계 학습 알고리즘을 이용하여, 특정 공간(예, 산업플랜트) 내 장비의 화재 발생 여부를 판단할 수 있다. 통신부(310)는 종합 분석부(320)가 화재 발생으로 판단하면 작업자 단말(700)에게 알림 메시지를 송신할 수 있다.The comprehensive analysis unit 320 performs machine learning based on the learning data input in advance, and uses a machine learning algorithm that takes the first image information and the second image information as input, and in a specific space (eg, an industrial plant) It is possible to determine whether or not a fire has occurred in the equipment. The communication unit 310 may transmit a notification message to the operator terminal 700 when the comprehensive analysis unit 320 determines that a fire has occurred.

종합 분석부(320)는 이동식 무인감시로봇(210)으로부터 수신한 제1 센서 정보에 기반하여 장비의 이상 발생 여부 및 공기질 위험 상태 여부를 판단할 수 있다. 종합 분석부(320)는 한 실시예로서, 제1 센서 정보에 포함된 음향 데이터와 미리 저장된 맵데이터를 비교하여 감시구역 내 장비의 이상 발생 여부를 판단할 수 있다. 종합 분석부(320)는 한 실시예로서, 제1 센서 정보에 포함된 공기질 데이터(예, CH4, CO, CO2 등)와 미리 저장된 맵데이터를 비교하여 감시구역 내 공기질 위험 상태 여부를 판단할 수 있다. 통신부(310)는 종합 분석부(320)가 장비의 이상 발생 또는 공기질 위험 상태로 판단하면 작업자 단말(700)에게 알림 메시지를 송신할 수 있다.The comprehensive analysis unit 320 may determine whether an abnormality has occurred in the equipment and whether the air quality is in a dangerous state based on the first sensor information received from the mobile unmanned monitoring robot 210 . As an embodiment, the comprehensive analysis unit 320 may determine whether an abnormality occurs in the equipment in the monitoring area by comparing the sound data included in the first sensor information with the map data stored in advance. The comprehensive analysis unit 320 as an embodiment compares the air quality data (eg, CH4, CO, CO2, etc.) included in the first sensor information with pre-stored map data to determine whether the air quality in the monitoring area is in a dangerous state. have. The communication unit 310 may transmit a notification message to the operator terminal 700 when the comprehensive analysis unit 320 determines that the equipment is abnormal or the air quality is in a dangerous state.

종합 분석부(320)는 한 실시예로서, 이동식 무인감시로봇(210)으로부터 수신하는 영상 정보 및 센서 정보에 기반하여, 실시간으로 특정 공간(예, 산업플랜트) 내 장비의 화재 발생 여부 및 감시구역 내 장비의 이상 발생 여부를 판단할 수 있고, 화재 발생 또는 장비 이상 발생 여부에 따라 이전에 설정된 위험 구역을 재설정할 수 있다.The comprehensive analysis unit 320 is an embodiment, based on the image information and sensor information received from the mobile unmanned surveillance robot 210, in real time whether a fire occurred in a specific space (eg, an industrial plant) and a monitoring area You can determine whether an abnormality has occurred in your equipment, and you can reset the previously set danger zone according to whether a fire or equipment abnormality occurs.

종합 분석부(320)는 한 실시예로서, 작업자 위치 정보 서버(900)로부터 수신하는 작업자의 위치 정보에 기반하여, 복수의 고정식 촬영 장치(110)(예, 도 5의 1 내지 33구역 각각에 설치된 고정식 촬영 장치) 중 적어도 하나의 고정식 촬영 장치(110)를 선택하고, 선택된 고정식 촬영 장치(110)(예, 도 5의 19구역에 설치된 고정식 촬영 장치)의 위치 정보를 바탕으로 작업자 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 거리, 방향, 회전 각도 및 틸트 각도를 고정식 촬영 장치 운영 서버(120)에게 송신할 수 있다. 이때, 고정식 촬영 장치 운영 서버(120)는 선택된 고정식 촬영 장치(110)에게 거리, 방향, 회전 각도 및 틸트 각도를 송신하며, 선택된 고정식 촬영 장치(110)는 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 제1 영상 정보를 생성할 수 있다.The comprehensive analysis unit 320 is an embodiment, based on the location information of the worker received from the worker location information server 900, a plurality of stationary photographing devices 110 (eg, in each of zones 1 to 33 in FIG. 5 ) At least one stationary imaging device 110 is selected from among the installed stationary imaging devices), and based on the location information of the selected stationary imaging device 110 (eg, the stationary imaging device installed in area 19 of FIG. 5 ) The distance, direction, rotation angle, and tilt angle may be calculated, and the distance, direction, rotation angle, and tilt angle may be transmitted to the stationary imaging device operation server 120 . At this time, the stationary imaging device operation server 120 transmits the distance, direction, rotation angle and tilt angle to the selected stationary imaging device 110 , and the selected stationary imaging device 110 sets the distance, direction, rotation angle and tilt angle. Based on the background, horizontal or vertical rotation or zoom-in or zoom-out operation may be performed, and first image information may be generated.

종합 분석부(320)는 한 실시예로서, 작업자 위치 정보 서버(900)로부터 수신하는 작업자의 위치 정보에 기반하여, 복수의 이동식 무인감시로봇(210)(예, 도 5의 1 내지 33구역 각각에 설치된 레일에 배치된 이동식 무인감시로봇) 중 적어도 하나의 이동식 무인감시로봇(210)을 선택하고, 선택된 이동식 무인감시로봇(210)(예, 도 5의 16구역에 배치된 이동식 무인감시로봇)의 위치 정보를 바탕으로 작업자 위치에 대한 이동 거리 및 이동 방향을 산출하고, 이동 거리 및 이동 방향을 이동식 무인감시로봇 운영 서버(220)에게 송신할 수 있다. 이때, 이동식 무인감시로봇 운영 서버(220)는 선택된 이동식 무인감시로봇(210)에게 이동 거리 및 이동 방향을 송신하며, 선택된 이동식 무인감시로봇(210)은 이동 거리 및 이동 방향을 바탕으로 작업자 위치까지 이동하여 제2 영상 정보를 생성할 수 있다. 이동식 무인감시로봇(210)은 한 실시예로서, 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 제2 영상 정보를 생성할 수 있다.The comprehensive analysis unit 320 is an embodiment, based on the location information of the worker received from the worker location information server 900, a plurality of mobile unmanned surveillance robot 210 (eg, each of zones 1 to 33 in FIG. 5 ) At least one mobile unmanned surveillance robot 210 is selected from among the mobile unmanned surveillance robots installed on a rail installed in the It is possible to calculate the movement distance and movement direction for the operator's position based on the location information of the , and transmit the movement distance and movement direction to the mobile unmanned surveillance robot operation server 220 . At this time, the mobile unmanned surveillance robot operation server 220 transmits the moving distance and the moving direction to the selected mobile unmanned surveillance robot 210, and the selected mobile unmanned surveillance robot 210 moves to the operator's position based on the moving distance and the moving direction. By moving, the second image information may be generated. As an embodiment, the mobile unmanned surveillance robot 210 may rotate in a horizontal or vertical direction or perform a zoom-in or zoom-out operation, and may generate second image information.

종합 분석부(320)는 한 실시예로서, 제1 영상 정보 및 제2 영상 정보를 분석하여 제1 특정 공간(예, 도 5의 15구역) 내 작업자의 유무, 및 제1 특정 공간의 위치 정보를 도출하고, 제1 특정 공간 내 작업자가 인식되면, 작업자가 인식된 제1 특정 공간의 위치 정보와 작업자 위치 정보 서버(900)로부터 제1 특정 공간 내 인식된 작업자의 작업자 단말(700)로부터 수신되는 작업자의 위치 정보를 비교하고, 작업자가 인식된 제1 특정 공간의 위치 정보와 제1 특정 공간 내 인식된 작업자의 작업자 단말(700)로부터 수신되는 작업자의 위치 정보가 일치하지 않으면, 비인가 구역 출입으로 판단할 수 있고, 제1 특정 공간에 설치된 스피커를 통해 경보음을 출력할 수 있다. 실시간 위치 정보를 송신하는 작업자 단말(700)을 소지하지 않은 작업자의 비인가 구역 출입을 방지할 수 있다.As an embodiment, the comprehensive analysis unit 320 analyzes the first image information and the second image information to determine the presence or absence of an operator in the first specific space (eg, area 15 in FIG. 5 ), and location information of the first specific space , and when the worker in the first specific space is recognized, the location information of the first specific space recognized by the worker and the worker location information server 900 are received from the worker terminal 700 of the recognized worker in the first specific space compares the position information of the worker, and if the location information of the first specific space recognized by the worker and the location information of the worker received from the worker terminal 700 of the worker recognized within the first specific space do not match, enter the unauthorized area may be determined, and an alarm sound may be output through a speaker installed in the first specific space. It is possible to prevent a worker who does not have the operator terminal 700 that transmits real-time location information from entering an unauthorized area.

종합 분석부(320)는 한 실시예로서, 미리 입력된 학습 데이터를 바탕으로 기계 학습을 수행하고, 영상 촬영부(211)를 통해 영상 데이터를 입력 변수로 하는 기계 학습 알고리즘을 이용하여, 미리 등록된 작업자를 판별하고 감시구역의 위치 정보를 도출할 수 있다. As an embodiment, the comprehensive analysis unit 320 performs machine learning based on previously input learning data, and uses a machine learning algorithm using image data as an input variable through the image capturing unit 211 to register in advance. It is possible to identify workers who have been trained and derive the location information of the monitoring area.

작업자 위치 모니터링부(330)는 작업자의 위치 정보를 실시간 수집하고, 작업자의 위치 정보와 미리 설정된 작업자 단말별 기준 위치 정보를 비교하여 작업자 동선 및 출입내역을 모니터링할 수 있다. The worker location monitoring unit 330 may collect the location information of the worker in real time, compare the location information of the worker with preset reference location information for each worker terminal, and monitor the worker movement and entry/exit details.

작업자 위치 모니터링부(330)는 한 실시예로서, 작업자의 비인가 구역 출입이 발생하면, 이동식 무인감시로봇(210)에게 비인가 구역 출입이 발생한 작업자의 위치 정보를 송신할 수 있고, 이동식 무인감시로봇(210)은 비인가 구역 출입이 발생한 작업자의 위치로 이동하여 영상 정보를 생성하고 음성 데이터를 수집할 수 있다. The worker location monitoring unit 330 is an embodiment, and when a worker enters an unauthorized area, it can transmit the location information of the worker who has entered the unauthorized area to the mobile unmanned monitoring robot 210, and a mobile unmanned monitoring robot ( 210) may move to the location of the worker who has entered the unauthorized area to generate image information and collect audio data.

작업자 위치 모니터링부(330)는 한 실시예로서, 종합 분석부(320)를 통해 재설정된 위험 구역에 위치하는 작업자 단말(700)에게 알림 메시지를 송신할 수 있다.The operator position monitoring unit 330 may transmit a notification message to the operator terminal 700 located in the reset danger zone through the comprehensive analysis unit 320 as an embodiment.

작업자 위치 모니터링부(330)는 작업자 단말(700)로부터 GPS 정보를 실시간 수신할 수 있고, 작업자의 의류, 신발, 또는 모자에 부착되는 비콘으로부터 위치 정보를 실시간 수신할 수 있으며, 작업자 단말(700)로부터 AP 정보를 실시간 수신할 수 있다. The worker location monitoring unit 330 may receive GPS information from the worker terminal 700 in real time, and may receive location information from a beacon attached to the worker's clothing, shoes, or hat in real time, the worker terminal 700 . AP information can be received in real time.

작업자 위치 모니터링부(330)는 한 실시예로서, 사용자 단말(600)에 설치된 앱을 통해 작업자의 위치 정보, 작업자 동선 및 출입내역을 디스플레이할 수 있다.As an embodiment, the worker location monitoring unit 330 may display the location information of the worker, the worker movement line, and the entry/exit details through an app installed in the user terminal 600 .

종합 감시 서버(300)는 한 실시예로서, 감시구역의 위험등급 및 장비등급에 따라 이동식 무인감시로봇(210)의 감시 시간을 다르게 설정할 수 있다. 예를 들어, 종합 감시 서버(300)는 위험등급 및 장비등급이 높은 감시구역의 경우 이동식 무인감시로봇(210)의 감시 시간을 길게 설정할 수 있고, 위험등급 및 장비등급이 낮은 감시구역의 경우 이동식 무인감시로봇(210)의 감시 시간을 짧게 설정할 수 있다.The comprehensive monitoring server 300 may set the monitoring time of the mobile unmanned monitoring robot 210 differently according to the risk level and equipment level of the monitoring area as an embodiment. For example, the comprehensive monitoring server 300 may set a longer monitoring time of the mobile unmanned monitoring robot 210 in the case of a monitoring area with a high risk level and equipment level, and a movable type in the case of a monitoring area with a low risk level and equipment level. The monitoring time of the unmanned monitoring robot 210 can be set to be short.

영상 저장 서버(400)는 고정식 촬영 장치(110)로부터 수신하는 제1 영상 정보, 이동식 무인감시로봇(210)으로부터 수신하는 제2 영상 정보를 저장할 수 있다. 영상 저장 서버(400)는 작업자 단말(700)로부터 영상 정보 제공 요청 메시지를 수신하면, 작업자 단말(700)에게 제1 영상 정보 및 제2 영상 정보를 포함하는 메시지를 송신할 수 있다.The image storage server 400 may store the first image information received from the stationary photographing device 110 and the second image information received from the mobile unmanned surveillance robot 210 . When the image storage server 400 receives the image information provision request message from the operator terminal 700 , the image storage server 400 may transmit a message including the first image information and the second image information to the operator terminal 700 .

뷰어 관리 서버(500)는 무선으로 연결된 디스플레이 장치를 통해 제1 영상 정보 및 제2 영상 정보를 출력할 수 있다.The viewer management server 500 may output the first image information and the second image information through a wirelessly connected display device.

사용자 단말(600)은 앱 또는 웹을 통해 관리자 내지 현장 운전원이 종합 감시 서버(300)에 연결될 수 있다. 사용자 단말(600)은 앱 또는 웹을 통해 종합 감시 서버(300)에게 이동식 무인감시로봇(210)의 이동 경로 및 감시구역 설정을 요청하는 메시지를 송신할 수 있다.The user terminal 600 may be connected to the general monitoring server 300 by an administrator or a field operator through an app or a web. The user terminal 600 may transmit a message requesting the setting of the movement path and monitoring area of the mobile unmanned monitoring robot 210 to the comprehensive monitoring server 300 through the app or the web.

작업자 단말(700)은 종합 감시 서버(300)에게 GPS 정보 또는 와이파이를 통해 연결된 AP(Access Point) 정보를 송신할 수 있다.The worker terminal 700 may transmit GPS information or AP (Access Point) information connected through Wi-Fi to the comprehensive monitoring server 300 .

사용자 단말(600) 및 작업자 단말(700)은 한 실시예로서, 이동 통신 단말기, 데스크톱 컴퓨터, 노트북 컴퓨터, 워크스테이션, 팜톱(palmtop) 컴퓨터, 개인 휴대 정보 단말기(Personal Digital Assistant, PDA), 웹 패드 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다.The user terminal 600 and the operator terminal 700 are, as an embodiment, a mobile communication terminal, a desktop computer, a notebook computer, a workstation, a palmtop computer, a personal digital assistant (PDA), a web pad. It may be a digital device equipped with a memory means, such as a microprocessor, and equipped with computational capability.

화재 감지 장치(800)는 미리 지정된 감시구역에 배치되며, 특정 공간(예, 산업플랜트) 내 장비의 화재 발생 여부를 모니터링할 수 있다. 화재 감지 장치(800)는 한 실시예로서, 카메라 및 화재 감지 센서를 포함할 수 있고, 영상 정보 및 센서 정보에 기반하여 화재 발생 여부를 판단할 수 있다.The fire detection device 800 is disposed in a pre-designated monitoring area, and can monitor whether equipment in a specific space (eg, an industrial plant) has a fire. As an embodiment, the fire detection device 800 may include a camera and a fire detection sensor, and may determine whether a fire has occurred based on image information and sensor information.

종합 감시 서버(300)는 한 실시예로서, 화재 감지 장치(800)로부터 수신하는 제2 센서 정보에 기반하여 제2 특정 공간(예, 도 5의 19구역) 내 장비에 화재가 발생한 것으로 판단되면, 이동식 무인감시로봇(210)에게 제2 특정 공간 내 장비의 위치 정보를 송신할 수 있고, 제2 특정 공간에 설치된 스피커를 통해 경보음을 출력할 수 있다. 이동식 무인감시로봇(210)은 화재가 발생한 감시구역의 위치(예, 도 5의 19구역)로 이동하여 영상 정보를 생성하고 음성 데이터를 수집할 수 있다. 이때, 작업자 위치 모니터링부(330)는 제2 특정 공간 내 장비의 위치 정보에 기반하여 위험 구역을 재설정하고, 재설정된 위험 구역에 위치하는 작업자 단말(700)에게 알림 메시지를 송신할 수 있다.The comprehensive monitoring server 300 is an embodiment, when it is determined that a fire has occurred in the equipment in the second specific space (eg, area 19 in FIG. 5 ) based on the second sensor information received from the fire detection device 800 . , it is possible to transmit the location information of the equipment in the second specific space to the mobile unmanned monitoring robot 210, and output an alarm sound through a speaker installed in the second specific space. The mobile unmanned monitoring robot 210 may move to the location of the monitoring area where the fire occurred (eg, area 19 in FIG. 5 ) to generate image information and collect voice data. In this case, the operator position monitoring unit 330 may reset the danger zone based on the location information of the equipment in the second specific space, and transmit a notification message to the operator terminal 700 located in the reset danger zone.

종합 분석부(320)는 한 실시예로서, 제2 특정 공간(예, 도 5의 19구역) 내 장비에 화재가 발생한 것으로 판단되면, 이동식 무인감시로봇(210)에게 제2 특정 공간 내 장비의 위치 정보를 송신할 수 있고, 이동식 무인감시로봇(210)은 제2 특정 공간 내 장비의 위치로 이동하여 영상 정보를 생성하고 음성 데이터를 수집할 수 있다. 화재 감지 장치(800)는 한 실시예로서, 유무선 통신을 이용하여 종합 감시 서버(300)와 데이터를 송수신하는 통신 모듈을 포함할 수 있다.The comprehensive analysis unit 320, as an embodiment, when it is determined that a fire has occurred in the equipment in the second specific space (eg, area 19 in FIG. 5 ), tells the mobile unmanned monitoring robot 210 of the equipment in the second specific space. The location information may be transmitted, and the mobile unmanned surveillance robot 210 may move to the location of the equipment in the second specific space to generate image information and collect voice data. As an embodiment, the fire detection device 800 may include a communication module for transmitting and receiving data to and from the comprehensive monitoring server 300 using wired/wireless communication.

종합 분석부(320)는 한 실시예로서, 화재 감지 장치(800)로부터 수신하는 화재 발생 위치 정보(예, 화재 감지 장치(800)가 배치된 감시구역의 위치 정보)에 기반하여, 복수의 고정식 촬영 장치(110)(예, 도 5의 1 내지 33구역 각각에 설치된 고정식 촬영 장치) 중 적어도 하나의 고정식 촬영 장치(110)를 선택하고, 선택된 고정식 촬영 장치(110)(예, 도 5의 19구역에 설치된 고정식 촬영 장치)의 위치 정보를 바탕으로 화재 발생 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 거리, 방향, 회전 각도 및 틸트 각도를 고정식 촬영 장치 운영 서버(120)에게 송신할 수 있다. 이때, 고정식 촬영 장치 운영 서버(120)는 선택된 고정식 촬영 장치(110)에게 거리, 방향, 회전 각도 및 틸트 각도를 송신하며, 선택된 고정식 촬영 장치(110)는 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 제1 영상 정보를 생성할 수 있다.The comprehensive analysis unit 320 is an embodiment, based on the fire occurrence location information received from the fire detection device 800 (eg, location information of the monitoring area in which the fire detection device 800 is disposed), a plurality of fixed At least one fixed photographing device 110 is selected from among the photographing devices 110 (eg, fixed photographing devices installed in each of zones 1 to 33 of FIG. 5 ), and the selected fixed photographing device 110 (eg, 19 of FIG. 5 ) is selected. Based on the location information of the stationary imaging device installed in the area), the distance, direction, rotation angle and tilt angle for the location of the fire are calculated, and the distance, direction, rotation angle and tilt angle are provided to the stationary imaging device operation server 120 . can send At this time, the stationary imaging device operation server 120 transmits the distance, direction, rotation angle and tilt angle to the selected stationary imaging device 110 , and the selected stationary imaging device 110 sets the distance, direction, rotation angle and tilt angle. Based on the background, horizontal or vertical rotation or zoom-in or zoom-out operation may be performed, and first image information may be generated.

종합 분석부(320)는 한 실시예로서, 화재 감지 장치(800)로부터 수신하는 화재 발생 위치 정보(예, 화재 감지 장치(800)가 배치된 감시구역의 위치 정보)에 기반하여, 복수의 이동식 무인감시로봇(210)(예, 도 5의 1 내지 33구역 각각에 설치된 레일에 배치된 이동식 무인감시로봇) 중 적어도 하나의 이동식 무인감시로봇(210)을 선택하고, 선택된 이동식 무인감시로봇(210)(예, 도 5의 16구역에 배치된 이동식 무인감시로봇)의 위치 정보를 바탕으로 화재 발생 위치에 대한 이동 거리 및 이동 방향을 산출하고, 이동 거리 및 이동 방향을 이동식 무인감시로봇 운영 서버(220)에게 송신할 수 있다. 이때, 이동식 무인감시로봇 운영 서버(220)는 선택된 이동식 무인감시로봇(210)에게 이동 거리 및 이동 방향을 송신하며, 선택된 이동식 무인감시로봇(210)은 이동 거리 및 이동 방향을 바탕으로 화재 발생 위치까지 이동하여 제2 영상 정보를 생성할 수 있다. 이동식 무인감시로봇(210)은 한 실시예로서, 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 제2 영상 정보를 생성할 수 있다.The comprehensive analysis unit 320 is an embodiment, based on the location information of the fire (eg, location information of the monitoring area in which the fire detection device 800 is disposed) received from the fire detection device 800, a plurality of mobile At least one mobile unmanned surveillance robot 210 is selected among the unmanned surveillance robots 210 (eg, mobile unmanned surveillance robots installed on rails installed in each of zones 1 to 33 in FIG. 5), and the selected mobile unmanned surveillance robot 210 ) (e.g., a mobile unmanned surveillance robot placed in the 16th area of Fig. 5) calculates the movement distance and movement direction for the location of the fire based on the location information, and sets the movement distance and movement direction to the mobile unmanned surveillance robot operation server ( 220) can be sent. At this time, the mobile unmanned surveillance robot operation server 220 transmits the moving distance and the moving direction to the selected mobile unmanned surveillance robot 210, and the selected mobile unmanned surveillance robot 210 is the location of the fire based on the moving distance and the moving direction. , to generate second image information. As an embodiment, the mobile unmanned surveillance robot 210 may rotate in a horizontal or vertical direction or perform a zoom-in or zoom-out operation, and may generate second image information.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.

Claims (6)

미리 지정된 감시구역을 촬영하는 복수의 고정식 촬영 장치,
상기 복수의 고정식 촬영 장치에게 운전 명령을 송신하고, 상기 복수의 고정식 촬영 장치로부터 제1 영상 정보를 수신하는 고정식 촬영 장치 운영 서버,
고정된 레일을 따라 이동하고, 미리 지정된 복수의 감시구역을 모니터링하는 복수의 이동식 무인감시로봇,
상기 복수의 이동식 무인감시로봇에게 운전 명령을 송신하고, 상기 복수의 이동식 무인감시로봇으로부터 제2 영상 정보 및 제1 센서 정보를 수신하는 이동식 무인감시로봇 운영 서버,
상기 제1 영상 정보 및 상기 제2 영상 정보를 저장하는 영상 저장 서버,
작업자 단말로부터 특정 공간 내 작업자의 위치 정보를 수신하고, 상기 작업자 단말에게 안내 정보를 송신하는 작업자 위치 정보 서버,
미리 지정된 감시구역에 배치되며, 특정 공간 내 장비의 화재 발생 여부를 모니터링하는 화재 감지 장치, 그리고
상기 고정식 촬영 장치 운영 서버로부터 수신하는 상기 제1 영상 정보, 상기 이동식 무인감시로봇 운영 서버로부터 수신하는 상기 제2 영상 정보 및 상기 제1 센서 정보, 및 상기 화재 감지 장치로부터 수신하는 제2 센서 정보에 기반하여, 특정 공간 내 장비의 화재 또는 이상 발생 여부를 판단하고, 상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여 작업자 동선 및 출입내역을 모니터링하는 종합 감시 서버
를 포함하고,
상기 복수의 이동식 무인감시로봇은,
미리 입력된 학습 데이터를 바탕으로 기계 학습을 수행하고, 영상 촬영부를 통해 생성된 영상 데이터를 입력 변수로 하는 기계 학습 알고리즘을 이용하여, 감시구역 내 장비의 화재 발생 여부를 판단하는 화재 감시부를 포함하고,
상기 종합 감시 서버는 특정 공간 내 장비의 화재 또는 이상 발생 여부에 따라 이전에 설정된 위험 구역을 재설정하며,
상기 레일은 특정 공간 내의 천정으로부터 일정거리 떨어진 위치에 설치되는 통합 안전 관제 시스템.
a plurality of stationary imaging devices to photograph a pre-specified surveillance area;
a stationary imaging device operating server for transmitting a driving command to the plurality of stationary imaging devices and receiving first image information from the plurality of stationary imaging devices;
A plurality of mobile unmanned surveillance robots that move along a fixed rail and monitor a plurality of pre-designated surveillance areas;
A mobile unmanned surveillance robot operating server that transmits a driving command to the plurality of mobile unmanned surveillance robots and receives second image information and first sensor information from the plurality of mobile unmanned surveillance robots;
an image storage server for storing the first image information and the second image information;
A worker location information server that receives the location information of the worker in a specific space from the worker terminal and transmits guide information to the worker terminal,
A fire detection device that is placed in a pre-designated monitoring area and monitors the occurrence of fire in a specific space; and
The first image information received from the stationary photographing device operation server, the second image information and the first sensor information received from the mobile unmanned surveillance robot operation server, and the second sensor information received from the fire detection device Comprehensive monitoring server that determines whether fire or abnormality occurs in equipment in a specific space based on the
including,
The plurality of mobile unmanned surveillance robots,
A fire monitoring unit that performs machine learning based on the learning data input in advance and determines whether a fire has occurred in the equipment in the monitoring area using a machine learning algorithm that uses the image data generated through the image capturing unit as an input variable, ,
The comprehensive monitoring server resets the previously set danger zone according to whether a fire or abnormality occurs in the equipment in a specific space,
The rail is an integrated safety control system that is installed at a certain distance away from the ceiling in a specific space.
제1항에서,
상기 종합 감시 서버는,
상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여, 상기 복수의 고정식 촬영 장치 중 적어도 하나의 고정식 촬영 장치를 선택하고, 선택된 고정식 촬영 장치의 위치 정보를 바탕으로 작업자 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 상기 거리, 방향, 회전 각도 및 틸트 각도를 상기 고정식 촬영 장치 운영 서버에게 송신하고,
상기 고정식 촬영 장치 운영 서버는 상기 선택된 고정식 촬영 장치에게 상기 거리, 방향, 회전 각도 및 틸트 각도를 송신하며,
상기 선택된 고정식 촬영 장치는 상기 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 상기 제1 영상 정보를 생성하는, 통합 안전 관제 시스템.
In claim 1,
The comprehensive monitoring server,
Based on the location information of the worker received from the worker location information server, at least one stationary photographing device is selected from among the plurality of fixed photographing devices, and based on the location information of the selected fixed photographing device, the distance to the operator's location; calculating a direction, a rotation angle, and a tilt angle, and transmitting the distance, direction, rotation angle and tilt angle to the stationary photographing device operation server;
The stationary imaging device operation server transmits the distance, direction, rotation angle and tilt angle to the selected stationary imaging device,
The selected fixed photographing device rotates horizontally or vertically based on the distance, direction, rotation angle and tilt angle, performs a zoom-in or zoom-out operation, and generates the first image information.
제1항에서,
상기 종합 감시 서버는,
상기 작업자 위치 정보 서버로부터 수신하는 상기 작업자의 위치 정보에 기반하여, 상기 복수의 이동식 무인감시로봇 중 적어도 하나의 이동식 무인감시로봇을 선택하고, 선택된 이동식 무인감시로봇의 위치 정보를 바탕으로 작업자 위치에 대한 이동 거리 및 이동 방향을 산출하고, 상기 이동 거리 및 이동 방향을 상기 이동식 무인감시로봇 운영 서버에게 송신하고,
상기 이동식 무인감시로봇 운영 서버는 상기 선택된 이동식 무인감시로봇에게 상기 이동 거리 및 이동 방향을 송신하며,
상기 선택된 이동식 무인감시로봇은 상기 이동 거리 및 이동 방향을 바탕으로 작업자 위치까지 이동하여 상기 제2 영상 정보를 생성하는, 통합 안전 관제 시스템.
In claim 1,
The comprehensive monitoring server,
Based on the location information of the worker received from the worker location information server, at least one mobile unmanned surveillance robot is selected from among the plurality of mobile unmanned surveillance robots, and based on the location information of the selected mobile unmanned surveillance robot, to the worker location calculates the moving distance and the moving direction, and transmits the moving distance and moving direction to the mobile unmanned surveillance robot operation server;
The mobile unmanned surveillance robot operation server transmits the moving distance and the moving direction to the selected mobile unmanned surveillance robot,
The selected mobile unmanned surveillance robot moves to a position of a worker based on the moving distance and moving direction to generate the second image information.
제1항에서,
상기 종합 감시 서버는,
상기 제1 영상 정보 및 상기 제2 영상 정보를 분석하여 제1 특정 공간 내 작업자의 유무, 및 상기 제1 특정 공간의 위치 정보를 도출하고,
상기 제1 특정 공간 내 작업자가 인식되면, 작업자가 인식된 상기 제1 특정 공간의 위치 정보와 상기 작업자 위치 정보 서버로부터 상기 제1 특정 공간 내 인식된 작업자의 작업자 단말로부터 수신되는 작업자의 위치 정보를 비교하고,
작업자가 인식된 상기 제1 특정 공간의 위치 정보와 상기 제1 특정 공간 내 인식된 작업자의 작업자 단말로부터 수신되는 작업자의 위치 정보가 일치하지 않으면, 상기 제1 특정 공간에 설치된 스피커를 통해 경보음을 출력하는, 통합 안전 관제 시스템.
In claim 1,
The comprehensive monitoring server,
By analyzing the first image information and the second image information, the presence or absence of an operator in the first specific space and location information of the first specific space are derived,
When a worker in the first specific space is recognized, the location information of the first specific space recognized by the worker and the location information of the worker received from the worker terminal of the worker recognized in the first specific space from the worker location information server compare,
If the location information of the first specific space recognized by the worker and the location information of the worker received from the worker terminal of the worker recognized in the first specific space do not match, an alarm sounds through a speaker installed in the first specific space Discharge, integrated safety control system.
제1항에서,
상기 종합 감시 서버는,
상기 화재 감지 장치로부터 수신하는 화재 발생 위치 정보에 기반하여, 상기 복수의 고정식 촬영 장치 중 적어도 하나의 고정식 촬영 장치를 선택하고, 선택된 고정식 촬영 장치의 위치 정보를 바탕으로 화재 발생 위치에 대한 거리, 방향, 회전 각도 및 틸트 각도를 산출하고, 상기 거리, 방향, 회전 각도 및 틸트 각도를 상기 고정식 촬영 장치 운영 서버에게 송신하고,
상기 고정식 촬영 장치 운영 서버는 상기 선택된 고정식 촬영 장치에게 상기 거리, 방향, 회전 각도 및 틸트 각도를 송신하며,
상기 선택된 고정식 촬영 장치는 상기 거리, 방향, 회전 각도 및 틸트 각도를 바탕으로 수평 또는 수직방향으로 회전하거나 줌인 또는 줌아웃 동작을 수행하고, 상기 제1 영상 정보를 생성하는, 통합 안전 관제 시스템.
In claim 1,
The comprehensive monitoring server,
Based on the fire occurrence location information received from the fire detection device, at least one fixed photographing device is selected from among the plurality of fixed photographing devices, and the distance and direction to the location of the fire based on the location information of the selected fixed photographing device , calculating a rotation angle and a tilt angle, and transmitting the distance, direction, rotation angle and tilt angle to the stationary photographing device operation server,
The stationary imaging device operation server transmits the distance, direction, rotation angle and tilt angle to the selected stationary imaging device,
The selected fixed photographing device rotates horizontally or vertically based on the distance, direction, rotation angle and tilt angle, performs a zoom-in or zoom-out operation, and generates the first image information.
제1항에서,
상기 종합 감시 서버는,
상기 화재 감지 장치로부터 수신하는 화재 발생 위치 정보에 기반하여, 상기 복수의 이동식 무인감시로봇 중 적어도 하나의 이동식 무인감시로봇을 선택하고, 선택된 이동식 무인감시로봇의 위치 정보를 바탕으로 화재 발생 위치에 대한 이동 거리 및 이동 방향을 산출하고, 상기 이동 거리 및 이동 방향을 상기 이동식 무인감시로봇 운영 서버에게 송신하고,
상기 이동식 무인감시로봇 운영 서버는 상기 선택된 이동식 무인감시로봇에게 상기 이동 거리 및 이동 방향을 송신하며,
상기 선택된 이동식 무인감시로봇은 상기 이동 거리 및 이동 방향을 바탕으로 화재 발생 위치까지 이동하여 상기 제2 영상 정보를 생성하는, 통합 안전 관제 시스템.
In claim 1,
The comprehensive monitoring server,
Based on the fire occurrence location information received from the fire detection device, at least one mobile unmanned surveillance robot is selected from among the plurality of mobile unmanned surveillance robots, and based on the location information of the selected mobile unmanned surveillance robot, the location of the fire is determined. Calculating the moving distance and moving direction, and transmitting the moving distance and moving direction to the mobile unmanned surveillance robot operation server,
The mobile unmanned surveillance robot operation server transmits the moving distance and the moving direction to the selected mobile unmanned surveillance robot,
The selected mobile unmanned surveillance robot moves to a fire location based on the moving distance and moving direction to generate the second image information.
KR1020210039463A 2021-03-26 2021-03-26 Integrated safety control system using mobile unmanned robot KR102345421B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210039463A KR102345421B1 (en) 2021-03-26 2021-03-26 Integrated safety control system using mobile unmanned robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210039463A KR102345421B1 (en) 2021-03-26 2021-03-26 Integrated safety control system using mobile unmanned robot

Publications (1)

Publication Number Publication Date
KR102345421B1 true KR102345421B1 (en) 2021-12-30

Family

ID=79178473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039463A KR102345421B1 (en) 2021-03-26 2021-03-26 Integrated safety control system using mobile unmanned robot

Country Status (1)

Country Link
KR (1) KR102345421B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102447369B1 (en) 2022-06-13 2022-09-27 주식회사 디코엔 Mobile IOT rail robot monitoring system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101097730B1 (en) * 2010-09-29 2011-12-22 주식회사 지원플러스시스템 Monitoring system using rail cam robot
KR20140122322A (en) * 2013-04-09 2014-10-20 퍼스텍주식회사 Security System for Monitoring Facilities
KR101775393B1 (en) * 2017-04-27 2017-09-06 주식회사 열림이텍 Control Unit for Security and Safety Management in Electric Power Facility

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101097730B1 (en) * 2010-09-29 2011-12-22 주식회사 지원플러스시스템 Monitoring system using rail cam robot
KR20140122322A (en) * 2013-04-09 2014-10-20 퍼스텍주식회사 Security System for Monitoring Facilities
KR101775393B1 (en) * 2017-04-27 2017-09-06 주식회사 열림이텍 Control Unit for Security and Safety Management in Electric Power Facility

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102447369B1 (en) 2022-06-13 2022-09-27 주식회사 디코엔 Mobile IOT rail robot monitoring system
KR102447376B1 (en) 2022-06-13 2022-09-28 주식회사 디코엔 IOT rail robot for monitoring

Similar Documents

Publication Publication Date Title
KR102237432B1 (en) System for monitoring power plant using mobile unmanned robot
KR101910480B1 (en) Closed-space monitoring system based on IoT network
KR101949525B1 (en) Safety management system using unmanned detector
KR101223680B1 (en) Smart type fire monitoring and detecting system
KR101251942B1 (en) Forest fire monitiring system and control method thereof
KR102219598B1 (en) Fire monitoring system for field equipment
KR101775463B1 (en) Fire supervisory apparatus to be installed on building and unite management system having the same
KR101843993B1 (en) Safety management system for workers of a site including sealed area
KR101723283B1 (en) Worker Behavior Based Safety Management System and Method
KR101431424B1 (en) Plant system for supporting operation/maintenance using smart helmet capable of bi-directional communication and method thereof
KR102096175B1 (en) Ceiling rail type IoT based surveillance robot device
KR101403465B1 (en) Switchboard Integration Management system based mobile app.
KR101200268B1 (en) Composite fire sensor device based on image for active evacuation and rescue and system using the same
KR102233351B1 (en) Management system and method for facility management based on 3d lidar
KR102345421B1 (en) Integrated safety control system using mobile unmanned robot
JP2012168683A (en) On-site operation support system, device, method and program
KR20220085125A (en) Safety management system using unmanned detector
KR20220061312A (en) Deep learning based building management system with rail robot device
KR20140122779A (en) location based integrated control system
KR20150083480A (en) System for managing facilities by using 3d stereoscopic images
KR101396459B1 (en) A monitoring system of cctv operation state
KR20200134651A (en) System and method for alarming indoor fire prevention
KR100962612B1 (en) Tracking and watching system using real time distance detecting
EP3425467A1 (en) Plant-monitoring system and monitoring method
KR20100001685A (en) System and method for monitoring underground common tunnel

Legal Events

Date Code Title Description
GRNT Written decision to grant