KR102504330B1 - 피난약자 실시간 피난 유도 시스템 - Google Patents

피난약자 실시간 피난 유도 시스템 Download PDF

Info

Publication number
KR102504330B1
KR102504330B1 KR1020220078570A KR20220078570A KR102504330B1 KR 102504330 B1 KR102504330 B1 KR 102504330B1 KR 1020220078570 A KR1020220078570 A KR 1020220078570A KR 20220078570 A KR20220078570 A KR 20220078570A KR 102504330 B1 KR102504330 B1 KR 102504330B1
Authority
KR
South Korea
Prior art keywords
information
evacuation
unit
accident
building
Prior art date
Application number
KR1020220078570A
Other languages
English (en)
Inventor
김준연
Original Assignee
뉴인테크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴인테크 주식회사 filed Critical 뉴인테크 주식회사
Priority to KR1020220078570A priority Critical patent/KR102504330B1/ko
Application granted granted Critical
Publication of KR102504330B1 publication Critical patent/KR102504330B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • G08B7/066Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources guiding along a path, e.g. evacuation path lighting strip
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0019End effectors other than grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/10Actuation by presence of smoke or gases, e.g. automatic alarm devices for analysing flowing fluid materials by the use of optical means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Abstract

본 발명에서는 감시공간이나 감시구역을 연속적으로 촬영하여 감시 영상정보를 생성하고 ID가 각각 부여된 다수의 감시카메라, 주변의 환경 변화를 감지하고 ID가 각각 부여된 다수의 센서 모듈, 건물 내부에 설치되고 피난을 위한 영상 및 음성정보를 출력하는 다수의 대피유도단말기, 건물 내부에서 관제 서버와 무선으로 데이터, 영상 및 음성 신호를 주고받고, 피난을 위한 영상 및 음성정보를 출력하는 다수의 자율주행 로봇 및 상기 각 감시카메라에서 촬영한 감시 영상정보 및 상기 각 센서 모듈로부터 감지 신호를 수집·분석하여 사고 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 안전하게 대피 장소에 도달하기 위한 대피 경로를 산정·생성하여 저장하며, 생성된 대피 경로에 따라 상기 각 대피유도단말기 및 상기 각 자율주행 로봇을 제어하고, 이를 통하여 피난을 위한 영상 및 음성정보를 제공하는 관제 서버를 포함하는 실시간 피난 유도 시스템을 개시한다.

Description

피난약자 실시간 피난 유도 시스템{Realtime Evacuation Guidance System}
본 발명은 재난 상황 발생 시 안전한 장소로 신속한 대피 및 피난을 유도하여 사고로 인한 인명 피해를 최소화하는 실시간 피난 유도 시스템에 관한 것으로서, 더욱 상세하게는 병원이나 요양기관 등의 피난약자이용시설에서 화재, 가스누설 등 위험한 상황이 발생하면 사고 이벤트 발생 현장의 상황과 온도, 연기, 산소농도, 유해가스 등을 감지하고, 이를 관제센터로 전송하여 가장 가까운 비상구나 피난통로로 대피를 위한 신속한 판단에 도움을 줌은 물론 현장에서 미처 탈출하지 못한 피난약자를 안전하게 구출할 수 있는 실시간 피난 유도 시스템에 관한 것이다.
일반적으로 사람들은 화재 등 재난이 발생한 상황을 마주치게 되면 대부분 신체적 변화 등으로 인해 정상적인 판단을 하기 어렵고, 충동적으로 움직이기가 쉽다.
이에 따라 다중이용시설이나 대형 건물에는 복잡한 공간의 특수성으로 인해 비상 시 특정한 곳으로 사람들이 몰리지 않도록 분산시키고, 변화하는 상황에 따라 빠르고 안전하게 대피할 수 있도록 해주는 피난 유도 시스템을 운용하고 있다.
예컨대, 화재, 유해가스, 유독가스 등을 감지할 수 있는 센서와 초저전력 무선통신, 안전한 대피로 산출 등을 지원하는 능동형 피난 유도 시스템은 비상 시 중앙제어실은 물론 기기 간 통신에 의한 조명과 화살표, 음성 안내를 통해 지속적으로 안전한 탈출 방향을 제시하여 줌으로써 유독가스로 인하여 시야 확보가 어려운 상황에서도 대피 경로를 제공하여 인명 피해를 최소화할 수 있다.
그런데 이러한 피난 유도 시스템은 간접적으로 대피정보를 제공하는 특성상 거동이나 보행이 불편한 환자, 노약자 또는 신체상의 기능장애로 마음대로 움직일 수 없는 사람(이하, '피난약자'로 통칭함)이 많은 노인 전문병원, 요양기관(요양원), 재활센터, 장애인 복지시설 등의 피난약자이용시설에 적용할 경우 신속한 정보 파악이 어려운 현장에서 허둥대다 골든타임 내에 미처 탈출하지 못하는 피난약자가 많을 수밖에 없고, 이로 인해 효율적인 인명 대피 및 구조가 이루어지지 못하는 문제점이 있다.
즉, 피난약자이용시설의 경우 위험에 처한 피난약자의 직접적인 비상대피를 유도하지 않으면 신속한 탈출이 어려워 대형 참사로 이어질 가능성이 높은 한계가 있다.
여기서 상술한 배경기술 또는 종래기술은 본 발명자가 보유하거나 본 발명을 도출하는 과정에서 습득한 정보로서 본 발명의 기술적 의의를 이해하는데 도움이 되기 위한 것일 뿐, 본 발명의 출원 전에 이 발명이 속하는 기술분야에서 널리 알려진 기술을 의미하는 것은 아님을 밝힌다.
KR 10-2010-0049777 A(2010.05.13) KR 10-2124097 B1(2020.06.11)
이에 본 발명자는 상술한 제반 사항을 종합적으로 고려함과 동시에 기존의 피난 유도 시스템 기술이 지닌 기술적 한계 및 문제점들을 해결하려는 발상에서, 피난약자이용시설의 안전하고 신뢰도 높은 피난 환경을 구축하여 화재나 가스누설 등 위험한 상황이 발생하면 사고 이벤트 발생 현장에서 안전한 장소로 피난약자의 신속한 대피 및 피난을 직접적으로 유도하여 사고로 인한 인명 피해를 최소화하는 효과를 도모할 수 있는 새로운 구조의 피난약자이용시설용 실시간 피난 유도 시스템을 개발하고자 각고의 노력을 기울여 부단히 연구하던 중 그 결과로써 본 발명을 창안하게 되었다.
따라서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 위험 상황 발생 시 피난약자의 신속하고 안전한 대피 및 피난을 직접적으로 유도할 수 있도록 하는 피난약자 실시간 피난 유도 시스템을 제공하는 데 있는 것이다.
여기서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 이상에서 언급한 기술적 과제 및 목적으로 국한하지 않으며, 언급하지 않은 또 다른 기술적 과제 및 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.
상술한 바와 같은 본 발명의 기술적 과제를 해결하기 위한 새로운 착상을 구체화하면서 특정의 기술적 목적을 효과적으로 달성하기 위한 본 발명의 실시 태양(aspect)에 따른 구체적인 수단은, 감시공간이나 감시구역을 연속적으로 촬영하여 감시 영상정보를 생성하고 ID가 각각 부여된 복수의 감시카메라, 주변의 환경 변화를 감지하고 ID가 각각 부여된 복수의 센서 모듈, 건물 내부에 설치되고 피난을 위한 영상 및 음성정보를 출력하는 복수의 대피유도단말기, 건물 내부에서 관제 서버와 무선으로 데이터, 영상 및 음성 신호를 주고받고, 사고 이벤트 발생 시 피난을 위한 영상 및 음성정보를 출력하는 복수의 자율주행 로봇 및 상기 각 감시카메라에서 촬영한 감시 영상정보 및 상기 각 센서 모듈로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 사고 이벤트 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 안전하게 대피 장소에 도달하기 위한 대피 경로를 산정·생성하여 저장하며, 생성된 대피 경로에 따라 상기 각 대피유도단말기 및 상기 각 자율주행 로봇을 제어하고, 이를 통하여 피난을 위한 영상 및 음성정보를 제공하는 관제 서버를 포함하여 채용하는 것을 특징으로 하는 피난약자 실시간 피난 유도 시스템을 제시한다.
이로써 본 발명은 피난약자이용시설의 안전하고 신뢰도 높은 피난 환경을 구축하여 화재나 가스누설 등 사고 이벤트 발생 현장에서 안전한 장소로 피난약자의 신속한 대피 및 피난을 직접적으로 유도하여 사고로 인한 인명 피해를 최소화할 수 있다.
또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 자율주행 로봇은, 상기 관제 서버로부터 사고 이벤트 발생에 관한 정보를 수신하면 건물의 내부를 이동하면서 연속적으로 촬영하여 영상정보를 생성하는 카메라 모듈, 사람의 움직임을 검출·인식하는 움직임 센서, 상기 카메라 모듈을 통해 입력되는 영상정보 및 상기 움직임 센서를 통해 입력되는 움직임 정보를 기반으로 하여 건물 내 층별로 사람의 위치정보를 파악하는 위치확인 모듈, 상기 관제 서버로부터 전송받은 피난을 위한 영상 및 음성정보를 화면에 표시하는 디스플레이 및 상기 관제 서버와 무선으로 데이터, 영상 및 음성 신호를 송수신하기 위한 무선통신 모듈을 포함하여 구성될 수 있다.
또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 관제 서버는, 상기 각 자율주행 로봇으로부터 수신되는 영상정보와 GPS 기반의 위치정보를 실시간으로 인식하는 위치인식부, 상기 각 감시카메라에서 촬영한 감시 영상정보 및 상기 각 센서 모듈로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 사고 이벤트 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 상기 각 대피유도단말기 및 상기 각 자율주행 로봇의 현재 위치에서 안전하게 가장 가까운 비상구로 유도하기 위한 최적의 대피 경로를 생성하는 경로선택처리부, 상기 경로선택처리부에서 생성된 대피 경로에 따라 알림 및 피난을 위한 영상정보와 음성정보를 상기 각 대피유도단말기 및 상기 각 자율주행 로봇에 제공하는 대피정보제공부, 상기 각 감시카메라에서 촬영한 감시 영상정보 및 상기 각 센서 모듈로부터 감지 신호를 수집·분석하여 파악한 사고 발생 현장과 상기 경로선택처리부에서 생성된 대피 경로를 실시간으로 보여주는 모니터링부, 상기 각 자율주행 로봇의 위치정보를 상기 모니터링부에 표시하도록 하는 GIS표시부, 상기 각 자율주행 로봇의 전반적인 작동을 제어하는 제어부, 상기 각 자율주행 로봇과 무선으로 데이터 통신을 하는 데이터통신부 및 상기 경로선택처리부에서 사고 이벤트 발생을 감지할 경우 상기 각 자율주행 로봇과 양방향 화상통신으로 연결하는 채널을 생성하는 채널생성부를 포함하여 구성됨으로써 정확한 대피로를 파악하고 신속한 탈출을 유도할 수 있다.
또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 자율주행 로봇의 위치확인 모듈은, 건물 내 피난약자에게 부착된 무선송신기에서 송신하는 무선주파수 신호를 수신하여 무선송신기에서 상기 자율주행 로봇까지의 거리를 측정하여 상기 관제 서버로 전송하고, 상기 관제 서버의 제어부는 상기 자율주행 로봇까지의 거리를 측정값에 기초하여 해당 피난약자와 최단 거리에 위치하는 상기 자율주행 로봇이 해당 피난약자를 향해 이동하도록 제어할 수 있다.
또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 관제 서버의 상기 경로선택처리부는, 건물의 공간정보를 3차원으로 구현하여 제공하는 공간정보제공부, 상기 각 감시카메라로부터 영상정보 및 상기 각 센서 모듈로부터 감지 신호를 수집·분석하여 사고 발생 현장의 위치를 실시간으로 파악하는 사고위치파악부, 사고 발생 현장에 대한 위치정보를 건물의 공간정보에 반영하여 3차원 공간으로 만들어진 이미지를 생성하는 사고구역생성부, 상기 센서 모듈의 환경 변화 감지 신호와 상기 사고구역생성부의 3차원 공간 이미지를 기반으로 미리 정해진 시간 내 사고 확산이 예상되는 주변 구역을 연산하여 추가로 생성하는 확산구역생성부, 사고 발생 현장과 미리 정해진 시간 내 사고 확산이 예상되는 확산예상구역을 구분하는 구역설정부, 사고 발생 현장의 위치정보와 건물의 공간정보를 기반으로 적어도 하나 이상의 비상구를 탐색하여 비상구 간 거리 데이터를 근거로 사고 발생 현장과 개개의 거리값을 계산한 후 사고 발생 현장에서 가장 가까운 비상구를 최단 거리의 대피 경로로 생성하는 대피경로생성부, 대피 경로와 사고 확산이 예상되는 확산예상구역이 일정 시간 동시에 겹쳐 생성되는 지 여부를 실시간으로 확인하는 위험경로판별부 및 대피 경로와 사고 확산이 예상되는 확산예상구역이 동시에 겹쳐 생성될 경우 대피 경로를 재생성하는 경로재생성부를 더 포함하여 구성됨으로써 더욱 안전하고 신뢰도 높은 피난 환경을 구축하여 사고로 인한 인명 피해를 최소화할 수 있다.
상기와 같은 기술적 과제를 해결하고자 특유한 해결 수단이 기초하고 있는 본 발명의 기술사상 및 실시 예(embodiment)에 따르면, 피난약자이용시설의 안전하고 신뢰도 높은 피난 환경을 구축함으로써 화재나 가스누설 등 사고 이벤트 발생 현장에서 안전한 장소로 피난약자의 신속한 대피 및 피난을 직접적으로 유도하여 사고로 인한 인명 피해를 최소화할 수 있다.
또한, 자율주행 로봇을 통해 고립되어 있는 피난약자의 정확한 위치를 확인하여 안전한 대피 경로정보를 실시간으로 정확하고 빠르게 제공함으로써 사고 이벤트 발생 현장에서 인명 구조의 효율성을 획기적으로 높일 수 있다.
여기서 본 발명의 효과들은 이상에서 언급한 효과들로 국한하지 않으며, 언급하지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.
도 1은 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 주요 요소 중 센서 모듈을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 주요 요소 중 자율주행 로봇을 개략적으로 나타낸 블록도이다.
도 4는 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 주요 요소 중 관제 서버를 개략적으로 나타낸 블록도이다.
도 5는 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 주요 요소 중 관제 서버의 경로선택처리부를 개략적으로 나타낸 블록도이다.
도 6은 본 발명의 실시 예에 따른 실시간 피난 유도 시스템이 화재 발생 시 제공하는 대피유도단말기의 화면이다.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
이에 앞서, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합되는 개념과 당해 기술분야에서 통용 또는 통상적으로 인식되는 의미로 해석하여야 함을 명시한다.
또한, 본 발명과 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
여기서 첨부된 도면들은 기술의 구성 및 작용에 대한 설명의 편의와 이해를 돕기 위해 일부분을 과장하거나 간략화하여 도시될 수 있고, 그 도면상의 각 구성요소가 실제의 크기 및 형태와 정확하게 일치하는 것은 아님을 밝힌다.
아울러 본 명세서에서 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하는 의미이며, 또 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
즉, 본 명세서에서 설시(說示)하는 '포함하다' 또는 '가지다' 등의 용어는 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해해야 한다.
아울러 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
그리고 본 발명에서 사용하는 "부" 및 "유닛"의 용어에 대한 의미는 시스템에서 목적하는 적어도 하나의 기능이나 어느 일정한 동작을 처리하는 단위 또는 역할을 하는 모듈 형태를 의미하며, 이는 하드웨어나 소프트웨어 혹은 하드웨어 및 소프트웨어의 결합 등을 통한 수단이나 독립적인 동작을 수행할 수 있는 디바이스 또는 어셈블리 등으로 구현할 수 있다.
또한, 본 발명에서 사용하는 "모듈"의 용어에 대한 의미는 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있고, 또 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있고, 또 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있고, 또 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있으며, 또 기계적으로 또는 전자적으로 구현될 수 있다.
그리고 상단, 하단, 상면, 하면, 또는 상부, 하부, 상측, 하측, 전후, 좌우 등의 용어는 각 구성요소에 있어 상대적인 위치를 구별하기 위해 편의상 사용한 것이다. 예를 들어, 도면상의 위쪽을 상부로 아래쪽을 하부로 명명하거나 지칭하고, 길이 방향을 전후 방향으로, 폭 방향을 좌우 방향으로 명명하거나 지칭할 수 있다.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있다. 즉, 제1, 제2 등의 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다. 예를 들어, 제1 구성요소는 본 발명의 보호범위를 벗어나지 않는 한에서 제2 구성요소로 명명할 수 있고, 또 제2 구성요소도 제1 구성요소로 명명할 수도 있다.
도 1 내지 도 5에 도시한 바와 같이 본 발명의 실시 예에 따른 피난약자 실시간 피난 유도 시스템은 건물 안팎에 중첩되지 않게 설치되어 있는 복수 대의 감시카메라(100)에서 얻은 영상정보와 건물 내에 중첩되지 않게 설치되어 있는 복수 개의 센서 모듈(200)에서 얻은 감지 신호 및 건물 내에 배치되어 있는 복수 대의 자율주행 로봇(400)이 카메라로 촬영하여 얻은 영상정보를 입력받아 관제 서버(500)의 화면에 표시할 수 있다.
그리고 관제 서버(500)는 복수 대의 감시카메라(100)와 각각 무선 또는 유선 네트워크를 통해 연결되어 있고, 복수 개의 센서 모듈(200)과 각각 무선 또는 유선 네트워크를 통해 연결되어 있고, 복수 대의 자율주행 로봇(400)과 무선 네트워크를 통해 데이터 통신이 가능하게 연결되어 있어 그 각각으로부터 촬영된 영상을 실시간으로 전송받거나 데이터를 송신 또는 수신할 수 있다.
여기서 네트워크는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일례에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 있으나 이에 한정하지는 않는다.
아울러 관제 서버(500)는 복수 대의 감시카메라(100)들과 복수 개의 자율주행 로봇(400)들에 대한 각각의 식별정보(ID)와 배치정보 등과 같은 각종 정보를 등록받아 저장할 수 있다.
또한, 관제 서버(500)는 각 자율주행 로봇(400)의 이동 경로, 출력할 콘텐츠의 종류, 시각, 장소 등을 설정할 수 있다.
여기서 감시카메라(100)별 정보 및 자율주행 로봇(400)별 정보는 각각에 부여된 고유 아이디 및 설치 위치정보를 포함할 수 있다.
한편, 본 발명의 실시 예에 따른 실시간 피난 유도 시스템은 시스템 장치, 서버 등의 하드웨어적 구성으로 구현되거나 복수 대의 감시카메라(100), 복수 개의 센서 모듈(200), 복수 개의 대피유도단말기(300), 복수 대의 자율주행 로봇(400) 등과 통신 가능하게 연결된 장치 내지 시스템 등에 탑재되어 본 발명의 프로세싱을 수행하는 소프트웨어의 형태로도 구현될 수도 있음은 물론이다.
구체적으로, 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 주요 요소는 감시카메라(100), 센서 모듈(200), 대피유도단말기(300), 자율주행 로봇(400) 및 관제 서버(500)를 포함하고 있다.
<감시카메라>
감시카메라(100)는 감시공간이나 감시구역을 연속적으로 촬영하여 감시 영상정보를 생성하기 위해 병원이나 요양기관 등과 같은 피난약자이용시설의 안팎에 복수 개가 중첩되지 않게 설치되어 있다.
그리고 감시카메라(100)는 각각 ID가 부여되어 있다.
여기서 감시카메라(100)는 CCTV 카메라 기반의 영상감시장치를 포함할 수 있다.
<센서 모듈>
센서 모듈(200)은 주변의 환경 변화를 감지하기 위해 병원이나 요양기관 등과 같은 피난약자이용시설의 안팎 천장, 벽면 또는 바닥 등에 일정한 거리를 두고 복수 개로 설치되어 있다.
그리고 센서 모듈(200)은 각각 ID가 부여되어 있다.
이러한 센서 모듈(200)은 주변의 온도를 감지하는 온도센서(210), 열을 감지하는 열센서(220), 연기를 감지하는 연기센서(230), 불꽃을 감지하는 불꽃센서(240) 및 가스를 감지하는 가스센서(250)를 포함하여 구성되어 있다.
여기서 온도센서(210)와 열센서(220)는 발화지점을 정확하게 파악할 수 있도록 방향이 가변되는 구조로 이루어지는 것이 바람직하다.
또한, 가스센서(250)는 일산화탄소, 이산화탄소와 같은 기체 농도를 측정하여 소정의 주기별로 전송하거나 미리 정해진 임계값의 범위를 벗어나는 경우에 한하여 관제 서버(500)로 전송할 수 있다.
<대피유도단말기>
대피유도단말기(300)는 피난을 위한 영상 및 음성정보를 출력하기 위해 병원이나 요양기관 등과 같은 피난약자이용시설의 건물 내부의 벽면에 복수 개가 설치되어 있다.
그리고 대피유도단말기(300)는 각각 ID가 부여되어 있다.
즉, 대피유도단말기(300)는 관제 서버(500)의 제어에 따라 시각적으로 식별 가능한 영상으로 피난을 위한 색상, 텍스쳐의 패턴, 점멸 등의 영상정보를 보여줌은 물론 청각으로 청취 가능한 음성으로 피난을 위한 음성정보를 들려주는 구조로 이루어져 있다.
예를 들어, 대피유도단말기(300)는 각각 관제 서버(500)로부터 무선통신을 통해 제어 신호를 전송받아 미리 정해진 작동 알고리즘에 따라 안내 영상정보를 동영상 또는 이미지로 출력하거나 음성정보를 출력 또는 발광 신호를 점등, 점멸하고 평상시에는 각종 정보를 표시하는 LED, LCD, OLED, PDP, 태블릿 PC 등을 적용할 수 있다.
또한, 대피유도단말기(300)는 관제 서버(500)의 제어에 대응하는 광고 콘텐츠 또는 대피 안내를 위한 비상 콘텐츠를 검출하여 동영상 또는 정지 영상으로 표시할 수도 있다.
예를 들어, 대피유도단말기(300)는 관제 서버(500)로부터 전달받은 영상 콘텐츠를 디스플레이하고, 음성 콘텐츠를 재생한다.
여기서 비상 콘텐츠는 비상사태의 종류, 현재 위치, 안전 구역, 현재 위치에서 안전 구역까지 이동하기 위한 이동 방향 및 경로정보 중 적어도 하나를 포함하며, 비상사태의 종류는 화재, 가스 누출, 지진 및 정전 등이 포함될 수 있으나 이에 한정하지 않는다.
한편, 대피유도단말기(300)는 배터리와 같은 자체 전원공급수단(미도시)을 구비하는 것이 바람직하다. 즉, 자체 전원공급수단은 평상시에 상용전원을 공급받아 전력을 유지하고 있다가 비상시 또는 상용전원의 공급이 단절된 경우에도 안정적으로 전력을 공급하여 주변을 밝혀줄 수 있다.
<자율주행 로봇>
자율주행 로봇(400)은 자율주행 기능을 갖춘 로봇으로 건물 내를 순회하면서 관제 서버(500)와 무선으로 데이터, 영상 및 음성 신호를 주고받고, 사고 이벤트 발생 시 피난을 위한 영상 및 음성정보를 출력한다.
그리고 자율주행 로봇(400)은 관제 서버(500)의 제어에 따라 건물 내를 순회하면서 수집한 영상 및 음성정보를 상황 분석에 활용하기 위해 관제 서버(500)로 전송한다.
또한, 자율주행 로봇(400)은 목적지로 경로를 설정하여 이동하는 중 장애물을 검출하면 이를 회피하는 회피 경로를 재설정하여 주행한다.
이러한 자율주행 로봇(400)은 카메라 모듈(410), 움직임 센서(420), 위치확인 모듈(430), 디스플레이(440) 및 무선통신 모듈(450)을 포함하여 구성되어 있다.
카메라 모듈(410)은 관제 서버(500)로부터 사고 이벤트 발생에 관한 정보를 수신하면 건물의 내부를 이동하면서 연속적으로 촬영하여 영상정보를 생성한다.
움직임 센서(420)는 사람의 움직임을 검출·인식한다.
위치확인 모듈(430)은 카메라 모듈(410)을 통해 입력되는 영상정보 및 움직임 센서(420)를 통해 입력되는 움직임 정보를 기반으로 하여 건물 내 층별로 사람의 위치정보를 파악한다.
그리고 위치확인 모듈(430)은 건물 내 층별로 피난약자에게 부착된 무선송신기에서 지속적으로 발사하는 무선주파수 신호를 수신하여 그 무선송신기에서 해당 층에 있는 자율주행 로봇(400)까지의 거리를 측정한다.
여기서 위치확인 모듈(430)은 전파의 위상 및 크기를 이용하여 거리를 인식하는 기술, 즉 RF 신호에 대한 아날로그 데이터를 신호처리 프로세서에서 디지털 신호처리하여 얻은 위상응답 특성 데이터 분석을 통해 두 송수신기 간의 거리 정보를 추정할 수 있다.
이외에도 위치확인 모듈(430)은 레이저 송수신기에 의한 방법, 초음파 센서에 의한 방법, 레이다에 의한 방법 중 어느 하나를 채용할 수 있다.
한편, 피난약자에게 부착된 무선송신기는 피난약자가 병원이나 요양기관 등의 피난약자이용시설에 입원(이용) 시 제공받아 신체에 부착하는 밴드나 팔찌 형태로 이루어질 수 있다.
디스플레이(440)는 관제 서버(500)로부터 전송받은 피난을 위한 영상 및 음성 정보를 화면에 표시한다.
디스플레이(440)는 관제 서버(500)의 제어에 따라 시스템의 동작과 관련된 각종 정보 및 데이터를 화면에 표시하는 기능 및 역할을 한다.
즉, 디스플레이(440)는 복수의 감시카메라(100), 복수의 센서 모듈(200) 및 복수의 자율주행 로봇(400)에서 촬영하여 전송되는 영상정보를 모니터 화면에 표시할 수 있다.
예를 들어, 시스템에서 구동되는 응용 프로그램의 실행화면 정보, 또는 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
여기서 디스플레이(440)는 액정표시장치(LCD, Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(TFT-LCD, Thin Film Transistor-Liquid Crystal Display), 발광 다이오드(LED, Light-Emitting Diode), 유기 발광 다이오드(OLED, Organic Light-Emitting Diode) 또는 플라즈마 디스플레이(PDP, Plasma Display Panel), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나의 형태로 구현할 수 있다.
무선통신 모듈(450)은 관제 서버(500)와 무선으로 데이터, 영상 및 음성 신호를 송수신한다.
한편, 자율주행 로봇(400)은 복수의 바퀴를 구동시켜 주행하고, 다양한 경로를 통해 임무 수행 예정 시간에 대한 정보를 수신하며, 해당 시간에 임무를 수행하도록 프로그래밍할 수 있고, 또 제어부(560)의 제어에 의해 건물 내에서 순찰, 안내, 청소, 방역, 운반 등의 다양한 동작 및 기능을 수행할 수 있다.
그리고 자율주행 로봇(400)은 관제 서버(500)의 제어부(560)와 건물 내 상황정보 등을 포함한 신호를 송수신할 수 있다.
또한, 자율주행 로봇(400)은 건물 내 감시카메라(100)로부터 각 구역을 촬영한 영상정보를 수신하고 종합하여 건물 내부의 상황을 모니터링할 수 있다.
아울러 자율주행 로봇(400)은 관리자로부터 직접 명령을 수신할 수 있다. 예를 들어, 자체 화면을 터치하는 입력 또는 음성 입력 등을 통해 관리자로부터 명령을 직접 수신하고, 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
그리고 자율주행 로봇(400)은 고해상도의 카메라를 비롯하여 위치추적 및 위치조회를 위한 GPS 신호를 송·수신하는 위성항법장치(GPS), 자율주행을 위한 라이다(LiDAR) 센서, 비전 센서 등의 센서들이 탑재되어 있어 카메라로 촬영한 영상을 통해 동작 환경에 대한 인식 및 작업 판단을 할 수 있고, 또 RF(Radio Frequency) 신호로 송·수신할 수 있다.
또한, 자율주행 로봇(400)은 동작을 제어하기 위한 제어모듈을 포함할 수 있고, 다양한 종류의 센서들로부터 획득한 센싱정보를 이용하여 상태정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서 자율주행 로봇(400)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센싱정보를 이용할 수 있다.
특히, 자율주행 로봇(400)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센싱정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
그리고 자율주행 로봇(400)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경정보 또는 객체정보를 이용하여 동작을 결정할 수 있다.
또한, 자율주행 로봇(400)은 맵 데이터, 센서정보로부터 검출한 객체정보 또는 외부 장치로부터 획득한 객체정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 주행할 수 있다.
여기서 맵 데이터에는 자율주행 로봇(400)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별정보가 포함될 수 있다. 예를 들어, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 의자, 사람 등의 이동 가능한 객체들에 대한 객체 식별정보가 포함될 수 있으며, 객체 식별정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율주행 로봇(400)은 관리자의 제어/상호작용에 기초하여 구동부를 제어함으로써 동작을 수행하거나 주행할 수 있다.
예를 들어, 자율주행 로봇(400)은 임무정보를 수신하고, 특정 장소로 이동하기 위해 주행하며, 관제 서버(500)의 제어부(560)로부터 사고 이벤트 발생 위치정보를 수신하고, 그 위치정보에 기반하여 사고 이벤트 발생 현장과 비상구 등의 특정 장소 사이의 거리를 산출할 수 있다.
<관제 서버>
관제 서버(500)는 각 감시카메라(100)에서 촬영한 감시 영상정보 및 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 사고 이벤트 발생 현장의 위치를 실시간으로 파악한다.
그리고 관제 서버(500)는 건물의 공간정보에 따라 안전하게 대피 장소에 도달하기 위한 대피 경로를 산정·생성하여 저장하며, 생성된 대피 경로에 따라 각 대피유도단말기(300) 및 각 자율주행 로봇(400)을 제어하고, 이를 통하여 피난을 위한 영상 및 음성정보를 제공한다.
또한, 관제 서버(500)는 현장 영상을 표출하며 현장 및/또는 관제실 근무자에게 팝업 알림 및/또는 음향 출력으로 사고 이벤트 발생을 알릴 수 있다.
이러한 관제 서버(500)는 위치인식부(510), 경로선택처리부(520), 대피정보제공부(530), 모니터링부(540), GIS표시부(550), 제어부(560), 데이터통신부(570), 채널생성부(580) 및 메모리부(590)를 포함하여 구성되어 있다.
위치인식부(510)는 각 자율주행 로봇(400)으로부터 수신되는 영상정보와 GPS 기반의 위치정보를 실시간으로 인식한다.
경로선택처리부(520)는 각 감시카메라(100)에서 촬영한 감시 영상정보 및 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 사고 이벤트 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 각 대피유도단말기(300) 및 각 자율주행 로봇(400)의 현재 위치에서 안전하게 가장 가까운 비상구로 유도하기 위한 최적의 대피 경로를 생성한다.
대피정보제공부(530)는 경로선택처리부(520)에서 생성된 대피 경로에 따라 알림 및 피난을 위한 영상정보와 음성정보를 각 대피유도단말기(300) 및 각 자율주행 로봇(400)에 제공한다.
예를 들어, 대피정보제공부(530)는 화재, 가스 누출, 지진 등 비상사태의 종류에 맞게 "입을 막고 510호 방향으로 대피하십시오.", "상체를 최대한 숙이고 이동하십시오.", "상체를 곧게 세우고 이동하십시오.", "현재 위치에서 움직이지 마십시오." 등의 행동 요령을 영상정보 또는 음성정보에 포함하여 제공할 수 있다.
모니터링부(540)는 각 감시카메라(100)에서 촬영한 감시 영상정보와 각 자율주행 로봇(400)에서 촬영한 영상정보 및 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 파악한 사고 이벤트 발생 현장과 경로선택처리부(520)에서 생성된 대피 경로를 모니터 화면에 실시간으로 보여준다.
그리고 모니터링부(540)는 제어부(560)의 제어에 따라 시스템의 동작과 관련된 각종 정보 및 데이터를 화면에 표시하는 기능 및 역할을 한다.
여기서 모니터링부(540)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
GIS표시부(550)는 각 자율주행 로봇(400)의 위치정보를 모니터링부(540)에 표시하도록 제어한다.
즉, GIS표시부(550)는 자율주행 로봇(400)으로부터 전송되는 신호를 수신하고 위치정보를 확인하여 GPS 전자지도로 모니터링부(540)에 표시한다.
제어부(560)는 각 자율주행 로봇(400)의 전반적인 작동과 기능을 원격 제어하고, 시스템의 전반적인 작동을 제어한다.
그리고 제어부(560)는 자율주행 로봇(400)의 위치확인 모듈(430)이 측정한 건물 내 피난약자로부터 해당 층에 있는 자율주행 로봇(400)까지의 거리를 측정값에 기초하여 해당 층에서 피난약자와 최단 거리에 위치하는 자율주행 로봇(400)이 해당 피난약자를 향해 이동하도록 제어한다.
또한, 제어부(560)는 복수의 감시카메라(100)에서 전송되는 영상을 이미지 프로세싱하여 선택적으로 모니터링부(540)에 표시하도록 제어한다.
그리고 제어부(560)는 자율주행 로봇(400)들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 사고 이벤트 발생 현장의 위치를 확인한다.
이때, 제어부(560)는 건물 내 화장실, 조형물, 통로, 계단, 승강기 등과 같은 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여 사고 이벤트 발생 현장의 위치를 파악할 수 있다.
여기서 상대 위치정보는 건물 내 화장실, 조형물, 통로, 계단, 승강기 등과 같은 특정 장소로부터 자율주행 로봇(400)이 얼마만큼 떨어져 있는지에 대한 정보를 의미할 수 있다.
그리고 제어부(560)는 관리자로부터 복수의 감시카메라(100)들 중 주 카메라를 설정받을 수 있고, 도중에 관리자의 선택에 따라 주 카메라를 변경할 수도 있다.
또한, 제어부(560)는 이동이 중지된 객체의 근거리 영상(줌영상/고해상도 영상)을 촬영하도록 PTZF(Pan, Tilt, Zoom, Focal length) 구동이 가능한 복수의 감시카메라(100)를 각각 제어할 수 있다.
그리고 제어부(560)는 자율주행 로봇(400)으로부터 수신되는 영상정보의 식별 표지에 근거하여, 자율주행 로봇(400)의 식별정보를 추출하여 특정하고, 그 현재 위치를 파악할 수 있다. 이외에도 제어부(560)는 영상이 촬영된 시간 및 영상을 촬영한 자율주행 로봇(400)에 매칭된 위치정보 중 적어도 하나를 이용하여, 해당 영상을 촬영한 자율주행 로봇(400)의 현재 위치를 특정할 수 있다.
아울러 제어부(560)는 자율주행 로봇(400)에서 획득된 영상에 대해 3층, A구역과 같이 좌표정보를 특정할 수 있고, 특정된 좌표정보는 자율주행 로봇(400)의 현재 위치정보가 될 수 있다.
이때, 제어부(560)는 자율주행 로봇(400)으로부터 획득된 영상정보와 vision(또는 visual) 기반의 SLAM(Simultaneous Localization and Mapping) 기술에 의하여 생성된 지도를 비교함으로써 자율주행 로봇(400)의 위치(또는 현재 위치)를 추정할 수 있다. 이 경우 제어부(560)는 자율주행 로봇(400)에서 획득된 영상과 이미 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여 자율주행 로봇(400)에서 획득된 영상과 가장 비슷한 이미지를 특정하고, 특정된 이미지에 매칭된 위치정보를 획득하는 방식으로 자율주행 로봇(400)의 위치정보를 특정할 수 있다.
즉, 제어부(560)는 자율주행 로봇(400)에서 영상이 획득되면, 획득된 영상을 이용하여 자율주행 로봇의 위치(또는 현재 위치)를 특정할 수 있고, 메모리부(590)에 이미 저장된 지도정보나 건물 설계도로부터, 자율주행 로봇(400)에서 획득된 영상에 대응되는 위치정보(예를 들어, 좌표정보)를 추출할 수 있다.
그리고 제어부(560)는 메모리부(590)에 저장된 콘텐츠 중 감시카메라(100) 및 센서 모듈(200)로부터 수집·분석하여 감지 및 판단한 결과에 대응하는 동영상 또는 정지 영상 콘텐츠를 추출할 수 있다.
예를 들어, 경로선택처리부(520)의 판단 결과에 따라 사고 이벤트가 화재인 경우 제어부(560)는 화재에 따른 대피 안내를 위한 콘텐츠를 추출할 수 있고, 사고 이벤트가 지진인 경우 제어부(560)는 지진에 따른 대피 안내를 위한 콘텐츠를 추출할 수 있다.
한편, 제어부(560)는 마우스, 키보드, 터치패드 등과 같은 입력장치와 연결되는 관리자입력부를 통해 시스템의 동작과 관련된 명령을 입력받을 수 있고, 입력 또는 출력되는 신호, 데이터, 정보 등을 처리 및 제공할 수도 있다.
데이터통신부(570)는 각 자율주행 로봇(400)과 무선으로 데이터 통신을 수행하는 역할을 한다.
예를 들어, 데이터통신부(570)는 자율주행 로봇(400)으로부터 영상정보, 센싱정보 등의 데이터를 실시간으로 수신하고 자율주행 로봇(400)으로 제어명령을 전송할 수 있다.
여기서 데이터통신부(570)는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 어느 하나를 지원하는 통신 방식으로 자율주행 로봇(400)과 통신할 수 있다.
채널생성부(580)는 경로선택처리부(520)에서 사고 이벤트 발생을 감지할 경우 각 자율주행 로봇(400)과 양방향 화상통신으로 연결하는 채널을 생성한다.
메모리부(590)는 시스템의 동작과 관련된 각종 정보 및 데이터를 비롯하여 복수의 감시카메라(100)와 복수의 센서 모듈(200) 및 복수의 자율주행 로봇(400)에 대한 각각의 고유번호, 식별정보, 화각정보, 배치정보, 주행경로정보, 임무정보, 위치정보, 상태정보, 동작정보, 영상정보, 건물의 공간정보를 저장하고, 제어부(560)의 제어에 따라 제공하기 위해 롬, 램, 하드디스크, 플래시메모리, SSD(Solid State Disk) 등과 같은 각종 저장매체로 구현할 수 있다.
그리고 메모리부(590)에는 복수의 감시카메라(100)들과 복수의 자율주행 로봇(400)들 중 특정 감시카메라(100) 또는 자율주행 로봇(400)들에 대한 식별정보, 위치정보, 화각정보, 상태정보, 배치정보, 배치된 장소정보 및 영상정보 중 적어도 어느 하나가 매칭된 매칭정보로서 존재할 수 있고, 이는 특정 감시카메라(100) 또는 자율주행 로봇(400)이 위치한 공간(또는 장소, 영역)을 특정하거나 해당 공간에 위치한 피난약자의 위치를 확인하는 데 유용하게 활용될 수 있다.
또한, 메모리부(590)에는 건물에 대한 2차원 또는 3차원 설계도 및 비상구 위치, 스프링클러의 위치를 비롯한 문, 창, 기둥, 계단 각각의 형태와 치수 등의 구조물의 공간정보가 저장됨으로써 자율주행 로봇(400) 또는 피난약자의 현재 위치를 파악하거나, 자율주행 로봇(400)의 주행 경로를 설정 및 주행에 활용할 수 있다.
즉, 메모리부(590)에는 사전에 해당 건물의 설계도(맵), 센서 모듈(200)의 위치정보, 건물의 비상구 위치정보, 건물의 복도 및 내부공간 그리고 계단 등에 장치되어 있는 복수의 대피유도단말기(300) 위치정보, 건물의 내부를 구역별로 설정한 다음 각각의 구역에서 비상구로 연결되는 경로정보, 각 구역에서 최단거리에 위치한 비상구로 연결되는 최단거리 경로정보, 대피유도단말기(300)의 방향지시등 점멸정보 및 음성안내정보 등이 입력되어 있다.
여기서 건물에 대한 2차원 또는 3차원 설계도는 자율주행 로봇(400)에서 수신되는 영상정보를 기반으로 자율주행 로봇(400)의 현재 위치를 파악하기 위해 위치를 추정하는 데이터로 구성될 수 있다.
한편, 경로선택처리부(520)는 공간정보제공부(521), 사고위치파악부(522), 사고구역생성부(523), 확산구역생성부(524), 구역설정부(525), 대피경로생성부(526), 위험경로판별부(527) 및 경로재생성부(528)를 포함하여 구성되어 있다.
공간정보제공부(521)는 건물의 공간정보를 3차원으로 구현하여 제공한다.
여기서 건물의 공간정보는 건물의 설계도면, 센서 모듈(200)의 위치정보, 건물의 비상구 위치정보, 건물의 복도 및 내부공간 그리고 계단 등에 장치되어 있는 복수의 대피유도단말기(300) 위치정보, 건물의 내부를 구역별로 설정한 다음 각각의 구역에서 비상구로 연결되는 경로정보, 각 구역에서 최단거리에 위치한 비상구로 연결되는 최단거리 경로정보, 감시공간 및/또는 감시구역의 도면(지도)정보, 내장 및/또는 외장에 대한 인테리어 정보, 시간대별 재실인원 정보 중 적어도 하나를 포함할 수있다.
사고위치파악부(522)는 각 감시카메라(100)로부터 영상정보 및 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 발생 현장의 위치를 실시간으로 파악한다.
그리고 사고위치파악부(522)는 영상정보에 대한 인공지능 분석을 기반으로 화재발생을 감지하여 화재감지정보를 생성할 수 있다.
즉, 사고위치파악부(522)는 영상정보로부터 획득한 영상 이미지를 복수의 블록으로 분할하고, 분할된 영상 이미지로부터 화염영역 및/또는 연기영역을 검출할 수 있다.
예를 들어, Edge IoT 딥러닝 기반의 인공지능 분석을 이용하여 영상 이미지로부터 화염 영역 및/또는 연기영역을 검출할 수 있다.
아울러 검출된 화염영역 및/또는 연기영역의 면적 및/또는 개수를 산출할 수 있다.
이때, 산출된 화염영역 및/또는 연기영역의 면적 및/또는 개수를 화재발생 기준값과 비교한 결과로 화재감지정보를 생성하여 출력할 수 있다.
사고구역생성부(523)는 사고 발생 현장에 대한 위치정보를 건물의 공간정보에 반영하여 3차원 공간으로 만들어진 이미지를 생성한다.
확산구역생성부(524)는 센서 모듈(200)의 환경 변화 감지 신호와 사고구역생성부(523)의 3차원 공간 이미지를 기반으로 미리 정해진 시간 내 사고 확산이 예상되는 주변 구역을 연산하여 추가로 생성한다.
구역설정부(525)는 사고 발생 현장과 미리 정해진 시간 내 사고 확산이 예상되는 확산예상구역을 구분한다.
대피경로생성부(526)는 사고 발생 현장의 위치정보와 건물의 공간정보를 기반으로 적어도 하나 이상의 비상구를 탐색하여 비상구 간 거리 데이터를 근거로 사고 발생 현장과 개개의 거리값을 계산한 후 사고 발생 현장에서 가장 가까운 비상구를 최단 거리의 대피 경로로 생성한다.
위험경로판별부(527)는 대피 경로와 사고 확산이 예상되는 확산예상구역이 일정 시간 동시에 겹쳐 생성되는 지 여부를 실시간으로 확인한다.
경로재생성부(528)는 대피 경로와 사고 확산이 예상되는 확산예상구역이 동시에 겹쳐 생성될 경우 대피 경로를 재생성한다.
이와 같이 구성된 본 발명의 실시 예에 따른 피난약자 실시간 피난 유도 시스템의 주요 작용 및 작동 원리를 설명하면 다음과 같다.
먼저, 복수의 감시카메라(100)에서 건물 안팎의 감시공간이나 감시구역을 연속적으로 촬영하여 전송하는 감시 영상정보와, 복수의 센서 모듈(200)에서 주변의 환경 변화를 감지하여 전송하는 신호를 관제 서버(500)가 수집·분석하여 사고 이벤트 발생 여부를 감지한다.
즉, 관제 서버(500)의 경로선택처리부(520)는 각 감시카메라(100)에서 촬영한 감시 영상정보 및 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지하면, 메모리부(590)의 건물 설계도, 비상구 위치 등 공간정보와 비교하여 사고 이벤트 발생 현장의 위치를 실시간으로 파악한다.
이때, 복수의 감시카메라(100)와 복수의 센서 모듈(200) 중 화재나 가스누출 등과 같은 사고를 촬영 및 감지한 데이터나 신호를 전송하는 특정 감시카메라(100)와 센서 모듈(200)의 배치 위치를 메모리부(590)에서 검색하여 사고 이벤트 발생 현장의 위치를 특정 및 확인할 수 있다.
아울러 관제 서버(500)의 위치인식부(510)는 각 자율주행 로봇(400)으로부터 수신되는 건물 내부를 촬영한 영상정보와 GPS 기반의 위치정보를 실시간으로 인식한다.
그리고 자율주행 로봇(400)의 위치확인 모듈(430)은 건물 내 피난약자에게 부착된 무선송신기에서 송신하는 무선주파수 신호를 수신하여 무선송신기에서 당해 자율주행 로봇(400)까지의 거리를 측정하여 관제 서버(500)로 전송한다.
또한, 관제 서버(500)의 제어부(560)는 자율주행 로봇(400)까지의 거리를 측정값에 기초하여 해당 피난약자와 최단 거리에 위치하는 자율주행 로봇(400)이 해당 피난약자를 향해 이동하도록 제어한다.
이어서, 관제 서버(500)의 경로선택처리부(520)는 건물의 공간정보에 따라 각 대피유도단말기(300) 및 각 자율주행 로봇(400)의 현재 위치에서 안전하게 가장 가까운 비상구로 유도하기 위한 최적의 대피 경로를 생성한다.
즉, 관제 서버(500)의 경로선택처리부(520)는 건물의 공간정보에 따라 안전하게 대피 장소에 도달하기 위한 대피 경로를 산정·생성하여 저장한다.
이때, 관제 서버(500)의 경로선택처리부(520)는 사고 이벤트 발생 현장의 위치정보를 메모리부(590)의 건물 설계도, 비상구 위치 등 공간정보와 비교·분석하여 그 사고 이벤트 발생 현장의 위치에서 안전한 비상구의 위치정보를 중복 검출하여 대피 경로를 생성할 수 있다.
예를 들어, 화재 발생지점에서 화재 진행 방향과 반대 방향에 위치한 비상구나 화재 발생지점에서 화재 진행 방향과 반대 방향이면서 가장 가까운 위치에 있는 비상구의 위치정보를 검출하여 최적의 대피 경로로 생성할 수 있다.
즉, 관제 서버(500)의 경로선택처리부(520)는 화재 발생지점 정보를 출발지로 하고, 화재 발생지점에서 화재 진행 방향과 반대 방향이면서 가장 가까운 위치에 있는 비상구의 위치정보를 도착지로 설정한 다음 메모리부(590)의 경로정보와 대입하여 출발지에서 도착지로 이어지는 복수의 대피 경로를 검출하고, 그 중 출발지에서 최단거리에 위치한 비상구로의 대피 경로를 최적의 대피 경로로 선택하여 생성할 수 있다.
이어서, 관제 서버(500)의 대피정보제공부(530)는 생성된 대피 경로에 따라 각 대피유도단말기(300) 및 각 자율주행 로봇(400)을 통하여 피난을 위한 영상정보 및 음성정보를 제공하여 특정 비상구로 대피를 유도한다.
이때, 영상정보 및 음성정보는 안전한 비상구의 위치를 알려주는 방향표시나 멘트 등으로 출력함으로써 대피 경로를 보다 신속 정확하게 인지 및 판단할 수 있다.
예를 들어, 도 6에 도시된 바와 같이 관제 서버(500)의 대피정보제공부(530)에서 생성된 정보는 대피유도단말기(300)의 화면을 통해 화재 발생 위치, 대피 방향, 행동요령 등을 영상정보 및 음성정보로 출력할 수 있다.
여기서 본 발명의 실시 예에 따른 실시간 피난 유도 시스템을 구성하는 각 구성요소는 물리적으로 구분되는 구성요소보다는 논리적으로 구분되는 구성요소로 이해할 수 있다.
즉, 각 구성요소는 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 서로 통합 또는 분리되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.
한편, 본 발명은 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독할 수 있는 매체(데이터가 저장되는 기록장치)에 저장 가능한 프로그램으로 구현될 수 있다.
즉, 본 발명은 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고, 아울러 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함할 수 있다.
한편, 본 발명은 상술한 실시 예(embodiment) 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 예시되지 않은 여러 가지로 다양하게 변형하고 응용할 수 있음은 물론이고 각 구성요소의 치환 및 균등한 타 실시 예로 변경하여 폭넓게 적용할 수도 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백하다.
그러므로 본 발명의 기술적 특징을 변형하고 응용하는 것에 관계된 내용은 본 발명의 기술사상 및 범위 내에 포함되는 것으로 해석하여야 할 것이다.
100: 감시카메라 200: 센서 모듈
300: 대피유도단말기 400: 자율주행 로봇
410: 카메라 모듈 420: 움직임 센서
430: 위치확인 모듈 440: 디스플레이
450: 무선통신 모듈 500: 관제 서버
510: 위치인식부 520: 경로선택처리부
521: 공간정보제공부 522: 사고위치파악부
523: 사고구역생성부 524: 확산구역생성부
525: 구역설정부 526: 대피경로생성부
527: 위험경로판별부 528: 경로재생성부
530: 대피정보제공부 540: 모니터링부
550: GIS표시부 560: 제어부
570: 데이터통신부 580: 채널생성부
590: 메모리부

Claims (4)

  1. 감시공간이나 감시구역을 연속적으로 촬영하여 감시 영상정보를 생성하고 ID가 각각 부여된 복수의 감시카메라(100);
    주변의 온도, 열, 연기, 불꽃 및 가스로 인한 환경 변화를 감지하고 ID가 각각 부여된 복수 개의 센서 모듈(200);
    건물 내부에 설치되고 피난을 위한 영상정보 및 음성정보를 출력하는 복수 개의 대피유도단말기(300);
    건물 내부에서 관제 서버(500)와 무선으로 데이터, 영상 및 음성 신호를 주고받고, 사고 이벤트 발생 시 피난을 위한 영상정보 및 음성정보를 출력하는 복수 개의 자율주행 로봇(400); 및
    상기 각 감시카메라(100)에서 촬영한 감시 영상정보 및 상기 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 사고 이벤트 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 안전하게 대피 장소에 도달하기 위한 대피 경로를 산정·생성하여 저장하며, 생성된 대피 경로에 따라 상기 각 대피유도단말기(300) 및 상기 각 자율주행 로봇(400)을 제어하고, 이를 통하여 피난을 위한 영상정보 및 음성정보를 제공하는 관제 서버(500);
    를 포함하며,
    상기 자율주행 로봇(400)은,
    상기 관제 서버(500)로부터 사고 이벤트 발생에 관한 정보를 수신하면 건물의 내부를 이동하면서 연속적으로 촬영하여 영상정보를 생성하는 카메라 모듈(410);
    사람의 움직임을 검출·인식하는 움직임 센서(420);
    상기 카메라 모듈(410)을 통해 입력되는 영상정보 및 상기 움직임 센서(420)를 통해 입력되는 움직임 정보를 기반으로 하여 건물 내 층별로 사람의 위치정보를 파악하는 위치확인 모듈(430);
    상기 관제 서버(500)로부터 전송받은 피난을 위한 영상 및 음성정보를 화면에 표시하는 디스플레이(440); 및
    상기 관제 서버(500)와 무선으로 데이터, 영상 및 음성 신호를 송수신하기 위한 무선통신 모듈(450);
    을 포함하고,
    상기 관제 서버(500)는,
    상기 각 자율주행 로봇(400)으로부터 수신되는 영상정보와 GPS 기반의 위치정보를 실시간으로 인식하는 위치인식부(510);
    상기 각 감시카메라(100)에서 촬영한 감시 영상정보 및 상기 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 이벤트 발생 여부를 감지 및 메모리부(590)의 건물 공간정보와 비교하여 사고 이벤트 발생 현장의 위치를 실시간으로 파악하고, 건물의 공간정보에 따라 상기 각 대피유도단말기(300) 및 상기 각 자율주행 로봇(400)의 현재 위치에서 안전하게 가장 가까운 비상구로 유도하기 위한 최적의 대피 경로를 생성하는 경로선택처리부(520);
    상기 경로선택처리부(520)에서 생성된 대피 경로에 따라 알림 및 피난을 위한 영상정보와 음성정보를 상기 각 대피유도단말기(300) 및 상기 각 자율주행 로봇(400)에 제공하는 대피정보제공부(530);
    상기 각 감시카메라(100)에서 촬영한 감시 영상정보 및 상기 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 파악한 사고 발생 현장과 상기 경로선택처리부(520)에서 생성된 대피 경로를 실시간으로 보여주는 모니터링부(540);
    상기 각 자율주행 로봇(400)의 위치정보를 상기 모니터링부(540)에 표시하도록 하는 GIS표시부(550);
    상기 각 자율주행 로봇(400)의 전반적인 작동을 제어하는 제어부(560);
    상기 각 자율주행 로봇(400)과 무선으로 데이터 통신을 하는 데이터통신부(570);
    상기 경로선택처리부(520)에서 사고 이벤트 발생을 감지할 경우 상기 각 자율주행 로봇(400)과 양방향 화상통신으로 연결하는 채널을 생성하는 채널생성부(580); 및
    상기 각 감시카메라(100), 상기 각 센서 모듈(200) 및 상기 각 자율주행 로봇(400)의 배치정보와, 건물의 공간정보를 저장하는 메모리부(590);
    를 포함하고,
    상기 자율주행 로봇(400)의 위치확인 모듈(430)은,
    건물 내 피난약자에게 부착된 무선송신기에서 송신하는 무선주파수 신호를 수신하여 그 무선송신기에서 해당 층에 있는 상기 자율주행 로봇(400)까지의 거리를 측정하여 상기 관제 서버(500)로 전송하고,
    상기 관제 서버(500)의 제어부(560)는 상기 자율주행 로봇(400)까지의 거리를 측정값에 기초하여 해당 층에서 피난약자와 최단 거리에 위치하는 상기 자율주행 로봇(400)이 해당 피난약자를 향해 이동하도록 제어하며,
    상기 관제 서버(500)의 상기 경로선택처리부(520)는,
    건물의 공간정보를 3차원으로 구현하여 제공하는 공간정보제공부(521);
    상기 각 감시카메라(100)로부터 영상정보 및 상기 각 센서 모듈(200)로부터 감지 신호를 수집·분석하여 사고 발생 현장의 위치를 실시간으로 파악하는 사고위치파악부(522);
    사고 발생 현장에 대한 위치정보를 건물의 공간정보에 반영하여 3차원 공간으로 만들어진 이미지를 생성하는 사고구역생성부(523);
    상기 센서 모듈(200)의 환경 변화 감지 신호와 상기 사고구역생성부(523)의 3차원 공간 이미지를 기반으로 미리 정해진 시간 내 사고 확산이 예상되는 주변 구역을 연산하여 추가로 생성하는 확산구역생성부(524);
    사고 발생 현장과 미리 정해진 시간 내 사고 확산이 예상되는 확산예상구역을 구분하는 구역설정부(525);
    사고 발생 현장의 위치정보와 건물의 공간정보를 기반으로 적어도 하나 이상의 비상구를 탐색하여 비상구 간 거리 데이터를 근거로 사고 발생 현장과 개개의 거리값을 계산한 후 사고 발생 현장에서 가장 가까운 비상구를 최단 거리의 대피 경로로 생성하는 대피경로생성부(526);
    대피 경로와 사고 확산이 예상되는 확산예상구역이 일정 시간 동시에 겹쳐 생성되는 지 여부를 실시간으로 확인하는 위험경로판별부(527); 및
    대피 경로와 사고 확산이 예상되는 확산예상구역이 동시에 겹쳐 생성될 경우 대피 경로를 재생성하는 경로재생성부(528);
    를 더 포함하는, 피난약자 실시간 피난 유도 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
KR1020220078570A 2022-06-28 2022-06-28 피난약자 실시간 피난 유도 시스템 KR102504330B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078570A KR102504330B1 (ko) 2022-06-28 2022-06-28 피난약자 실시간 피난 유도 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078570A KR102504330B1 (ko) 2022-06-28 2022-06-28 피난약자 실시간 피난 유도 시스템

Publications (1)

Publication Number Publication Date
KR102504330B1 true KR102504330B1 (ko) 2023-03-02

Family

ID=85509065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078570A KR102504330B1 (ko) 2022-06-28 2022-06-28 피난약자 실시간 피난 유도 시스템

Country Status (1)

Country Link
KR (1) KR102504330B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598695B1 (ko) * 2022-09-28 2023-11-06 (주) 씨앤텍 재난 위치상황안내 신호처리시스템
KR102635903B1 (ko) * 2023-04-04 2024-02-13 소니드로보틱스 주식회사 다중 센서 로봇을 이용한 산업 현장 응급 상황 대처 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049777A (ko) 2008-11-04 2010-05-13 디씨엑스(주) 인공지능형 엘이디 피난유도 시스템
KR101861097B1 (ko) * 2016-12-02 2018-05-29 한국과학기술연구원 로봇을 이용한 학교 안전 관리 시스템, 방법 및 프로그램
JP2020074168A (ja) * 2020-01-20 2020-05-14 ホーチキ株式会社 防災連携システムの制御装置
KR102124097B1 (ko) 2018-12-26 2020-06-18 한국건설기술연구원 실시간 연기 및 화염 감지에 기반한 스마트 피난로 안내 시스템 및 그 방법
KR20210097500A (ko) * 2020-01-30 2021-08-09 주식회사 소이넷 화재감지장치 및 이를 포함하는 화재감지시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049777A (ko) 2008-11-04 2010-05-13 디씨엑스(주) 인공지능형 엘이디 피난유도 시스템
KR101861097B1 (ko) * 2016-12-02 2018-05-29 한국과학기술연구원 로봇을 이용한 학교 안전 관리 시스템, 방법 및 프로그램
KR102124097B1 (ko) 2018-12-26 2020-06-18 한국건설기술연구원 실시간 연기 및 화염 감지에 기반한 스마트 피난로 안내 시스템 및 그 방법
JP2020074168A (ja) * 2020-01-20 2020-05-14 ホーチキ株式会社 防災連携システムの制御装置
KR20210097500A (ko) * 2020-01-30 2021-08-09 주식회사 소이넷 화재감지장치 및 이를 포함하는 화재감지시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598695B1 (ko) * 2022-09-28 2023-11-06 (주) 씨앤텍 재난 위치상황안내 신호처리시스템
KR102635903B1 (ko) * 2023-04-04 2024-02-13 소니드로보틱스 주식회사 다중 센서 로봇을 이용한 산업 현장 응급 상황 대처 시스템 및 방법

Similar Documents

Publication Publication Date Title
KR102504330B1 (ko) 피난약자 실시간 피난 유도 시스템
US11143521B2 (en) System and method for aiding responses to an event detected by a monitoring system
US11698260B2 (en) Emergency drone guidance device
RU2472226C2 (ru) Устройство контроля за местонахождением лиц
US10943113B2 (en) Drone pre-surveillance
US20170193769A1 (en) Emergency resource location and status
US20210398434A1 (en) Drone first responder assistance
US11288936B1 (en) Emergency incident detection, response, and mitigation using autonomous drones
JP6080568B2 (ja) 監視システム
US20210191405A1 (en) Method and device for navigating in dynamic environment
KR20200003303A (ko) IoT 기반의 지능형 피난 유도 시스템
KR20200084382A (ko) 화재 대피 유도로봇 및 이의 제어 방법
KR102095986B1 (ko) 화재 조기 감지 및 안전 대피 유도 시스템과 그 방법
JP2019208197A (ja) 監視装置、監視プログラム、記憶媒体、および、監視方法
CN109979133A (zh) 逃生引导装置
KR20210006277A (ko) 화재 조기 감지 및 안전 대피 유도 시스템과 그 방법
CN117152593B (zh) 火场搜索方法、装置、终端设备以及存储介质
TWI652091B (zh) 逃生引導裝置及其方法
Simo et al. First responders' localization and health monitoring during rescue operations