KR102243903B1 - 복합재난 사고대응 지원용 지휘통제시스템 - Google Patents

복합재난 사고대응 지원용 지휘통제시스템 Download PDF

Info

Publication number
KR102243903B1
KR102243903B1 KR1020180147010A KR20180147010A KR102243903B1 KR 102243903 B1 KR102243903 B1 KR 102243903B1 KR 1020180147010 A KR1020180147010 A KR 1020180147010A KR 20180147010 A KR20180147010 A KR 20180147010A KR 102243903 B1 KR102243903 B1 KR 102243903B1
Authority
KR
South Korea
Prior art keywords
firefighters
command
control system
location
firefighter
Prior art date
Application number
KR1020180147010A
Other languages
English (en)
Other versions
KR20200061564A (ko
Inventor
오승섭
양견모
서갑호
함제훈
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020180147010A priority Critical patent/KR102243903B1/ko
Publication of KR20200061564A publication Critical patent/KR20200061564A/ko
Application granted granted Critical
Publication of KR102243903B1 publication Critical patent/KR102243903B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Emergency Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Child & Adolescent Psychology (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것이다. 본 발명의 일 양상인 복합재난 사고대응 지원용 지휘통제시스템은, 복수의 소방관이 착용한 장비에 구비되어 영상 데이터를 획득하는 카메라; 상기 장비에 구비되어 상기 복수의 소방관의 위치 데이터를 획득하는 라이다; 상기 장비에 구비되어 음성 데이터를 획득하는 마이크; 상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 표시하는 디스플레이부; 상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 상기 디스플레이부가 표시하고, 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하며, 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 상기 디스플레이부가 함께 표시하도록 제어하는 제어부; 및 상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 통신부;를 포함할 수 있다.

Description

복합재난 사고대응 지원용 지휘통제시스템 {COMAND AND CONTROL SYSTEM FOR SUPPORTING COMPOUND DISASTERS ACCIDENT}
본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것이다. 구체적으로 본 발명은 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템에 관한 것이다.
화재에 의해 발생된 농연으로 시야 확보가 매우 힘든 재난 환경에서는 소방관이 들어가 자신의 위치를 모르는 상황에서 경험과 감으로 자신의 위치를 추정하고, 구조자를 탐색하여 구조작업을 수행한다.
이러한 재난 환경에서는 소방관들의 상황 및 위치 정보를 소방지휘관에게 음성으로 전달 및 공유하여 요구조자 및 소방관의 상태를 파악한다.
이를 위해 소방관들은 무전기를 활용하여 불확실한 자신의 위치를 설명하며, 소방지휘관들은 각 소방관들의 추정위치를 기반으로 구조작업을 지시하고 있다.
따라서, 재난 현장에서 소방관의 추정 위치가 잘못 되거나 소방지휘관의 해석이 잘못되어 각 소방관들의 협업을 통한 구조작업을 수행에 문제가 발생한다.
다중 센서를 부착한 웨어러블 플랫폼 기술개발은 보편적이며, 개인 및 산업용의 다양한 부분에서 진행하고 있다.
그러나 재난환경에서 소방관의 개인 정보를 통합하고 공유하여 소방지휘관에게 가시화하며, 지휘관의 메시지를 전달하기보다 Wi-Fi, GPS등의 센서를 활용하여 실내환경내의 사용자 위치 정보의 정확도를 개선하는 연구에 집중하였다.
또한, 각각의 소방관의 정보를 통합하여 소방지휘관에게 가시화 하여 제공하는 시스템 구현의 적용예는 찾기 힘들다.
특히, 재난환경에서의 접근성 및 사용편의성을 고려하여 이동형(휴대형) 단말장치를 기반으로 구성된 시스템의 적용예는 찾기 힘들다.
따라서 재난 현장의 소방관의 정확한 위치 및 소방지휘관의 지시 기반으로 협업을 통한 구조작업 수행을 지원하고, 재난환경에서의 접근성 및 사용편의성을 고려한 복합재난 사고대응 지원용 지휘통제시스템에 대한 니즈가 높아지고 있는 실정이다.
대한민국 특허청 출원번호 제 10-2016-0000886호
본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.
구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 복합재난 사고대응 지원용 지휘통제시스템은, 복수의 소방관이 착용한 장비에 구비되어 영상 데이터를 획득하는 카메라; 상기 장비에 구비되어 상기 복수의 소방관의 위치 데이터를 획득하는 라이다; 상기 장비에 구비되어 음성 데이터를 획득하는 마이크; 상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 표시하는 디스플레이부; 상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 상기 디스플레이부가 표시하고, 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하며, 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 상기 디스플레이부가 함께 표시하도록 제어하는 제어부; 및 상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 통신부;를 포함할 수 있다.
또한, 상기 디스플레이부는 복수의 터치스크린으로 구성되고, 상기 복수의 터치스크린의 적어도 일부에 대한 상기 소방지휘관의 터치에 대응하여 상기 명령이 결정될 수 있다.
또한, 상기 제어부는, 상기 위치 데이터를 기초로 결정된 상기 복수의 소방관 각각이 위험 지역과 인접한 정도 및 상기 영상 데이터 및 상기 음성 데이터를 기초로 결정된 상기 복수의 소방관 각각의 위험 정도를 이용하여 상기 상기 복수의 소방관 각각의 상태를 결정할 수 있다.
또한, 상기 소방지휘관의 음성이 추가적으로 입력되는 경우, 상기 통신부는 상기 명령 및 음성을 함께 상기 복수의 소방관 각각에 공유할 수 있다.
한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 일 양상인 복합재난 사고대응 지원용 지휘통제 방법은, 복수의 소방관이 착용한 장비에 구비된 카메라, 라이다 및 마이크로부터 영상, 위치 및 음성 데이터 중 적어도 하나를 획득하는 단계; 상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 디스플레이부가 표시하는 단계; 상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 표시하는 단계; 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하는 단계; 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 함께 표시하는 단계; 및 상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 단계;를 포함할 수 있다.
본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.
구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.
또한, 본 발명이 제안하는 기술적 내용을 기초로, 지휘관은 농연으로 시야확보가 힘든 재난 환경에서, 각 소방관에 대한 다중정보 통합에 의한 구조활동을 위한 협업 지시의 효율성 문제를 해결할 수 있다.
또한, 본 발명에 따르면, 이동형(휴대형) 단말장치 기반으로 재난상황에서의 사용의 활용성을 높일 수 있다.
또한, 본 발명은 소방장비에서 획득된 다중 정보를 각각의 소방관을 기준으로 통합하고 지휘관의 명령이 공유 가능한 이동형(휴대형) 단말장치기반 지휘통제시스템을 제안할 수 있다.
또한, 본 발명의 적용범위는 공조협력을 필요로 하는 재난 대응 상황에서 구조자 및 지휘자의 정보 공유를 위한 이동형(휴대형) 단말장치기반 지휘통제시스템으로 확장될 수 될 수 있다.
결과적으로 본 발명에서는 1) 영상, 음성, 위치 정보의 통합을 통한 소방관의 상태 정보를 가시화할 수 있고, 2) 소방지휘관의 지휘명령을 다수의 소방관에게 동시에 전달하는 것이 가능하며, 3) 이동형 지휘통제 시스템 기반 재난 환경 내 활용성을 증가시킬 수 있고, 4) 재난환경 상황 정보 파악을 통한 구조를 위한 협업을 가능하게 할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제시스템의 블록 구성도를 도시한 것이다.
도 2는 도 1에서 설명한 본 발명에 따른 복합재난 사고대응 지원용 지휘통제시스템의 일례를 도시한 것이다.
도 3은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제 방법을 설명하는 순서도이다.
복합재난 사고대응 지원용 지휘통제시스템
본 발명이 제안하는 기술에 대한 구체적인 설명에 앞서, 본 발명에 적용되는 복합재난 사고대응 지원용 지휘통제시스템의 구성요소들을 설명한다.
도 1은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제시스템의 블록 구성도를 도시한 것이다.
도 1를 참조하면, 복합재난 사고대응 지원용 지휘통제시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.
단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 복합재난 사고대응 지원용 지휘통제시스템이 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 복합재난 사고대응 지원용 지휘통제시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다.
문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 복합재난 사고대응 지원용 지휘통제시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-WideBand), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.
위치정보 모듈(115)은 복합재난 사고대응 지원용 지휘통제시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
도 1를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다.
카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
다음으로, 적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영하여 촬영한다.
FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타내고, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있다.
적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가지고, 적외선 카메라(122)를 통해, 야간에서도 특정 객체에 대한 이미지, 동영상 등을 촬영하는 것이 가능하다.
다음으로, 사용자 입력부(130)는 사용자가 복합재난 사고대응 지원용 지휘통제시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 복합재난 사고대응 지원용 지휘통제시스템의 개폐 상태, 복합재난 사고대응 지원용 지휘통제시스템의 위치, 사용자 접촉 유무, 복합재난 사고대응 지원용 지휘통제시스템의 방위, 복합재난 사고대응 지원용 지휘통제시스템의 가속/감속 등과 같이 복합재난 사고대응 지원용 지휘통제시스템의 현 상태를 감지하여 복합재난 사고대응 지원용 지휘통제시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다.
또한, 본 발명에 따른 센싱부(140)는 LiDAR(light detection and ranging, 141)를 포함할 수 있다.
여기서 LiDAR(141)는 light detection and ranging의 머리 글자를 따서 라이더라고도 한다.
원리적으로는 종래의 레이더에 있어서 마이크로파를 레이저광으로 대치한 것으로서, 표적까지의 거리 측정 장치이다.
레이저광을 사용함으로써 레이더(142)에 비해 거리 측정 정밀도와 방위 분해능, SN 비 등에서 개선된다.
파장이 짧기 때문에 공기중의 미립자도 검출할 수 있다.
레이저 라만 레이더는 라만 산란을 이용하여 특정한 분자를 검출하는 것으로서, 대기나 해상 오염의 감시에 쓰이고 있다.
본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.
또한, 본 발명에 따른 센싱부(140)는 RADAR(Radio Detecting And Ranging, 142)를 포함할 수 있다.
여기서 RADAR(142)는 무선탐지와 거리측정(Radio Detecting And Ranging)의 약어로 마이크로파(극초단파, 10cm~100cm 파장) 의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치이다.
RADAR(142)에 이용되는 마이크로파는 파장이 길어서 빛과 같은 직진성을 가지며 전리층에서 반사되지 않으므로 방향성 안테나에서 발산된 전파는 목표물까지 직선으로 진행한 후 반사하여 돌아온다.
이때, 반사되어 돌아온 전자기파의 시간을 측정하여 목표물의 거리, 방향, 고도를 알아낼 수 있으며, 이러한 정보를 통해 목표물의 위치, 지형, 구름의 형성 등을 알아낸다.
레이더(142)를 이용하여 광학적 방법보다 더 정밀한 거리 측정이 가능하며 위성의 표면 상태에 대한 연구가 가능하다.
레이더(142)는 구름의 물방울, 얼음 결정, 빗방울, 우박 등도 감지할 수 있기 때문에 기상학에서도 지상 레이더나 공중 레이더의 정보를 이용하여 수백km 떨어진 곳의 폭풍을 탐지하고 추적할 수 있다.
레이더(142)의 회로 및 보조기구들이 소형화되면서 휴대가 가능하게 되면서, 경찰이 사용하는 속도감지용 레이더건(radar gun)이나 광학 레이더 탐지 소자(optical radar sensory device)를 이용하여 맹인을 위한 지팡이에 레이더 기술을 사용하기도 한다.
본 발명에서는 RADAR(142)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.
한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.
디스플레이부(151)는 복합재난 사고대응 지원용 지휘통제시스템에서 처리되는 정보를 표시(출력)한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 복합재난 사고대응 지원용 지휘통제시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 복합재난 사고대응 지원용 지휘통제시스템 바디의 후방에 위치한 사물을 볼 수 있다.
복합재난 사고대응 지원용 지휘통제시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 복합재난 사고대응 지원용 지휘통제시스템에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 복합재난 사고대응 지원용 지휘통제시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 복합재난 사고대응 지원용 지휘통제시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 복합재난 사고대응 지원용 지휘통제시스템의 이벤트 발생을 알리기 위한 신호를 출력한다.
알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다.
상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다.
예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 복합재난 사고대응 지원용 지휘통제시스템의 구성 태양에 따라 2개 이상이 구비될 수 있다.
프로젝터 모듈(155)은, 복합재난 사고대응 지원용 지휘통제시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.
구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.
프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.
바람직하게, 프로젝터 모듈(155)은, 복합재난 사고대응 지원용 지휘통제시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 복합재난 사고대응 지원용 지휘통제시스템의 어느 위치에라도 구비될 수 있음은 당연하다.
또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.
적외선 카메라(122)를 통해 획득된 정보는 상기 헤드업 디스플레이(156)를 통해 출력되는 것도 가능하다.
또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.
가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.
일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.
그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.
이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.
이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.
일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.
또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.
본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.
예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.
또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 복합재난 사고대응 지원용 지휘통제시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 복합재난 사고대응 지원용 지휘통제시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 복합재난 사고대응 지원용 지휘통제시스템 내부의 각 구성 요소에 전달하거나, 복합재난 사고대응 지원용 지휘통제시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 복합재난 사고대응 지원용 지휘통제시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 복합재난 사고대응 지원용 지휘통제시스템과 연결될 수 있다.
상기 인터페이스부는 복합재난 사고대응 지원용 지휘통제시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 복합재난 사고대응 지원용 지휘통제시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 복합재난 사고대응 지원용 지휘통제시스템의 전반적인 동작을 제어한다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
종래에는, 화재에 의해 발생된 농연으로 시야 확보가 매우 힘든 재난 환경에서는 소방관이 들어가 자신의 위치를 모르는 상황에서 경험과 감으로 자신의 위치를 추정하고, 구조자를 탐색하여 구조작업을 수행한다.
이러한 재난 환경에서는 소방관들의 상황 및 위치 정보를 소방지휘관에게 음성으로 전달 및 공유하여 요구조자 및 소방관의 상태를 파악한다.
이를 위해 소방관들은 무전기를 활용하여 불확실한 자신의 위치를 설명하며, 소방지휘관들은 각 소방관들의 추정위치를 기반으로 구조작업을 지시하고 있다.
따라서, 재난 현장에서 소방관의 추정 위치가 잘못 되거나 소방지휘관의 해석이 잘못되어 각 소방관들의 협업을 통한 구조작업을 수행에 문제가 발생한다.
다중 센서를 부착한 웨어러블 플랫폼 기술개발은 보편적이며, 개인 및 산업용의 다양한 부분에서 진행하고 있다.
그러나 재난환경에서 소방관의 개인 정보를 통합하고 공유하여 소방지휘관에게 가시화하며, 지휘관의 메시지를 전달하기보다 Wi-Fi, GPS등의 센서를 활용하여 실내환경내의 사용자 위치 정보의 정확도를 개선하는 연구에 집중하였다.
또한, 각각의 소방관의 정보를 통합하여 소방지휘관에게 가시화 하여 제공하는 시스템 구현의 적용예는 찾기 힘들다.
특히, 재난환경에서의 접근성 및 사용편의성을 고려하여 이동형(휴대형) 단말장치를 기반으로 구성된 시스템의 적용예는 찾기 힘들다.
따라서 재난 현장의 소방관의 정확한 위치 및 소방지휘관의 지시 기반으로 협업을 통한 구조작업 수행을 지원하고, 재난환경에서의 접근성 및 사용편의성을 고려한 복합재난 사고대응 지원용 지휘통제시스템에 대한 니즈가 높아지고 있는 실정이다.
따라서 본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 상기 종래의 문제점을 해소하고자 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.
구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.
도 2는 도 1에서 설명한 본 발명에 따른 복합재난 사고대응 지원용 지휘통제시스템의 일례를 도시한 것이다.
도 2를 참조하면, 이동형 지휘통제시스템(100)은 소방관 장비에서 획득되는 데이터의 입력을 기초로 제어부(180)의 제어에 따라 데이터를 통합하고 통합된 데이터를 가시화하는 인터페이스부(170), 소방지휘관의 명령을 전달하는 입력부(130) 및 공유하는 통신부(110) 등으로 하드웨어장치, 소프트웨어 장치 등의 시스템에서 연동되는 모든 장치를 포함한다.
도 2를 참조하면, 소방관(210)이 착용하고 있는 장비의 카메라(121), 라이다(141), 마이크(122) 등에서 획득된 영상, 위치, 음성 데이터를 통합하여 제어부(180)는 지도상의 소방관의 위치와 상태를 생성할 수 있다.
또한, 제어부(180)의 제어에 따라 생성한 데이터를 각 소방관별로 관리하고, 메모리(160)에 저장할 수 있다.
또한, 제어부(180)는 각 소방관 별로 생성된 정보를 이동형 지휘통제시스템의 사용자 인터페이스를 통해, 디스플레이부(151) 상에 표시함으로써, 소방지휘관(200)에게 가시화할 수 있다.
소방지휘관(200)은 가시화된 소방관들의 정보를 기준으로 구조를 위한 지휘명령을 내리며, 이동형 지휘통제시스템(100)은 통신부(110)를 기초로 이를 소방관(210)에게 전달한다.
도 2를 참조하면, 소방관의 정보를 통합하여 가시화하는 디스플레이부(151)가 도시된다.
또한, 소방관(210)의 장비에 부착된 카메라(121), 라이다(141), 마이크(121) 등이 도시되고, 지휘통제 시스템(100)은 재난환경의 사용성을 증가하기 위해 두 개의 터치모니터(151)로 구성되어 있으며, 무선 환경 내에서 사용 가능하도록 설계한다.
복합재난 사고대응 지원용 지휘통제 방법
전술한 본 발명의 구성을 기초로 복합재난 사고대응 지원용 지휘통제 방법을 구체적으로 설명한다.
도 3은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제 방법을 설명하는 순서도이다.
도 3을 참조하면, 가잔 먼저, 복수의 소방관(210)이 착용한 장비에 구비된 카메라(121), 라이다(141) 및 마이크(121)로부터 영상, 위치 및 음성 데이터를 획득하는 단계(S10)가 진행된다.
이후, 제어부(180)의 제어에 따라 획득한 위치 데이터를 기준으로 디스플레이부(151) 상에 표시된 맵(MAP) 상에 각각의 소방관(210)의 위치를 표시하는 단계(S20)가 진행된다.
복수의 소방관(210) 각각의 위치가 맵 상에 표시된 경우, 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 각각의 소방관의 상태를 결정하는 단계(S30)가 진행된다.
이후, 표시된 소방관(210)의 위치 상에 결정한 소방관(210)의 상태를 함께 표시하는 단계(S40)가 진행되고, 소방지휘관(200)의 구조명령이 입력되면, 복수의 소방관(210) 각각에 통신부(110)를 기초로 공유하는 단계(S50)가 진행된다.
복합재난 사고대응 지원용 지휘통제시스템에 따른 효과
본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.
구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.
또한, 본 발명이 제안하는 기술적 내용을 기초로, 지휘관은 농연으로 시야확보가 힘든 재난 환경에서, 각 소방관에 대한 다중정보 통합에 의한 구조활동을 위한 협업 지시의 효율성 문제를 해결할 수 있다.
또한, 본 발명에 따르면, 이동형(휴대형) 단말장치 기반으로 재난상황에서의 사용의 활용성을 높일 수 있다.
또한, 본 발명은 소방장비에서 획득된 다중 정보를 각각의 소방관을 기준으로 통합하고 지휘관의 명령이 공유 가능한 이동형(휴대형) 단말장치기반 지휘통제시스템을 제안할 수 있다.
또한, 본 발명의 적용범위는 공조협력을 필요로 하는 재난 대응 상황에서 구조자 및 지휘자의 정보 공유를 위한 이동형(휴대형) 단말장치기반 지휘통제시스템으로 확장될 수 될 수 있다.
결과적으로 본 발명에서는 1) 영상, 음성, 위치 정보의 통합을 통한 소방관의 상태 정보를 가시화할 수 있고, 2) 소방지휘관의 지휘명령을 다수의 소방관에게 동시에 전달하는 것이 가능하며, 3) 이동형 지휘통제 시스템 기반 재난 환경 내 활용성을 증가시킬 수 있고, 4) 재난환경 상황 정보 파악을 통한 구조를 위한 협업을 가능하게 할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.

Claims (5)

  1. 복수의 소방관이 착용한 장비에 구비되어 영상 데이터를 획득하는 카메라;
    상기 장비에 구비되어 상기 복수의 소방관의 위치 데이터를 획득하는 라이다;
    상기 장비에 구비되어 음성 데이터를 획득하는 마이크;
    상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 표시하는 투명형 또는 광투과형 디스플레이부;
    상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 상기 디스플레이부가 표시하고, 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하며, 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 상기 디스플레이부가 함께 표시하도록 제어하는 제어부;
    상기 제어부에 의해 진동을 통한 촉각효과 또는 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력과 흡입력, 전극(eletrode), 정전기력 및 흡열과 발열 소자 중 어느 하나를 이용하여 촉각효과를 발생시키는 햅틱모듈;
    상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 통신부; 및
    상기 제어부의 제어 신호에 따라 상기 디스플레이부 상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이하는 프로젝터 모듈; 을 포함하는 재난 및 사고 대응 지원용 지휘통제시스템.
  2. 제 1항에 있어서,
    상기 디스플레이부는 한 개 이상의 터치스크린으로 구성되고,
    상기 한 개 이상의 터치스크린의 적어도 일부에 대한 상기 소방지휘관의 터치에 대응하여 상기 명령이 결정되는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 위치 데이터를 기초로 결정된 상기 복수의 소방관 각각이 위험 지역과 인접한 정도 및 상기 영상 데이터 및 상기 음성 데이터를 기초로 결정된 상기 복수의 소방관 각각의 위험 정도를 이용하여 상기 복수의 소방관 각각의 상태를 결정하는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
  4. 제 1항에 있어서,
    상기 소방지휘관의 음성이 추가적으로 입력되는 경우,
    상기 통신부는 상기 명령 및 음성을 함께 상기 복수의 소방관 각각에 공유하는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
  5. 삭제
KR1020180147010A 2018-11-26 2018-11-26 복합재난 사고대응 지원용 지휘통제시스템 KR102243903B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180147010A KR102243903B1 (ko) 2018-11-26 2018-11-26 복합재난 사고대응 지원용 지휘통제시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180147010A KR102243903B1 (ko) 2018-11-26 2018-11-26 복합재난 사고대응 지원용 지휘통제시스템

Publications (2)

Publication Number Publication Date
KR20200061564A KR20200061564A (ko) 2020-06-03
KR102243903B1 true KR102243903B1 (ko) 2021-04-23

Family

ID=71087905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180147010A KR102243903B1 (ko) 2018-11-26 2018-11-26 복합재난 사고대응 지원용 지휘통제시스템

Country Status (1)

Country Link
KR (1) KR102243903B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102240845B1 (ko) * 2020-09-15 2021-04-16 한국소방산업기술원 화재 발생시 인명구조 신속 대응능력 확보 시스템
KR102411665B1 (ko) * 2020-12-01 2022-06-21 엘아이지넥스원 주식회사 햅틱 기반 원격 제어를 이용한 재난 구조 시스템 및 이의 동작 방법
KR102379326B1 (ko) 2021-09-03 2022-03-30 대한민국 특수차량기반 재난조사시스템 및 이를 활용한 재난조사 방법
WO2023170941A1 (ja) * 2022-03-11 2023-09-14 日本電気株式会社 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100788886B1 (ko) 2006-11-09 2007-12-27 주식회사 제이캐스트 와이맥스 및 와이파이 전송기술을 이용한 공공안전재난구조 통신망 시스템 및 그 방법
KR101913041B1 (ko) * 2017-07-25 2018-10-30 주식회사 목양엔지니어링건축사사무소 인명 위치를 검출할 수 있는 소방 지원 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100993905B1 (ko) * 2008-09-10 2010-11-11 주식회사 아이원맥스 이동통신단말기를 이용한 방재 시스템
KR20090097842A (ko) * 2009-08-28 2009-09-16 주식회사 효림네트웍스 소방관 위치추적의 방법 및 관리시스템
KR20150122415A (ko) * 2014-04-23 2015-11-02 대전과학기술대학교 산학협력단 재난 현장 무선 통합 지휘 시스템
KR102297432B1 (ko) 2014-06-24 2021-09-06 에스케이플래닛 주식회사 컨텐츠의 카테고리 분석 방법 및 장치
KR20160015089A (ko) * 2014-07-30 2016-02-12 쉐도우시스템즈(주) 소방관용 스마트 보호 헬멧 시스템 및 장치
US9466188B2 (en) * 2014-12-24 2016-10-11 Immersion Corporation Systems and methods for haptically-enabled alarms
KR20180047115A (ko) * 2016-10-31 2018-05-10 주식회사 디자인모올 재난현장 응급구조사 착용용 웨어러블 디바이스

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100788886B1 (ko) 2006-11-09 2007-12-27 주식회사 제이캐스트 와이맥스 및 와이파이 전송기술을 이용한 공공안전재난구조 통신망 시스템 및 그 방법
KR101913041B1 (ko) * 2017-07-25 2018-10-30 주식회사 목양엔지니어링건축사사무소 인명 위치를 검출할 수 있는 소방 지원 장치

Also Published As

Publication number Publication date
KR20200061564A (ko) 2020-06-03

Similar Documents

Publication Publication Date Title
KR102243903B1 (ko) 복합재난 사고대응 지원용 지휘통제시스템
US10872584B2 (en) Providing positional information using beacon devices
US9395543B2 (en) Wearable behavior-based vision system
CA2913650C (en) Virtual object orientation and visualization
US10360728B2 (en) Augmented reality device, system, and method for safety
EP3179292B1 (en) Head-mounted display device and control method therefor
US8965741B2 (en) Context aware surface scanning and reconstruction
US9384737B2 (en) Method and device for adjusting sound levels of sources based on sound source priority
US11378802B2 (en) Smart eyeglasses
JP2016082462A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
KR20200082109A (ko) 비주얼 데이터와 3D LiDAR 데이터 융합 기반 계층형 특징정보 추출 및 응용 시스템
KR102218210B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
KR101787508B1 (ko) 스마트 작업모 및 그 제어방법
JP2015084150A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR102269833B1 (ko) 스마트 안경
JP2016033611A (ja) 情報提供システム、表示装置、および、表示装置の制御方法
KR102191433B1 (ko) 스마트 안경
KR20220045799A (ko) 전자 장치 및 그 동작 방법
KR20210150881A (ko) 전자 장치 및 그 동작 방법
KR20240018331A (ko) 장애물 관련 정보를 표시하기 위한 웨어러블 전자 장치, 동작 방법, 및 저장 매체
KR20120022352A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant