KR20200061564A - Comand and control system for supporting compound disasters accident - Google Patents

Comand and control system for supporting compound disasters accident Download PDF

Info

Publication number
KR20200061564A
KR20200061564A KR1020180147010A KR20180147010A KR20200061564A KR 20200061564 A KR20200061564 A KR 20200061564A KR 1020180147010 A KR1020180147010 A KR 1020180147010A KR 20180147010 A KR20180147010 A KR 20180147010A KR 20200061564 A KR20200061564 A KR 20200061564A
Authority
KR
South Korea
Prior art keywords
firefighters
command
location
control system
firefighter
Prior art date
Application number
KR1020180147010A
Other languages
Korean (ko)
Other versions
KR102243903B1 (en
Inventor
오승섭
양견모
서갑호
함제훈
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020180147010A priority Critical patent/KR102243903B1/en
Publication of KR20200061564A publication Critical patent/KR20200061564A/en
Application granted granted Critical
Publication of KR102243903B1 publication Critical patent/KR102243903B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Abstract

The present invention relates to a command control system for supporting response to a compound disaster accident. According to an aspect of the present invention, the system includes: cameras provided in instruments worn on a plurality of firefighters to acquire video data; LiDAR provided in the instruments to acquire location data of the plurality of firefighters; microphones provided in the instruments to acquire voice data; a display unit displaying a map related to a region where the plurality of firefighters are deployed; a control unit making the display unit display the each location of the plurality of firefighters on the displayed map based on the acquired location data and by using identifiers, determining the each state of the plurality of firefighters by using at least one among the acquired video, locations, and voice data, and making the display unit display both the displayed firefighter identifiers and the each determined state of the firefighters on the map; and a communication unit sharing the command with each of the plurality of firefighters when a command of a fire commander corresponding to the each location and state of the plurality of firefighters is input.

Description

복합재난 사고대응 지원용 지휘통제시스템 {COMAND AND CONTROL SYSTEM FOR SUPPORTING COMPOUND DISASTERS ACCIDENT}Command and Control System for Supporting Composite Disaster Response {COMAND AND CONTROL SYSTEM FOR SUPPORTING COMPOUND DISASTERS ACCIDENT}

본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것이다. 구체적으로 본 발명은 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템에 관한 것이다.The present invention relates to a command and control system for supporting disaster response in a composite disaster. Specifically, the present invention obtains image, location, and audio data from equipment worn by a plurality of firefighters, determines the location and status of the firefighters based on the acquired data, and determines the location of the firefighters displayed on the map to determine the firefighter's status It is related to a mobile (portable) terminal device-based command and control system that simultaneously displays and rescues the fire commander's rescue command.

화재에 의해 발생된 농연으로 시야 확보가 매우 힘든 재난 환경에서는 소방관이 들어가 자신의 위치를 모르는 상황에서 경험과 감으로 자신의 위치를 추정하고, 구조자를 탐색하여 구조작업을 수행한다. In a disaster environment where it is very difficult to secure a view due to the smoke generated by the fire, a firefighter enters, estimates his position with experience and sense in a situation where he does not know his location, searches for the rescuer and performs rescue work.

이러한 재난 환경에서는 소방관들의 상황 및 위치 정보를 소방지휘관에게 음성으로 전달 및 공유하여 요구조자 및 소방관의 상태를 파악한다. In this disaster environment, the situation and location information of the firefighters are delivered and shared by the fire commander in a voice to grasp the status of the requester and the firefighters.

이를 위해 소방관들은 무전기를 활용하여 불확실한 자신의 위치를 설명하며, 소방지휘관들은 각 소방관들의 추정위치를 기반으로 구조작업을 지시하고 있다. To this end, firefighters use radios to describe their uncertain location, and firefighters direct rescue operations based on the estimated location of each firefighter.

따라서, 재난 현장에서 소방관의 추정 위치가 잘못 되거나 소방지휘관의 해석이 잘못되어 각 소방관들의 협업을 통한 구조작업을 수행에 문제가 발생한다.Accordingly, the firefighter's estimated position at the disaster site is incorrect, or the interpretation of the firefighter's command is incorrect, and thus, a problem arises in carrying out rescue work through cooperation of each firefighter.

다중 센서를 부착한 웨어러블 플랫폼 기술개발은 보편적이며, 개인 및 산업용의 다양한 부분에서 진행하고 있다. The development of wearable platform technology with multiple sensors is universal, and is being conducted in various parts of personal and industrial use.

그러나 재난환경에서 소방관의 개인 정보를 통합하고 공유하여 소방지휘관에게 가시화하며, 지휘관의 메시지를 전달하기보다 Wi-Fi, GPS등의 센서를 활용하여 실내환경내의 사용자 위치 정보의 정확도를 개선하는 연구에 집중하였다. However, in a disaster environment, by integrating and sharing the personal information of firefighters and making them visible to the fire commander, rather than sending the commander's message, the research using the sensors such as Wi-Fi and GPS improves the accuracy of user location information in the indoor environment. Concentrated.

또한, 각각의 소방관의 정보를 통합하여 소방지휘관에게 가시화 하여 제공하는 시스템 구현의 적용예는 찾기 힘들다. Also, it is difficult to find an application example of a system implementation in which information of each firefighter is integrated and visualized and provided to the firefighter.

특히, 재난환경에서의 접근성 및 사용편의성을 고려하여 이동형(휴대형) 단말장치를 기반으로 구성된 시스템의 적용예는 찾기 힘들다.In particular, it is difficult to find an application example of a system configured based on a mobile (portable) terminal device in consideration of accessibility and ease of use in a disaster environment.

따라서 재난 현장의 소방관의 정확한 위치 및 소방지휘관의 지시 기반으로 협업을 통한 구조작업 수행을 지원하고, 재난환경에서의 접근성 및 사용편의성을 고려한 복합재난 사고대응 지원용 지휘통제시스템에 대한 니즈가 높아지고 있는 실정이다.Therefore, the need for a command and control system for supporting a composite disaster incident considering the accessibility and ease of use in a disaster environment is increasing, supporting the execution of rescue operations through collaboration based on the exact location of the firefighters at the disaster site and the direction of the fire commander. to be.

대한민국 특허청 출원번호 제 10-2016-0000886호Korea Patent Office Application No. 10-2016-0000886

본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.The present invention relates to a command and control system for supporting an emergency response to a composite disaster, and acquires image, location, and voice data from equipment worn by a plurality of firefighters, and determines the location and status of the firefighters based on the acquired data on the map. We would like to propose a mobile (portable) terminal-based command and control system that simultaneously displays the determined firefighter's status on the displayed firefighter's location and shares the rescue command of the firefighter.

구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.Specifically, the present invention integrates a firefighter's state and location information generating device from firefighting equipment to solve the above-described problems of the prior art, integrates the firefighter's location, video, and voice information and delivers it to the fire commander and orders the fire commander I would like to propose a command control system based on a mobile (portable) terminal device that simultaneously shares.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly apparent to those skilled in the art from the following description. Will be understandable.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 복합재난 사고대응 지원용 지휘통제시스템은, 복수의 소방관이 착용한 장비에 구비되어 영상 데이터를 획득하는 카메라; 상기 장비에 구비되어 상기 복수의 소방관의 위치 데이터를 획득하는 라이다; 상기 장비에 구비되어 음성 데이터를 획득하는 마이크; 상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 표시하는 디스플레이부; 상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 상기 디스플레이부가 표시하고, 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하며, 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 상기 디스플레이부가 함께 표시하도록 제어하는 제어부; 및 상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 통신부;를 포함할 수 있다.In order to achieve the above technical problem, one aspect of the present invention, a command and control system for assisting in response to a multi-disaster accident, includes a camera provided on equipment worn by a plurality of firefighters to acquire image data; A liner provided in the equipment to acquire location data of the plurality of firefighters; A microphone provided in the equipment to acquire voice data; A display unit that displays a map associated with the area where the plurality of firefighters are placed; The display unit displays the positions of each of the plurality of firefighters on the displayed map based on the acquired location data, and displays the plurality of firefighters using at least one of the acquired image, location, and audio data. A control unit that determines each state and controls the display unit to display the determined firefighter identifier and the determined state of each firefighter on the map together; And a communication unit that shares the command to each of the plurality of firefighters when commands of the firefighters corresponding to the positions and conditions of each of the plurality of firefighters are input.

또한, 상기 디스플레이부는 복수의 터치스크린으로 구성되고, 상기 복수의 터치스크린의 적어도 일부에 대한 상기 소방지휘관의 터치에 대응하여 상기 명령이 결정될 수 있다.In addition, the display unit may include a plurality of touch screens, and the command may be determined in response to a touch of the fire commander on at least a portion of the plurality of touch screens.

또한, 상기 제어부는, 상기 위치 데이터를 기초로 결정된 상기 복수의 소방관 각각이 위험 지역과 인접한 정도 및 상기 영상 데이터 및 상기 음성 데이터를 기초로 결정된 상기 복수의 소방관 각각의 위험 정도를 이용하여 상기 상기 복수의 소방관 각각의 상태를 결정할 수 있다.In addition, the control unit, the plurality of firefighters determined based on the location data, each of the plurality of firefighters adjacent to the danger zone and the degree of risk of each of the plurality of firefighters determined based on the video data and the audio data Let's decide the status of each firefighter.

또한, 상기 소방지휘관의 음성이 추가적으로 입력되는 경우, 상기 통신부는 상기 명령 및 음성을 함께 상기 복수의 소방관 각각에 공유할 수 있다.In addition, when the voice of the fire commander is additionally input, the communication unit may share the command and voice with each of the plurality of firefighters.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 일 양상인 복합재난 사고대응 지원용 지휘통제 방법은, 복수의 소방관이 착용한 장비에 구비된 카메라, 라이다 및 마이크로부터 영상, 위치 및 음성 데이터 중 적어도 하나를 획득하는 단계; 상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 디스플레이부가 표시하는 단계; 상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 표시하는 단계; 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하는 단계; 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 함께 표시하는 단계; 및 상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 단계;를 포함할 수 있다.On the other hand, another aspect of the present invention for achieving the above technical problem is a command and control method for supporting a composite disaster incident, video, location and audio data from cameras, lidars and micros provided in equipment worn by a plurality of firefighters. Obtaining at least one of the above; Displaying a map associated with an area in which the plurality of firefighters are disposed, a display unit; Displaying each location of each of the plurality of firefighters on the displayed map based on the acquired location data using an identifier; Determining states of each of the plurality of firefighters using at least one of the acquired image, location, and audio data; Displaying the identifier of the displayed firefighter and the determined state of each firefighter on the map together; And sharing a command to each of the plurality of firefighters when a command of the fire commander corresponding to the location and state of each of the plurality of firefighters is input.

본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.The present invention relates to a command and control system for supporting an emergency response to a composite disaster, and acquires image, location, and voice data from equipment worn by a plurality of firefighters, and determines the location and status of the firefighters based on the acquired data on the map. It is possible to provide the user with a mobile (portable) terminal-based command and control system that simultaneously displays the determined firefighter's status on the displayed firefighter's location and simultaneously shares the rescue command of the firefighter.

구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.Specifically, the present invention integrates the state and location information generating device of the firefighter from the firefighting equipment to solve the above-mentioned problems of the prior art, integrates the location, video, and voice information of the firefighter and delivers it to the fire commander and orders the fire commander It is possible to provide a user with a mobile (portable) terminal device-based command and control system that simultaneously shares.

또한, 본 발명이 제안하는 기술적 내용을 기초로, 지휘관은 농연으로 시야확보가 힘든 재난 환경에서, 각 소방관에 대한 다중정보 통합에 의한 구조활동을 위한 협업 지시의 효율성 문제를 해결할 수 있다.In addition, based on the technical content proposed by the present invention, the commander can solve the problem of efficiency of collaborative instruction for rescue activities by integrating multi-information for each firefighter in a disaster environment in which it is difficult to secure a field of view by agricultural performance.

또한, 본 발명에 따르면, 이동형(휴대형) 단말장치 기반으로 재난상황에서의 사용의 활용성을 높일 수 있다.In addition, according to the present invention, it is possible to increase the usability of use in a disaster situation based on a mobile (portable) terminal device.

또한, 본 발명은 소방장비에서 획득된 다중 정보를 각각의 소방관을 기준으로 통합하고 지휘관의 명령이 공유 가능한 이동형(휴대형) 단말장치기반 지휘통제시스템을 제안할 수 있다.In addition, the present invention can propose a command control system based on a mobile (portable) terminal device that integrates multiple information obtained from fire fighting equipment based on each firefighter and allows commanders to share commands.

또한, 본 발명의 적용범위는 공조협력을 필요로 하는 재난 대응 상황에서 구조자 및 지휘자의 정보 공유를 위한 이동형(휴대형) 단말장치기반 지휘통제시스템으로 확장될 수 될 수 있다.In addition, the scope of the present invention can be extended to a mobile (portable) terminal device-based command control system for information sharing of rescuers and conductors in a disaster response situation requiring cooperation.

결과적으로 본 발명에서는 1) 영상, 음성, 위치 정보의 통합을 통한 소방관의 상태 정보를 가시화할 수 있고, 2) 소방지휘관의 지휘명령을 다수의 소방관에게 동시에 전달하는 것이 가능하며, 3) 이동형 지휘통제 시스템 기반 재난 환경 내 활용성을 증가시킬 수 있고, 4) 재난환경 상황 정보 파악을 통한 구조를 위한 협업을 가능하게 할 수 있다.As a result, in the present invention, 1) it is possible to visualize the firefighter's status information through the integration of video, audio, and location information, and 2) it is possible to simultaneously transmit a command of a fire commander to multiple firefighters, and 3) a mobile command. It is possible to increase the usability in the disaster environment based on the control system, and 4) it is possible to enable collaboration for rescue through grasping the information on the disaster environment.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description. Will be able to.

도 1은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제시스템의 블록 구성도를 도시한 것이다.
도 2는 도 1에서 설명한 본 발명에 따른 복합재난 사고대응 지원용 지휘통제시스템의 일례를 도시한 것이다.
도 3은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제 방법을 설명하는 순서도이다.
1 is a block diagram of a command and control system for supporting a composite disaster incident proposed by the present invention.
FIG. 2 shows an example of a command and control system for supporting a multi-disaster accident response according to the present invention described with reference to FIG. 1.
3 is a flow chart illustrating a command and control method for supporting a composite disaster incident proposed by the present invention.

복합재난 사고대응 지원용 지휘통제시스템Command and control system for supporting disaster response in a complex disaster

본 발명이 제안하는 기술에 대한 구체적인 설명에 앞서, 본 발명에 적용되는 복합재난 사고대응 지원용 지휘통제시스템의 구성요소들을 설명한다.Prior to a detailed description of the technology proposed by the present invention, the components of the command and control system for supporting a multi-disaster accident response applied to the present invention will be described.

도 1은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제시스템의 블록 구성도를 도시한 것이다.1 is a block diagram of a command and control system for supporting a composite disaster incident proposed by the present invention.

도 1를 참조하면, 복합재난 사고대응 지원용 지휘통제시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to FIG. 1, the command and control system 100 for supporting a composite disaster incident is a wireless communication unit 110, an audio/video (A/V) input unit 120, a user input unit 130, a sensing unit 140, and output It may include a unit 150, a memory 160, an interface unit 170, a control unit 180 and a power supply unit 190.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 복합재난 사고대응 지원용 지휘통제시스템이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, a command and control system for supporting a multi-disaster incident response having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

무선 통신부(110)는 복합재난 사고대응 지원용 지휘통제시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules that enable wireless communication between a command and control system for supporting a disaster response and a wireless communication system or between a device and a network in which the device is located.

예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the wireless communication unit 110 may include a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives wireless signals to and from at least one of a base station, an external device, and a server on a mobile communication network.

문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. It may include various types of data according to the transmission and reception of text/multimedia messages.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 복합재난 사고대응 지원용 지휘통제시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built in or external to a command and control system for supporting a composite disaster. Wireless Internet technology (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) may be used.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-WideBand), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-WideBand (UWB), ZigBee, Wireless Fidelity (Wi-Fi), etc. This can be used.

위치정보 모듈(115)은 복합재난 사고대응 지원용 지휘통제시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for acquiring the location of a command and control system for supporting a multi-disaster incident response, and a representative example thereof is a Global Position System (GPS) module.

도 1를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. Referring to FIG. 1, the A/V (Audio/Video) input unit 120 is for inputting an audio signal or a video signal, which may include a camera 121 and a microphone 122.

카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The camera 121 processes an image frame such as a still image or a video image obtained by an image sensor in a shooting mode, and the processed image frame can be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frames processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, etc., and processes it as electrical voice data. The processed voice data may be converted and output in a form that can be transmitted to the mobile communication base station through the mobile communication module 112. Various noise reduction algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 122.

다음으로, 적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영하여 촬영한다. Next, the infrared camera 122 photographs by projecting light in an infrared band that a person cannot see.

FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타내고, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있다.The light of FIR is also called LWIR (Long Wavelength Infra-Red), and the infrared light represents the band of 8 μm to 15 μm among the wavelengths of light, and the FIR band can distinguish the temperature because the wavelength changes with temperature.

적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가지고, 적외선 카메라(122)를 통해, 야간에서도 특정 객체에 대한 이미지, 동영상 등을 촬영하는 것이 가능하다.The body temperature of a person (pedestrian), which is the target of the infrared camera 122, has a wavelength of 10 μm, and through the infrared camera 122, it is possible to photograph an image, a video, etc. for a specific object even at night.

다음으로, 사용자 입력부(130)는 사용자가 복합재난 사고대응 지원용 지휘통제시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. Next, the user input unit 130 generates input data for the user to control the operation of the command and control system for supporting the disaster response. The user input unit 130 may be configured with a key pad dome switch, a touch pad (static pressure/blackout), a jog wheel, a jog switch, or the like.

센싱부(140)는 복합재난 사고대응 지원용 지휘통제시스템의 개폐 상태, 복합재난 사고대응 지원용 지휘통제시스템의 위치, 사용자 접촉 유무, 복합재난 사고대응 지원용 지휘통제시스템의 방위, 복합재난 사고대응 지원용 지휘통제시스템의 가속/감속 등과 같이 복합재난 사고대응 지원용 지휘통제시스템의 현 상태를 감지하여 복합재난 사고대응 지원용 지휘통제시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 opens and closes the command and control system for the support of a composite disaster response, the location of the command and control system for the support of the composite disaster response, the presence of user contact, the defense of the command and control system for the support of the composite disaster response, and the command for the support of the composite disaster It senses the current state of the command and control system for supporting a composite disaster incident, such as acceleration/deceleration of a control system, and generates a sensing signal to control the operation of the command and control system for supporting and supporting a composite disaster.

센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled with external devices, or the like.

또한, 본 발명에 따른 센싱부(140)는 LiDAR(light detection and ranging, 141)를 포함할 수 있다.In addition, the sensing unit 140 according to the present invention may include a light detection and ranging (LiDAR) 141.

여기서 LiDAR(141)는 light detection and ranging의 머리 글자를 따서 라이더라고도 한다. Here, LiDAR 141 is also referred to as a rider after the initials of light detection and ranging.

원리적으로는 종래의 레이더에 있어서 마이크로파를 레이저광으로 대치한 것으로서, 표적까지의 거리 측정 장치이다. In principle, in the conventional radar, microwaves are replaced by laser light, and it is a distance measuring device to a target.

레이저광을 사용함으로써 레이더(142)에 비해 거리 측정 정밀도와 방위 분해능, SN 비 등에서 개선된다. By using laser light, the accuracy of distance measurement, azimuth resolution, and SN ratio are improved compared to radar 142.

파장이 짧기 때문에 공기중의 미립자도 검출할 수 있다.Since the wavelength is short, particulates in the air can also be detected.

레이저 라만 레이더는 라만 산란을 이용하여 특정한 분자를 검출하는 것으로서, 대기나 해상 오염의 감시에 쓰이고 있다.The laser Raman radar detects specific molecules using Raman scattering, and is used to monitor air and sea pollution.

본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the LiDAR 141 recognizes an object located in the front of the vehicle, etc., and at the same time, the control unit 180 greatly reduces the amount of computation in generating a ROI (Region of Interest), and allows the driver to view information with higher accuracy. You can make it known in advance.

또한, 본 발명에 따른 센싱부(140)는 RADAR(Radio Detecting And Ranging, 142)를 포함할 수 있다.In addition, the sensing unit 140 according to the present invention may include RADAR (Radio Detecting And Ranging, 142).

여기서 RADAR(142)는 무선탐지와 거리측정(Radio Detecting And Ranging)의 약어로 마이크로파(극초단파, 10cm~100cm 파장) 의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치이다.Here, RADAR (142) is an abbreviation of radio detection and distance measurement (Radio Detecting And Ranging). It emits electromagnetic waves of microwaves (ultra-short wave, 10cm~100cm wavelength) to an object, receives electromagnetic waves reflected from the object, and receives the distance from the object. It is a wireless monitoring device that finds directions, altitude, etc.

RADAR(142)에 이용되는 마이크로파는 파장이 길어서 빛과 같은 직진성을 가지며 전리층에서 반사되지 않으므로 방향성 안테나에서 발산된 전파는 목표물까지 직선으로 진행한 후 반사하여 돌아온다. Since the microwave used for the RADAR 142 has a long wavelength and has the same straightness as light and is not reflected from the ionosphere, the radio waves emitted from the directional antenna proceed in a straight line to the target and then return.

이때, 반사되어 돌아온 전자기파의 시간을 측정하여 목표물의 거리, 방향, 고도를 알아낼 수 있으며, 이러한 정보를 통해 목표물의 위치, 지형, 구름의 형성 등을 알아낸다.At this time, the distance, direction, and altitude of the target can be determined by measuring the time of the reflected electromagnetic wave, and the location, topography, and cloud formation of the target are determined through this information.

레이더(142)를 이용하여 광학적 방법보다 더 정밀한 거리 측정이 가능하며 위성의 표면 상태에 대한 연구가 가능하다. Using the radar 142, it is possible to measure the distance more accurately than the optical method, and it is possible to study the surface condition of the satellite.

레이더(142)는 구름의 물방울, 얼음 결정, 빗방울, 우박 등도 감지할 수 있기 때문에 기상학에서도 지상 레이더나 공중 레이더의 정보를 이용하여 수백km 떨어진 곳의 폭풍을 탐지하고 추적할 수 있다. Since the radar 142 can also detect cloud droplets, ice crystals, raindrops, hail, etc., meteorology can detect and track storms hundreds of kilometers away using information from ground radars or aerial radars.

레이더(142)의 회로 및 보조기구들이 소형화되면서 휴대가 가능하게 되면서, 경찰이 사용하는 속도감지용 레이더건(radar gun)이나 광학 레이더 탐지 소자(optical radar sensory device)를 이용하여 맹인을 위한 지팡이에 레이더 기술을 사용하기도 한다.As the circuits and auxiliary devices of the radar 142 are miniaturized and portable, the radar is mounted on a cane for the blind by using a radar gun or an optical radar sensory device used by the police. They also use technology.

본 발명에서는 RADAR(142)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the RADAR 142 recognizes an object located in the front of the vehicle, etc., and at the same time, the control unit 180 greatly reduces the amount of computation in generating a ROI (Region of Interest), and allows the driver to view forward information with higher accuracy. You can make it known in advance.

한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.On the other hand, the output unit 150 is for generating output related to vision, hearing, or tactile sense, which includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector. A module 155, a head-up display (HUD), a head mounted display (HMD), and the like may be included.

디스플레이부(151)는 복합재난 사고대응 지원용 지휘통제시스템에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed by the command and control system for supporting a composite disaster.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible) display) and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 복합재난 사고대응 지원용 지휘통제시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 복합재난 사고대응 지원용 지휘통제시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be of a transparent type or a light transmissive type so that the outside can be seen through them. This may be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light transmissive structure. Due to this structure, the user can view objects located behind the body of the command and control system for supporting composite disaster accidents through the area occupied by the display unit 151 of the body of the command and control system for supporting composite disaster accidents.

복합재난 사고대응 지원용 지휘통제시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 복합재난 사고대응 지원용 지휘통제시스템에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units 151 may be present depending on the implementation form of the command and control system for supporting a multi-disaster accident response. For example, in a command and control system for supporting a composite disaster incident, a plurality of display units may be spaced apart from one surface or integrally arranged, or may be respectively disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor that senses a touch operation (hereinafter referred to as a “touch sensor”) form a mutual layer structure (hereinafter, referred to as a “touch screen”), the display unit 151 may be used in addition to an output device. It can also be used as an input device. The touch sensor may have a form of, for example, a touch film, a touch sheet, or a touch pad.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal(s) is sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the controller 180. Accordingly, the control unit 180 can know which area of the display unit 151 has been touched, and the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 복합재난 사고대응 지원용 지휘통제시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in the vicinity of the touch screen or in an internal area of the command and control system for supporting a composite disaster incident covered by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without mechanical contact using electromagnetic force or infrared rays. Proximity sensors have a longer lifespan and higher utilization than contact sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, it is configured to detect the proximity of the pointer due to a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of description, the act of allowing the pointer to be recognized as being positioned on the touch screen without being touched by the pointer is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is referred to as "contact touch". The location on the touch screen that is a proximity touch with a pointer means a location where the pointer is perpendicular to the touch screen when the pointer is touched close.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 복합재난 사고대응 지원용 지휘통제시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast reception mode, or the like. The sound output module 152 also outputs sound signals related to functions performed in the command and control system for supporting a composite disaster. The sound output module 152 may include a receiver, a speaker, and a buzzer.

알람부(153)는 복합재난 사고대응 지원용 지휘통제시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 153 outputs a signal for notifying the occurrence of an event in the command and control system for supporting a composite disaster.

알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The alarm unit 153 may output a signal for notifying the occurrence of an event by vibrating in a form other than a video signal or an audio signal, for example, vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may also be output through the display unit 151 or the audio output module 152, so that they 151 and 152 may be classified as part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the tactile effect generated by the haptic module 154 is vibration. The intensity and pattern of vibration generated by the haptic module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the haptic module 154 is used for stimulation such as pin arrangement vertically moving to the contact skin surface, spraying or suctioning power of air through a spray or intake, grazing on the skin surface, contact of an electrode, and electrostatic force. Various tactile effects can be generated, such as an effect and an effect of reproducing a feeling of cold and warm using an element capable of absorbing heat or generating heat.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 복합재난 사고대응 지원용 지휘통제시스템의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 may not only deliver the tactile effect through direct contact, but may also be implemented so that the user can feel the tactile effect through muscle sensations such as fingers or arms. Two or more haptic modules 154 may be provided according to a configuration aspect of a command and control system for supporting a composite disaster.

프로젝터 모듈(155)은, 복합재난 사고대응 지원용 지휘통제시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using a command and control system for supporting a composite disaster response, and is displayed on the display unit 151 according to a control signal from the controller 180 An image identical to or at least partially different from the image may be displayed on an external screen or a wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 generates a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, and generates an image to be output to the outside using light generated by the light source. It may include an image generating means (not shown), and a lens (not shown) for expanding and outputting the image at a certain focal length to the outside. In addition, the projector module 155 may include a device (not shown) that can adjust the image projection direction by mechanically moving the lens or the entire module.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 may be divided into a cathode ray tube (CRT) module, a liquid crystal display (LCD) module, and a digital light processing (DLP) module depending on the type of device of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by expanding and projecting an image generated by reflecting light generated from a light source to a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 복합재난 사고대응 지원용 지휘통제시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 복합재난 사고대응 지원용 지휘통제시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided in the longitudinal direction on the side, front, or rear of the command and control system for supporting a composite disaster incident. Of course, the projector module 155 is, of course, can be provided in any location of the command and control system for supporting the disaster response, if necessary.

또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.In addition, the head-up display (head-up display, HUD, 156) refers to a device that projects the current speed of the vehicle, fuel level, navigation information, and the like in a vehicle as a graphic image on the windshield.

적외선 카메라(122)를 통해 획득된 정보는 상기 헤드업 디스플레이(156)를 통해 출력되는 것도 가능하다.Information obtained through the infrared camera 122 may also be output through the head-up display 156.

또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.In addition, a head mounted display (HMD, 157) is a representative device capable of outputting virtual reality information.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a human-computer that makes a certain environment or situation through a computer into 3D content with a three-dimensional effect, making it as if the person using the 3D content is interacting with the actual surrounding situation and environment. The interface and so on are collectively.

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.In general, the three-dimensional effect perceived by a person is the degree of change in the thickness of the lens according to the position of the object to be observed, the difference in angle between both eyes and the object, and the difference in the position and shape of the object visible to the left and right eyes, the parallax caused by the motion of the object , And other psychological and memory effects.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, the most important factor for a person to feel a three-dimensional effect is binocular disparity, which occurs when the human eyes are separated by about 6.5 cm in the horizontal direction. That is, due to the binocular parallax, an angle difference with respect to an object is looked at, and due to this difference, an image entering each eye has a different image, and when these two images are transmitted to the brain through the retina, the brain receives these two information. Is able to feel the original 3D stereoscopic image by fusion of each other exactly.

이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These three-dimensional 3D contents have been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games and experiential displays.

이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.As such, along with the generalization of 3D contents of virtual reality technology, development of a technology capable of providing a more immersive virtual reality service is required in various ways.

일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.In general, an image display device forms a focus so that a virtual large screen can be constructed at a long distance using a precise optical device for image light generated at a position very close to the eye, so that the user can see an enlarged virtual image. Refers to an image display device.

또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is a closed type (See-close) that can not see the surrounding environment but only the image light emitted from the display element, and the image light emitted from the display element while viewing the surrounding environment through the window at the same time It can be divided into see-through.

본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.A head mounted display according to the present invention (head mounted display, HMD, 157) refers to various digital devices that can be worn on the head like glasses to receive multimedia content. Various wearable computers have been developed, and HMDs are also widely used in accordance with the trend of lighter and smaller digital devices. The HMD 157 can provide various conveniences to the user by combining augmented reality technology and N-screen technology, etc., beyond simple display functions.

예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.For example, when a microphone and a speaker are mounted on the HMD 157, the user may make a phone call while wearing the HMD 157. Further, for example, when the infrared camera 122 is mounted on the HMD 157, the user may capture an image in a direction desired by the user while wearing the HMD 157.

또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the memory 160 may store programs for processing and control of the controller 180, and temporarily store input/output data (eg, messages, audio, still images, videos, etc.). It can also perform the function. The frequency of use for each of the data may also be stored in the memory unit 160. In addition, the memory unit 160 may store data related to various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 복합재난 사고대응 지원용 지휘통제시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of disk, optical disk. The command and control system for supporting a composite disaster response may operate in connection with a web storage performing a storage function of the memory 160 on the Internet.

인터페이스부(170)는 복합재난 사고대응 지원용 지휘통제시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 복합재난 사고대응 지원용 지휘통제시스템 내부의 각 구성 요소에 전달하거나, 복합재난 사고대응 지원용 지휘통제시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path to all external devices connected to a command and control system for supporting a composite disaster. The interface unit 170 receives data from an external device, receives power, and transmits data to each component inside the command and control system for supporting a composite disaster response, or transmits data to a command control system for supporting and supporting a composite disaster to an external device. To be transmitted. For example, wired/wireless headset port, external charger port, wired/wireless data port, memory card port, port for connecting devices equipped with an identification module, audio input/output (I/O) port, A video input/output (I/O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 복합재난 사고대응 지원용 지휘통제시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 복합재난 사고대응 지원용 지휘통제시스템과 연결될 수 있다. The identification module is a chip that stores various information for authenticating the use authority of the command and control system for supporting a multi-disaster response, and is a user identification module (UIM), a subscriber identification module (SIM), and a general-purpose user And an authentication module (Universal Subscriber Identity Module, USIM). The device provided with the identification module (hereinafter referred to as'identification device') may be manufactured in a smart card format. Therefore, the identification device can be connected to a command and control system for supporting a composite disaster response through a port.

상기 인터페이스부는 복합재난 사고대응 지원용 지휘통제시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 복합재난 사고대응 지원용 지휘통제시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the command and control system for supporting a composite disaster incident response is connected to an external cradle, the interface unit becomes a passage through which power from the cradle is supplied to the command and control system for supporting the composite disaster incident response, or input by the user from the cradle. Various command signals may be passages to the mobile device. Various command signals or power inputted from the cradle may be operated as signals for recognizing that the mobile device is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 복합재난 사고대응 지원용 지휘통제시스템의 전반적인 동작을 제어한다. The controller 180 controls the overall operation of the command and control system for supporting a multi-disaster accident response.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power required for the operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein can be implemented in a computer- or similar device-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented in a software application written in an appropriate programming language. The software code may be stored in the memory 160 and executed by the controller 180.

종래에는, 화재에 의해 발생된 농연으로 시야 확보가 매우 힘든 재난 환경에서는 소방관이 들어가 자신의 위치를 모르는 상황에서 경험과 감으로 자신의 위치를 추정하고, 구조자를 탐색하여 구조작업을 수행한다. Conventionally, in a disaster environment in which it is very difficult to secure a field of view due to the smoke generated by a fire, a firefighter enters, estimates his position with experience and sense in a situation where he does not know his location, searches for the rescuer and performs rescue work.

이러한 재난 환경에서는 소방관들의 상황 및 위치 정보를 소방지휘관에게 음성으로 전달 및 공유하여 요구조자 및 소방관의 상태를 파악한다. In this disaster environment, the situation and location information of the firefighters are delivered and shared by the fire commander in a voice to grasp the status of the requester and the firefighters.

이를 위해 소방관들은 무전기를 활용하여 불확실한 자신의 위치를 설명하며, 소방지휘관들은 각 소방관들의 추정위치를 기반으로 구조작업을 지시하고 있다. To this end, firefighters use radios to describe their uncertain location, and firefighters direct rescue operations based on the estimated location of each firefighter.

따라서, 재난 현장에서 소방관의 추정 위치가 잘못 되거나 소방지휘관의 해석이 잘못되어 각 소방관들의 협업을 통한 구조작업을 수행에 문제가 발생한다.Accordingly, the firefighter's estimated position at the disaster site is incorrect, or the interpretation of the firefighter's command is incorrect, and thus, a problem arises in carrying out rescue work through cooperation of each firefighter.

다중 센서를 부착한 웨어러블 플랫폼 기술개발은 보편적이며, 개인 및 산업용의 다양한 부분에서 진행하고 있다. The development of wearable platform technology with multiple sensors is universal, and is being conducted in various parts of personal and industrial use.

그러나 재난환경에서 소방관의 개인 정보를 통합하고 공유하여 소방지휘관에게 가시화하며, 지휘관의 메시지를 전달하기보다 Wi-Fi, GPS등의 센서를 활용하여 실내환경내의 사용자 위치 정보의 정확도를 개선하는 연구에 집중하였다. However, in a disaster environment, by integrating and sharing the personal information of firefighters and making them visible to the fire commander, rather than sending the commander's message, the research on improving the accuracy of user location information in the indoor environment by utilizing sensors such as Wi-Fi and GPS. Concentrated.

또한, 각각의 소방관의 정보를 통합하여 소방지휘관에게 가시화 하여 제공하는 시스템 구현의 적용예는 찾기 힘들다. Also, it is difficult to find an application example of a system implementation in which information of each firefighter is integrated and visualized and provided to the firefighter.

특히, 재난환경에서의 접근성 및 사용편의성을 고려하여 이동형(휴대형) 단말장치를 기반으로 구성된 시스템의 적용예는 찾기 힘들다.In particular, it is difficult to find an application example of a system configured based on a mobile (portable) terminal device in consideration of accessibility and ease of use in a disaster environment.

따라서 재난 현장의 소방관의 정확한 위치 및 소방지휘관의 지시 기반으로 협업을 통한 구조작업 수행을 지원하고, 재난환경에서의 접근성 및 사용편의성을 고려한 복합재난 사고대응 지원용 지휘통제시스템에 대한 니즈가 높아지고 있는 실정이다.Therefore, the need for a command and control system for supporting a complex disaster accident in consideration of accessibility and ease of use in a disaster environment is increasing, supporting the execution of rescue work through collaboration based on the exact location of a firefighter at a disaster site and the direction of a fire commander. to be.

따라서 본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 상기 종래의 문제점을 해소하고자 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.Accordingly, the present invention relates to a command and control system for supporting a disaster response to a composite disaster, to obtain video, location, and audio data from equipment worn by a plurality of firefighters to solve the above problems, and to locate the firefighters based on the acquired data. And it is to propose a mobile (portable) terminal device-based command and control system that simultaneously displays the determined state of the firefighter on the map and determines the status of the firefighter, and simultaneously shares the rescue command of the firefighter.

구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 제안하고자 한다.Specifically, the present invention integrates a firefighter's state and location information generating device from firefighting equipment to solve the above-described problems of the prior art, integrates the firefighter's location, video, and voice information and delivers it to the fire commander and orders the fire commander I would like to propose a command control system based on a mobile (portable) terminal device that simultaneously shares.

도 2는 도 1에서 설명한 본 발명에 따른 복합재난 사고대응 지원용 지휘통제시스템의 일례를 도시한 것이다.Figure 2 shows an example of a command and control system for supporting a composite disaster incident according to the present invention described in FIG.

도 2를 참조하면, 이동형 지휘통제시스템(100)은 소방관 장비에서 획득되는 데이터의 입력을 기초로 제어부(180)의 제어에 따라 데이터를 통합하고 통합된 데이터를 가시화하는 인터페이스부(170), 소방지휘관의 명령을 전달하는 입력부(130) 및 공유하는 통신부(110) 등으로 하드웨어장치, 소프트웨어 장치 등의 시스템에서 연동되는 모든 장치를 포함한다.Referring to FIG. 2, the mobile command and control system 100 integrates data under the control of the control unit 180 and visualizes the integrated data based on the input of data obtained from the firefighter equipment, the fire department The input unit 130 for transmitting the command of the commander and the communication unit 110 for sharing include all devices that are interlocked in a system such as a hardware device or a software device.

도 2를 참조하면, 소방관(210)이 착용하고 있는 장비의 카메라(121), 라이다(141), 마이크(122) 등에서 획득된 영상, 위치, 음성 데이터를 통합하여 제어부(180)는 지도상의 소방관의 위치와 상태를 생성할 수 있다.Referring to FIG. 2, the controller 180 integrates the image, location, and audio data obtained from the camera 121, the lidar 141, and the microphone 122 of the equipment worn by the firefighter 210, so that the controller 180 is on the map. You can create the location and status of firefighters.

또한, 제어부(180)의 제어에 따라 생성한 데이터를 각 소방관별로 관리하고, 메모리(160)에 저장할 수 있다.In addition, data generated under the control of the controller 180 can be managed for each firefighter and stored in the memory 160.

또한, 제어부(180)는 각 소방관 별로 생성된 정보를 이동형 지휘통제시스템의 사용자 인터페이스를 통해, 디스플레이부(151) 상에 표시함으로써, 소방지휘관(200)에게 가시화할 수 있다.In addition, the controller 180 may visualize the information generated for each firefighter on the display unit 151 through the user interface of the mobile command and control system, thereby visualizing the firefighter 200.

소방지휘관(200)은 가시화된 소방관들의 정보를 기준으로 구조를 위한 지휘명령을 내리며, 이동형 지휘통제시스템(100)은 통신부(110)를 기초로 이를 소방관(210)에게 전달한다.The fire commander 200 issues a command for rescue based on the information of the visible firefighters, and the mobile command control system 100 transmits it to the firefighter 210 based on the communication unit 110.

도 2를 참조하면, 소방관의 정보를 통합하여 가시화하는 디스플레이부(151)가 도시된다.Referring to FIG. 2, a display unit 151 that integrates and visualizes information of a firefighter is shown.

또한, 소방관(210)의 장비에 부착된 카메라(121), 라이다(141), 마이크(121) 등이 도시되고, 지휘통제 시스템(100)은 재난환경의 사용성을 증가하기 위해 두 개의 터치모니터(151)로 구성되어 있으며, 무선 환경 내에서 사용 가능하도록 설계한다. In addition, a camera 121 attached to the equipment of the firefighter 210, a lidar 141, a microphone 121, etc. are shown, and the command control system 100 has two touch monitors to increase the usability of the disaster environment. It consists of (151), and is designed to be used in a wireless environment.

복합재난 사고대응 지원용 지휘통제 방법Command and control method for supporting disaster response

전술한 본 발명의 구성을 기초로 복합재난 사고대응 지원용 지휘통제 방법을 구체적으로 설명한다.Based on the above-described configuration of the present invention, a command and control method for supporting a composite disaster incident will be described in detail.

도 3은 본 발명이 제안하는 복합재난 사고대응 지원용 지휘통제 방법을 설명하는 순서도이다.3 is a flow chart illustrating a command and control method for supporting a composite disaster incident proposed by the present invention.

도 3을 참조하면, 가잔 먼저, 복수의 소방관(210)이 착용한 장비에 구비된 카메라(121), 라이다(141) 및 마이크(121)로부터 영상, 위치 및 음성 데이터를 획득하는 단계(S10)가 진행된다.Referring to FIG. 3, first, obtaining a video, location, and audio data from a camera 121, a lidar 141, and a microphone 121 provided in equipment worn by a plurality of firefighters 210 (S10). ) Proceeds.

이후, 제어부(180)의 제어에 따라 획득한 위치 데이터를 기준으로 디스플레이부(151) 상에 표시된 맵(MAP) 상에 각각의 소방관(210)의 위치를 표시하는 단계(S20)가 진행된다.Subsequently, a step S20 of displaying the location of each firefighter 210 on the map MAP displayed on the display unit 151 based on the location data obtained under the control of the control unit 180 is performed.

복수의 소방관(210) 각각의 위치가 맵 상에 표시된 경우, 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 각각의 소방관의 상태를 결정하는 단계(S30)가 진행된다.When the location of each of the plurality of firefighters 210 is displayed on the map, a step (S30) of determining the state of each firefighter by using at least one of the acquired image, location, and audio data is performed.

이후, 표시된 소방관(210)의 위치 상에 결정한 소방관(210)의 상태를 함께 표시하는 단계(S40)가 진행되고, 소방지휘관(200)의 구조명령이 입력되면, 복수의 소방관(210) 각각에 통신부(110)를 기초로 공유하는 단계(S50)가 진행된다.Subsequently, a step (S40) of simultaneously displaying the determined state of the firefighter 210 on the displayed location of the firefighter 210 is performed, and when a rescue command of the firefighter commander 200 is input, to each of the plurality of firefighters 210 Based on the communication unit 110, the sharing step S50 is performed.

복합재난 사고대응 지원용 지휘통제시스템에 따른 효과Effects of the Command and Control System for Supporting Multi-Disaster Accident Response

본 발명은 복합재난 사고대응 지원용 지휘통제시스템에 관한 것으로, 복수의 소방관이 착용한 장비로부터 영상, 위치 및 음성 데이터를 획득하고, 획득한 데이터를 기초로 소방관의 위치 및 상태를 결정하여 맵 상에 표시된 소방관의 위치 상에 결정한 소방관의 상태를 함께 표시하며, 소방지휘관의 구조 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.The present invention relates to a command and control system for supporting an emergency response to a composite disaster, and acquires image, location, and voice data from equipment worn by a plurality of firefighters, and determines the location and status of the firefighters based on the acquired data on the map. It is possible to provide the user with a mobile (portable) terminal-based command and control system that simultaneously displays the determined firefighter's status on the displayed firefighter's location and simultaneously shares the rescue command of the firefighter.

구체적으로 본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 소방장비로부터 소방관의 상태 및 위치정보 생성장치를 통합하고, 소방관의 위치, 영상, 음성 정보를 통합하여 소방지휘관에게 전달하고 소방지휘관의 명령을 동시에 공유하는 이동형(휴대형) 단말장치 기반 지휘통제시스템을 사용자에게 제공할 수 있다.Specifically, the present invention integrates the state and location information generating device of the firefighter from the firefighting equipment to solve the above-mentioned problems of the prior art, integrates the location, video, and voice information of the firefighter and delivers it to the fire commander and orders the fire commander It is possible to provide a user with a mobile (portable) terminal device-based command and control system that simultaneously shares.

또한, 본 발명이 제안하는 기술적 내용을 기초로, 지휘관은 농연으로 시야확보가 힘든 재난 환경에서, 각 소방관에 대한 다중정보 통합에 의한 구조활동을 위한 협업 지시의 효율성 문제를 해결할 수 있다.In addition, based on the technical content proposed by the present invention, the commander can solve the problem of efficiency of collaborative instructions for rescue activities by integrating multi-information for each firefighter in a disaster environment in which it is difficult to secure a field of view by agricultural performance.

또한, 본 발명에 따르면, 이동형(휴대형) 단말장치 기반으로 재난상황에서의 사용의 활용성을 높일 수 있다.In addition, according to the present invention, it is possible to increase the usability of use in a disaster situation based on a mobile (portable) terminal device.

또한, 본 발명은 소방장비에서 획득된 다중 정보를 각각의 소방관을 기준으로 통합하고 지휘관의 명령이 공유 가능한 이동형(휴대형) 단말장치기반 지휘통제시스템을 제안할 수 있다.In addition, the present invention can propose a command control system based on a mobile (portable) terminal device that integrates multiple information obtained from fire fighting equipment based on each firefighter and allows commanders to share commands.

또한, 본 발명의 적용범위는 공조협력을 필요로 하는 재난 대응 상황에서 구조자 및 지휘자의 정보 공유를 위한 이동형(휴대형) 단말장치기반 지휘통제시스템으로 확장될 수 될 수 있다.In addition, the scope of the present invention can be extended to a mobile (portable) terminal device-based command control system for information sharing of rescuers and conductors in a disaster response situation requiring cooperation.

결과적으로 본 발명에서는 1) 영상, 음성, 위치 정보의 통합을 통한 소방관의 상태 정보를 가시화할 수 있고, 2) 소방지휘관의 지휘명령을 다수의 소방관에게 동시에 전달하는 것이 가능하며, 3) 이동형 지휘통제 시스템 기반 재난 환경 내 활용성을 증가시킬 수 있고, 4) 재난환경 상황 정보 파악을 통한 구조를 위한 협업을 가능하게 할 수 있다.As a result, in the present invention, 1) it is possible to visualize the firefighter's status information through the integration of video, audio, and location information, and 2) it is possible to simultaneously transmit a command of a fire commander to multiple firefighters, and 3) a mobile command. It is possible to increase the usability in the disaster environment based on the control system, and 4) it is possible to enable collaboration for rescue through grasping the situation information of the disaster environment.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description. Will be able to.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described embodiments of the present invention can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For implementation by hardware, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code can be stored in a memory unit and driven by a processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of preferred embodiments of the present invention disclosed as described above has been provided to enable those skilled in the art to implement and practice the present invention. Although described above with reference to preferred embodiments of the present invention, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each of the configurations described in the above-described embodiments in a manner of combining with each other. Accordingly, the present invention is not intended to be limited to the embodiments presented herein, but to give the broadest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The invention may be embodied in other specific forms without departing from the spirit and essential features of the invention. Accordingly, the above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention. The present invention is not intended to be limited to the embodiments presented herein, but is intended to give the broadest scope consistent with the principles and novel features disclosed herein. In addition, in the claims, claims that do not have an explicit citation relationship may be combined to constitute an embodiment or may be included as new claims by amendment after filing.

Claims (5)

복수의 소방관이 착용한 장비에 구비되어 영상 데이터를 획득하는 카메라;
상기 장비에 구비되어 상기 복수의 소방관의 위치 데이터를 획득하는 라이다;
상기 장비에 구비되어 음성 데이터를 획득하는 마이크;
상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 표시하는 디스플레이부;
상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 상기 디스플레이부가 표시하고, 상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하며, 상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 상기 디스플레이부가 함께 표시하도록 제어하는 제어부; 및
상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 통신부;를 포함하는 재난 및 사고 대응 지원용 지휘통제시스템.
A camera provided on equipment worn by a plurality of firefighters to acquire image data;
A liner provided in the equipment to acquire location data of the plurality of firefighters;
A microphone provided in the equipment to acquire voice data;
A display unit that displays a map associated with the area where the plurality of firefighters are placed;
The display unit displays the locations of each of the plurality of firefighters on the displayed map based on the acquired location data, and displays the plurality of firefighters using at least one of the acquired image, location, and audio data. A control unit that determines each state and controls the display unit to display the determined firefighter identifier and the determined state of each firefighter on the map together; And
And a communication unit sharing the command to each of the plurality of firefighters, when a command of the fire commander corresponding to the location and status of each of the plurality of firefighters is input.
제 1항에 있어서,
상기 디스플레이부는 한 개 이상의 터치스크린으로 구성되고,
상기 한 개 이상의 터치스크린의 적어도 일부에 대한 상기 소방지휘관의 터치에 대응하여 상기 명령이 결정되는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
According to claim 1,
The display unit is composed of one or more touch screens,
Disaster and accident response support command and control system, characterized in that the command is determined in response to the touch of the fire commander on at least a portion of the one or more touch screens.
제 1항에 있어서,
상기 제어부는,
상기 위치 데이터를 기초로 결정된 상기 복수의 소방관 각각이 위험 지역과 인접한 정도 및 상기 영상 데이터 및 상기 음성 데이터를 기초로 결정된 상기 복수의 소방관 각각의 위험 정도를 이용하여 상기 상기 복수의 소방관 각각의 상태를 결정하는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
According to claim 1,
The control unit,
The state of each of the plurality of firefighters is determined using the degree to which each of the plurality of firefighters determined based on the location data is adjacent to a dangerous area and the degree of danger of each of the plurality of firefighters determined based on the video data and the audio data. Command and control system for disaster and accident response support characterized by determining.
제 1항에 있어서,
상기 소방지휘관의 음성이 추가적으로 입력되는 경우,
상기 통신부는 상기 명령 및 음성을 함께 상기 복수의 소방관 각각에 공유하는 것을 특징으로 하는 재난 및 사고 대응 지원용 지휘통제시스템.
According to claim 1,
When the voice of the fire commander is additionally input,
The communication unit is a command and control system for disaster and accident response support, characterized in that the command and voice are shared with each of the plurality of firefighters.
복수의 소방관이 착용한 장비에 구비된 카메라, 라이다 및 마이크로부터 영상, 위치 및 음성 데이터 중 적어도 하나를 획득하는 단계;
상기 복수의 소방관이 배치된 영역과 관련된 맵(map)을 디스플레이부가 표시하는 단계;
상기 획득한 위치 데이터를 기준으로 상기 표시된 맵 상에 상기 복수의 소방관 각각의 위치를 식별자를 이용하여 표시하는 단계;
상기 획득한 영상, 위치 및 음성 데이터 중 적어도 하나를 이용하여 상기 복수의 소방관 각각의 상태를 결정하는 단계;
상기 표시된 소방관의 식별자와 상기 맵 상에 상기 결정한 각각의 소방관의 상태를 함께 표시하는 단계; 및
상기 복수의 소방관 각각의 위치 및 상태에 대응한 소방지휘관의 명령이 입력되는 경우, 상기 명령을 상기 복수의 소방관 각각에 공유하는 단계;를 포함하는 재난 및 사고 대응 지원용 지휘통제 방법.
Acquiring at least one of video, location, and audio data from cameras, lidars, and micros provided in equipment worn by a plurality of firefighters;
A display unit displaying a map associated with the area where the plurality of firefighters are disposed;
Displaying each location of each of the plurality of firefighters on the displayed map based on the acquired location data using an identifier;
Determining states of each of the plurality of firefighters using at least one of the acquired image, location, and audio data;
Displaying the identifier of the displayed firefighter and the determined state of each firefighter on the map together; And
And sharing the command to each of the plurality of firefighters, when a command of the fire commander corresponding to the location and status of each of the plurality of firefighters is input.
KR1020180147010A 2018-11-26 2018-11-26 Comand and control system for supporting compound disasters accident KR102243903B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180147010A KR102243903B1 (en) 2018-11-26 2018-11-26 Comand and control system for supporting compound disasters accident

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180147010A KR102243903B1 (en) 2018-11-26 2018-11-26 Comand and control system for supporting compound disasters accident

Publications (2)

Publication Number Publication Date
KR20200061564A true KR20200061564A (en) 2020-06-03
KR102243903B1 KR102243903B1 (en) 2021-04-23

Family

ID=71087905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180147010A KR102243903B1 (en) 2018-11-26 2018-11-26 Comand and control system for supporting compound disasters accident

Country Status (1)

Country Link
KR (1) KR102243903B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102240845B1 (en) * 2020-09-15 2021-04-16 한국소방산업기술원 Security system with fast action ability for lifesaving when in fire
KR102379326B1 (en) 2021-09-03 2022-03-30 대한민국 Disaster investigation system based on special vehicle and disaster investigation method using the same
KR20220076800A (en) * 2020-12-01 2022-06-08 엘아이지넥스원 주식회사 Disaster rescue system using remote control based on haptic and operation method thereof
WO2023170941A1 (en) * 2022-03-11 2023-09-14 日本電気株式会社 State estimation device, state estimation method, and computer-readable storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100788886B1 (en) * 2006-11-09 2007-12-27 주식회사 제이캐스트 Communication system for emergency management using wi-max and wi-fi transmission
KR20090097842A (en) * 2009-08-28 2009-09-16 주식회사 효림네트웍스 Location tracing system and method according to a movement of fireman
KR20100030283A (en) * 2008-09-10 2010-03-18 주식회사 아이원맥스 System for disaster prevention management using mobile phone
KR20150122415A (en) * 2014-04-23 2015-11-02 대전과학기술대학교 산학협력단 An integrated wireless command system on disaster site
KR20160000886A (en) 2014-06-24 2016-01-06 에스케이플래닛 주식회사 Method for analyzing category of contents and device thereof
KR20160015089A (en) * 2014-07-30 2016-02-12 쉐도우시스템즈(주) System of smart safeguard helmet for fireman and device thereof
KR20160078261A (en) * 2014-12-24 2016-07-04 임머숀 코퍼레이션 Systems and methods for haptically-enabled alarms
KR20180047115A (en) * 2016-10-31 2018-05-10 주식회사 디자인모올 Wearable devices in emergency medical technicians at the scene of the disaster
KR101913041B1 (en) * 2017-07-25 2018-10-30 주식회사 목양엔지니어링건축사사무소 Apparatus for supporting firefighting capable of detecting location of life

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100788886B1 (en) * 2006-11-09 2007-12-27 주식회사 제이캐스트 Communication system for emergency management using wi-max and wi-fi transmission
KR20100030283A (en) * 2008-09-10 2010-03-18 주식회사 아이원맥스 System for disaster prevention management using mobile phone
KR20090097842A (en) * 2009-08-28 2009-09-16 주식회사 효림네트웍스 Location tracing system and method according to a movement of fireman
KR20150122415A (en) * 2014-04-23 2015-11-02 대전과학기술대학교 산학협력단 An integrated wireless command system on disaster site
KR20160000886A (en) 2014-06-24 2016-01-06 에스케이플래닛 주식회사 Method for analyzing category of contents and device thereof
KR20160015089A (en) * 2014-07-30 2016-02-12 쉐도우시스템즈(주) System of smart safeguard helmet for fireman and device thereof
KR20160078261A (en) * 2014-12-24 2016-07-04 임머숀 코퍼레이션 Systems and methods for haptically-enabled alarms
KR20180047115A (en) * 2016-10-31 2018-05-10 주식회사 디자인모올 Wearable devices in emergency medical technicians at the scene of the disaster
KR101913041B1 (en) * 2017-07-25 2018-10-30 주식회사 목양엔지니어링건축사사무소 Apparatus for supporting firefighting capable of detecting location of life

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102240845B1 (en) * 2020-09-15 2021-04-16 한국소방산업기술원 Security system with fast action ability for lifesaving when in fire
KR20220076800A (en) * 2020-12-01 2022-06-08 엘아이지넥스원 주식회사 Disaster rescue system using remote control based on haptic and operation method thereof
KR102379326B1 (en) 2021-09-03 2022-03-30 대한민국 Disaster investigation system based on special vehicle and disaster investigation method using the same
WO2023170941A1 (en) * 2022-03-11 2023-09-14 日本電気株式会社 State estimation device, state estimation method, and computer-readable storage medium

Also Published As

Publication number Publication date
KR102243903B1 (en) 2021-04-23

Similar Documents

Publication Publication Date Title
US10955674B2 (en) Energy-harvesting beacon device
US20230055152A1 (en) Temple and ear horn assembly for headworn computer
KR102243903B1 (en) Comand and control system for supporting compound disasters accident
US10360728B2 (en) Augmented reality device, system, and method for safety
CA2913650C (en) Virtual object orientation and visualization
TWI597623B (en) Wearable behavior-based vision system
US10048922B2 (en) System, apparatus, and method for displaying information on a head mounted display
US9898868B2 (en) Display device, method of controlling the same, and program
US20150302654A1 (en) Thermal imaging accessory for head-mounted smart device
CN103731659B (en) head-mounted display apparatus
US11378802B2 (en) Smart eyeglasses
KR20130000401A (en) Local advertising content on an interactive head-mounted eyepiece
KR20200082109A (en) Feature data extraction and application system through visual data and LIDAR data fusion
KR102218210B1 (en) Smart glasses capable of processing virtual objects
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
KR101787508B1 (en) Smart work cap and method thereof
TW201939110A (en) Augmented reality display system and display method thereof
KR102269833B1 (en) Smart glasses
KR20180109669A (en) Smart glasses capable of processing virtual objects
US11915376B2 (en) Wearable assisted perception module for navigation and communication in hazardous environments
JP6953744B2 (en) Information sharing system, information sharing method, terminal device and information processing program
US11966048B1 (en) Head-mounted devices with dual gaze tracking systems
KR20180117021A (en) Smart glasses

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant