KR20200041071A - System for life rescue supportusing high place operation carand method thereof - Google Patents

System for life rescue supportusing high place operation carand method thereof Download PDF

Info

Publication number
KR20200041071A
KR20200041071A KR1020180121032A KR20180121032A KR20200041071A KR 20200041071 A KR20200041071 A KR 20200041071A KR 1020180121032 A KR1020180121032 A KR 1020180121032A KR 20180121032 A KR20180121032 A KR 20180121032A KR 20200041071 A KR20200041071 A KR 20200041071A
Authority
KR
South Korea
Prior art keywords
drone
work vehicle
field map
target point
aerial
Prior art date
Application number
KR1020180121032A
Other languages
Korean (ko)
Other versions
KR102107667B1 (en
Inventor
박장현
김영식
박종호
임신택
안경환
모세현
Original Assignee
주식회사 호룡
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 호룡 filed Critical 주식회사 호룡
Priority to KR1020180121032A priority Critical patent/KR102107667B1/en
Publication of KR20200041071A publication Critical patent/KR20200041071A/en
Application granted granted Critical
Publication of KR102107667B1 publication Critical patent/KR102107667B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • B64C2201/123
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Fire-Extinguishing By Fire Departments, And Fire-Extinguishing Equipment And Control Thereof (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a system and a method for life rescue support using a high-place work vehicle. The life rescue support system using a high-place work vehicle according to the present invention includes: a drone capturing a surrounding image while flying at a position in compliance with control and transmitting the captured image and a site map created by means of a three-dimensional environment recognition sensor system along with GPS information; an integrated control server managing a plurality of high-place work vehicles, controlling the drone to move to a disaster location included in a rescue support signal when the rescue support signal is transmitted from a fire control server, creating a three-dimensional site map by using the captured image, the site map, and the GPS information transmitted from the drone, and transmitting the created three-dimensional site map to at least one high-place work vehicle positioned within a set distance from a position; and a control unit provided in the high-place work vehicle, receiving the three-dimensional site map transmitted from the integrated control server, outputting the received three-dimensional site map via a monitor of the high-place work vehicle, and controlling the position of a boarding box such that the boarding box of the high-place work vehicle is positioned at a predefined target point when the high-place work vehicle is moved to the disaster location as a result of driver operation. According to the present invention, the three-dimensional site information captured by the drone and the site map created by means of the three-dimensional environment recognition sensor system are used in the event of a disaster such as a large fire so that the high-place work vehicle near the site is quickly moved. As a result, quick life rescue is possible and casualties attributable to the fire can be reduced.

Description

고소작업차를 이용한 인명 구조 지원 시스템 및 그 방법{SYSTEM FOR LIFE RESCUE SUPPORTUSING HIGH PLACE OPERATION CARAND METHOD THEREOF}Life support system and method using aerial work vehicle {SYSTEM FOR LIFE RESCUE SUPPORTUSING HIGH PLACE OPERATION CARAND METHOD THEREOF}

본 발명은 고소작업차를 이용한 인명 구조 지원 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 대형 화재와 같은 재난 발생 시 현장에서 가까운 위치에 있는 고소작업차를 빠르게 재난 현장으로 이동시킴으로써 인명 구조에 있어 신속한 도움을 줄 수 있도록 하는 고소작업차를 이용한 인명 구조 지원 시스템 및 그 방법에 관한 것이다.The present invention relates to a life-saving support system and method using the aerial platform, and more specifically, to a rescue by quickly moving the aerial vehicle located near the site to the disaster site when a disaster such as a large fire occurs. It is related to a lifesaving support system and method using a aerial vehicle to provide prompt assistance.

최근 아파트와 같은 다세대 주택이나 상업용 건축물의 초고층화가 활발하게 이루어지고 있다. 때문에, 고층 혹은 초고층 건축물의 경우 고층에서 화재가 발생할 경우에는 많은 재산상의 피해는 물론 인명 피해가 발생하게 된다.In recent years, skyscrapers of multi-family houses such as apartments and commercial buildings have been actively made. Therefore, in the case of a high-rise building or a high-rise building, when a fire occurs in a high-rise building, not only a lot of property damage, but also personal injury occurs.

일반적으로 저층에서 화재가 발생하여도 상층부로 급격하게 번지기 때문에 저층에서 화재가 발생할 확률에 고층에서 화재가 발생할 확률이 더해져 화재발생시 상층부에 위치한 사람들이 가장 위험해지며 스스로 대피하기도 쉽지 않아 인명 피해가 불가피하게 된다.In general, even if a fire occurs in the lower floor, it spreads rapidly to the upper floor, so the probability of a fire in the lower floor increases and the probability of a fire in the upper floor increases, making it the most dangerous for people in the upper floor. Is done.

따라서 상층부에 위치한 사람들은 인명구조용 소방차의 고가사다리나 헬리콥터와 같은 구조 장비 등의 도움으로 탈출이 가능하다. 그러나, 인명구조용 소방차의 경우 도로교통의 장애로 인해 신속하게 화재 장소로 이동하지 못하거나 출동 가능한 소방차의 대수가 부족한 경우 등 예측 불가능한 돌발 상황이 발생할 수 있고 추가적으로 인명구조용 소방차의 경우 차량 사이즈가 크다는 문제점도 있고 더불어 헬리콥터와 같은 경우에는 옥상으로 대피한 상태에서 탈출 또는 구조가 가능하나 실질적으로 사람이 갇혀 있는 위치로의 접근은 불가능한 문제점이 있다.Therefore, people located on the upper floors can escape with the help of rescue equipment such as high ladders or helicopters of life-saving fire trucks. However, in the case of life-saving fire trucks, unpredictable emergencies can occur, such as the inability to quickly move to a fire site due to road traffic obstacles or the lack of the number of fire trucks that can be dispatched. In addition, in the case of a helicopter, it is possible to escape or rescue in a state of evacuation to the roof, but there is a problem in that access to a location where a person is trapped is practically impossible.

일부 고층건축물은 화재 발생시 사람들이 용이하게 탈출할 수 있도록 탈출장치를 설치하는 경우도 있으나, 그 구성이 전기를 공급받아 작동하도록 하고 있기 때문에 실용성이 떨어지게 된다.In some high-rise buildings, there are cases where an escape device is installed so that people can easily escape in the event of a fire, but the practicality is deteriorated because the structure is operated by receiving electricity.

이는 화재시 전원이 차단되기 때문에 전원의 공급이 곤란하게 되므로 전원에 의해 작동하는 탈출장치는 그야말로 무용지물이 되고, 화재를 초기에 진압하지 못하였을 경우에는 재산피해보다는 수많은 인명피해가 발생하게 되는 문제가 있다.This is because it is difficult to supply power because the power is cut off in the event of a fire, so the escape device operated by the power becomes a useless object. If the fire is not suppressed in the early stage, there is a problem that a lot of lives are caused rather than property damage. have.

이와 같은 문제를 해결하기 위한 방법으로 최근 민간의 고소작업차를 화재 현장에 투입시켜 인명 구조를 지원할 수 있도록 일선 소방서와 고소작업차 업체 간의 업무 협약이 증가하고 있는 추세이다.As a way to solve this problem, the business agreement between the frontline fire department and the aerial vehicle manufacturers has been increasing so that civilian aerial vehicles can be put into the fire site to support lifesaving.

이러한 고소작업차(고소작업대 및 사다리차 포함)는 붐대의 선단에 적재대가 설치되어 일반적으로 고층아파트나 빌딩에 물품운송용으로도 이용되며, 경우에 따라서는 붐대의 선단에 바스켓이 설치되어 바스켓에 작업자를 탑승시켜서 가로수나 가로등 및 신호등을 보수하거나 정비하기 위한 정비용, 또한 전신주의 보수작업용 등으로 광범위하게 사용되고 있다.In such aerial platforms (including aerial platforms and ladder cars), a loading platform is installed at the tip of the boom, which is generally used for transporting goods to high-rise apartments or buildings. In some cases, a basket is installed at the tip of the boom to put workers in the basket. It is widely used for maintenance for repair or maintenance of street trees, street lights, and traffic lights by boarding, and for maintenance work of telephone poles.

즉, 고소작업차는 작업자가 탑승하기 위한 바스켓이 장착되어 건물 내외부 청소, 건물 간판설치, 비계설치공사, 공장의 천정 공사, 교량의 점검 및 보수공사, 전기 및 통신설비를 가설하거나 유지 보수 공사 등 높은 장소의 작업 위치까지 작업자를 안전하고 신속하게 보내거나 귀환시킬 수 있도록 설계된 장비이다.In other words, the aerial work vehicle is equipped with a basket for workers to board and cleans inside and outside the building, building signage installation, scaffolding installation work, ceiling construction of the factory, inspection and repair work of the bridge, temporary construction of electric and communication facilities, or high maintenance work. It is designed to send or return workers safely and quickly to the working location of the place.

따라서 화재 발생시 출동 가능한 인명구조용 소방차의 대수가 부족한 경우 이러한 고소작업차를 이용하여 상층부에 위치한 사람들이 안전하고 신속하게 구조될 수 있도록 구조를 지원하기 위한 시스템의 개발이 필요하다.Therefore, when the number of life-saving fire trucks that can be dispatched in the event of a fire is insufficient, it is necessary to develop a system to support the rescue so that people located in the upper floors can be rescued safely and quickly using these aerial work vehicles.

본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제10-1851624호(2018.06.07. 공고)에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Registration No. 10-1851624 (announced on June 7, 2018).

본 발명이 이루고자 하는 기술적 과제는 대형 화재와 같은 재난 발생 시 드론을 통해 촬영된 3차원 현장 정보 및 3차원 환경 인식 센서 시스템을 이용하여 작성한 현장 지도를 이용하여 현장에서 가까운 위치에 있는 고소작업차를 빠르게 재난 현장으로 이동시킴으로써 인명 구조에 있어 신속한 도움을 줄 수 있도록 하는 고소작업차를 이용한 인명 구조 지원 시스템 및 그 방법을 제공하기 위한 것이다.The technical problem to be achieved by the present invention is to use a 3D field information photographed through a drone in case of a disaster such as a large fire and a field map created by using a 3D environment recognition sensor system to locate the aerial work vehicle located near the field. The present invention is to provide a life support system and method using a aerial vehicle that can quickly assist a rescuer by quickly moving to a disaster site.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템은 제어에 따른 위치를 비행하며 주변 영상을 촬영하고 촬영된 영상과, 3차원 환경 인식 센서 시스템을 이용하여 작성된 현장 지도를 GPS 정보와 함께 전달하는 드론; 복수대의 고소작업차를 관리하며, 소방관제서버로부터 구조 지원 신호가 전송되면 상기 드론을 제어하여 상기 구조 지원 신호에 포함된 재난 위치로 이동시키고, 상기 드론으로부터 전달되는 촬영 영상과 현장 지도 및 GPS 정보를 이용하여 3차원 현장 지도를 생성하고, 생성된 상기 3차원 현장 지도를 상기 위치에서 설정 거리 이내에 위치한 적어도 한대 이상의 고소작업차로 각각 전송하는 통합관제서버; 및 상기 고소작업차에 구비되며, 상기 통합관제서버로부터 전송되는 상기 3차원 현장 지도를 수신하여 수신된 3차원 현장 지도를 상기 고소작업차에 구비된 모니터를 통해 출력시키고, 상기 고소작업차가 운전자의 조작에 따라 상기 위치로 이동하면 상기 고소작업차의 탑승함이 기 정의된 목표 지점에 위치하도록 상기 탑승함의 위치를 제어하는 제어부를 포함한다.The lifesaving support system using a aerial vehicle according to an embodiment of the present invention for achieving such a technical problem is created by using a 3D environment recognition sensor system and an image captured by shooting a surrounding image while flying a location under control. Drones that deliver on-site maps with GPS information; Manages a plurality of aerial vehicles, and when a rescue support signal is transmitted from the fire control server, the drone is controlled to move to the disaster location included in the rescue support signal, and the captured image, field map, and GPS information transmitted from the drone Integrated control server for generating a three-dimensional field map using, and transmitting the generated three-dimensional field map to at least one aerial work vehicle located within a set distance from the location; And it is provided in the aerial work vehicle, receives the three-dimensional field map transmitted from the integrated control server and outputs the received three-dimensional field map through the monitor provided in the aerial work vehicle, the aerial vehicle is the driver's And a control unit that controls the position of the boarding box so that the boarding box of the aerial work vehicle is positioned at a predefined target point when the position is moved to the position according to the operation.

또한, 상기 드론은 뎁스 카메라(Depth Camera), 3D 라이더(Lidar), 2차원 외부 환경 인지 센서 및 고도 센서 중 어느 하나 이상으로 구성되는 3차원 환경 인지 센서 시스템과, 3D SLAM(simultaneous location and mapping) 또는 비주얼 SLAM(simultaneous location and mapping), 3D 맵핑 알고리즘 중 어느 하나인 3차원 지도 작성 알고리즘을 이용하여 상기 현장 지도를 작성하고, 상기 통합관제서버는 상기 드론으로부터 전달된 상기 현장 지도에 해당 위치에 대응하는 GPS 정보를 이용하여 상기 3차원 현장 지도를 생성할 수 있다.In addition, the drone is a depth camera (Depth Camera), a 3D rider (Lidar), a 3D environment awareness sensor system composed of any one of a 2D external environment recognition sensor and an altitude sensor, and 3D SLAM (simultaneous location and mapping) Alternatively, the on-site map is created using a 3D mapping algorithm, which is one of visual simultaneous location and mapping (SLAM) and 3D mapping algorithm, and the integrated control server corresponds to the location corresponding to the on-site map transmitted from the drone. The 3D field map may be generated using GPS information.

또한, 상기 제어부는 상기 운전자로부터 상기 목표 지점의 좌표를 입력받는 방법, 또는 상기 탑승함에 설치된 레이저 포인터를 이용하여 상기 운전자에 의해 조준된 목표점을 상기 3차원 현장 지도에 반영하고 상대 공간 좌표를 계산하여 상기 목표 지점의 좌표를 산출하는 방법, 또는 상기 재난 위치에 위치한 드론의 GPS 정보 및 고도 정보를 이용하여 상기 목표 지점의 좌표를 산출하는 방법 중 적어도 어느 하나의 방법을 이용하여 상기 목표 지점을 정의하고 정의된 목표 지점을 상기 3차원 현장 지도에 표시할 수 있다.In addition, the control unit receives a coordinate of the target point from the driver, or reflects a target point aimed by the driver on the 3D field map using a laser pointer installed in the boarding box and calculates relative space coordinates. The target point is defined using at least one of a method of calculating the coordinates of the target point, or a method of calculating the coordinates of the target point using GPS information and altitude information of the drone located in the disaster location, The defined target point can be displayed on the 3D field map.

또한, 상기 제어부는 상기 고소작업차가 상기 위치로 이동하면, 상기 목표지점의 좌표와 극좌표형 매니퓰레이터(manipulator)의 운동학 및 역기구학 모델을 이용하여 상기 고소작업차의 작업 반경과 붐의 길이를 산정하고, 관절공간법, 직교좌표 공간법 그리고 3차원 경로 궤적 알고리즘 중 적어도 어느 하나를 이용하여 상기 탑승함의 경로 궤적을 산출하고 산출된 경로 궤적을 이용하여 상기 턴테이블을 회전 제어하고 상기 붐의 각도를 상승 제어한 후, 상기 붐이 인출되도록 제어하여 상기 탑승함의 위치를 제어할 수 있다.In addition, when the aerial work vehicle moves to the position, the controller calculates the working radius and the length of the boom of the aerial work vehicle using kinematic and inverse kinematic models of the coordinates of the target point and a polar coordinate manipulator. , Calculate the path trajectory of the board using at least one of the joint space method, the Cartesian coordinate method, and the 3D path trajectory algorithm, rotate the turntable using the calculated path trajectory, and raise and control the angle of the boom After that, the position of the boarding box can be controlled by controlling the boom to be withdrawn.

또한,상기 제어부는 상기 고소작업차의 탑승함에 구비되는 스피커를 통해 상기 탑승함의 위치를 출력하고, 상기 탑승함에 구비되는 LED를 발광 제어할 수 있다.In addition, the control unit may output the position of the boarding box through a speaker provided in the boarding box of the aerial work vehicle, and control the light emission of the LED provided in the boarding box.

또한, 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법은, 복수대의 고소작업차를 관리하는 통합관제서버가 소방관제서버로부터 구조 지원 신호가 전송되면, 드론을 제어하여 상기 구조 지원 신호에 포함된 재난 위치로 상기 드론을 이동시키는 단계; 상기 통합관제 서버가 상기 드론을 통해 촬영된 영상과, 3차원 환경 인식 센서 시스템을 이용하여 작성된 현장 지도 및 GPS 정보를 상기 드론으로부터 전달받는 단계; 상기 통합관제서버가 상기 전달받은 촬영 영상과 현장 지도 및 GPS 정보를 이용하여 3차원 현장 지도를 생성하는 단계; 상기 통합관제서버가 상기 생성된 3차원 현장 지도를 상기 위치에서 설정 거리 이내에 위치한 적어도 한 대 이상의 고소작업차로 각각 전송하는 단계; 상기 고소작업차에 구비되는 제어부가 상기 3차원 현장 지도를 수신하면, 수신된 3차원 현장 지도를 상기 고소작업차에 구비된 모니터를 통해 출력시키는 단계; 및 상기 고소작업차가 운전자의 조작에 따라 상기 위치로 이동하면, 상기 제어부가 상기 고소작업차의 탑승함이 기 정의된 목표 지점에 위치하도록 상기 탑승함의 위치를 제어하는 단계를 포함할 수 있다.In addition, in the method for supporting lifesaving using a aerial work vehicle according to an embodiment of the present invention, when an integrated control server managing a plurality of aerial work vehicles transmits a rescue support signal from a fire control server, the drone is controlled to support the rescue. Moving the drone to a disaster location included in the signal; Receiving, by the integrated control server, an image photographed through the drone and a field map and GPS information generated using a 3D environment recognition sensor system from the drone; Generating, by the integrated control server, a 3D field map using the received captured image, field map, and GPS information; Transmitting, by the integrated control server, the generated 3D field map to at least one aerial work vehicle located within a predetermined distance from the location; When the control unit provided in the aerial work vehicle receives the 3D field map, outputting the received 3D field map through the monitor provided in the aerial work vehicle; And when the aerial work vehicle moves to the position in response to a driver's operation, the control unit may include controlling the position of the aerial vehicle so that the aerial vehicle's boarding box is located at a predefined target point.

이와 같이 본 발명에 따르면, 대형 화재와 같은 재난 발생 시 드론을 통해 촬영된 3차원 현장 정보 및 3차원 환경 인식 센서 시스템을 이용하여 작성한 현장 지도를 이용하여 현장에서 가까운 위치의 고소작업차를 빠르게 이동시킴으로써 신속한 인명 구조가 가능하여 화재 발생으로 인한 인명 피해를 줄일 수 있는 효과가 있다.As described above, according to the present invention, when a disaster such as a large fire occurs, the aerial work vehicle located near the site is quickly moved using a 3D site information photographed through a drone and a site map created using a 3D environment recognition sensor system. By doing so, it is possible to quickly rescue people, thereby reducing the damage caused by fire.

또한 본 발명에 따르면, 고층에서 화재가 발생하여 인명 구조가 필요한 경우 3차원 현장 정보를 이용하여 고소작업차의 안전구조함(탑승함)을 정확한 목표 위치까지 자동으로 이송시킴에 따라 보다 신속하고 안전하게 많은 사람을 구조할 수 있을 뿐만 아니라 소방관들을 화재 현장으로 빠르게 투입할 수 있어 능동적인 재난 구조 활동이 가능한 효과가 있다.In addition, according to the present invention, when a fire occurs in a high floor and lifesaving is required, the safety and rescue vehicle (boarding) of the aerial vehicle is automatically transferred to the correct target position using 3D field information, so that it is faster and safer. Not only can a large number of people be rescued, but firefighters can be quickly put into the fire site, making active disaster rescue activities possible.

또한 본 발명에 따르면, 인명구조용 소방차에도 동작 프로그램 변경 등을 통해 적용 및 활용이 가능한 장점이 있다.In addition, according to the present invention, there is an advantage that can be applied to and utilized through a change of the operation program, etc. to a life-saving fire truck.

도 1은 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템을 나타낸 시스템구성도이다.
도 2은 도 1의 고소작업차를 나타낸 블록구성도이다.
도 3은 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법의 동작 흐름을 도시한 순서도이다.
도 4는 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법에서 인명 구조 과정을 설명하기 위한 예시도이다.
1 is a system configuration diagram showing a life support system using a aerial platform according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the aerial work vehicle of FIG. 1.
3 is a flowchart illustrating an operation flow of a life support method using a aerial platform according to an embodiment of the present invention.
4 is an exemplary view for explaining a life-saving process in a method for supporting a life-saving using a aerial platform according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience.

또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition of these terms should be made based on the contents throughout the present specification.

먼저, 도 1및 도 2를 통해 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템에 대하여 설명한다.First, a lifesaving support system using a aerial platform according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.

도 1은 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템을 나타낸 블록구성도이다.1 is a block diagram showing a life support system using a aerial vehicle according to an embodiment of the present invention.

도 1에서와 같이 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템은, 드론(100), 통합관제서버(200) 및 제어부(310)를 포함한다.As shown in FIG. 1, a life support system using a aerial vehicle according to an embodiment of the present invention includes a drone 100, an integrated control server 200, and a control unit 310.

먼저, 드론(100)은 제어에 따른 위치를 비행하며 주변 영상을 촬영하고 촬영된 영상과 3차원 환경 인식 센서 시스템과 3차원 지도 작성 알고리즘을 이용하여 작성된 현장 지도를 GPS 정보와 함께 통합관제서버(200)에 전달한다.First, the drone 100 flies the location under the control, captures the surrounding image, captures the captured image, the 3D environment recognition sensor system and the 3D map creation algorithm, and the integrated map control server with GPS information. 200).

그리고 통합관제서버(200)는 복수대의 고소작업차(300)를 관리하며, 소방관제서버(400)로부터 구조 지원 신호가 전송되면 드론(100)을 제어하여 구조 지원 신호에 포함된 재난 위치로 이동시키고, 드론(100)으로부터 전달되는 촬영 영상과 현장 지도 및 GPS 정보를 이용하여 3차원 현장 지도를 생성하고, 생성된 3차원 현장 지도를 재난 위치에서 설정 거리 이내에 위치한 적어도 한 대 이상의 고소작업차(300)로 각각 전송한다.In addition, the integrated control server 200 manages a plurality of aerial work vehicles 300, and when a rescue support signal is transmitted from the fire control server 400, the drone 100 is controlled to move to a disaster location included in the rescue support signal. And generates a 3D field map using the captured image and the field map and GPS information transmitted from the drone 100, and the generated 3D field map is located at least one aerial vehicle located within a set distance from the disaster location ( 300).

여기서 소방관제서버(400)는 119를 통해 접수되는 화재 또는 재난 신고를 관리하고, 해당 위치로 소방차(미도시)의 출동을 지시하는 관리서버로서, 출동 가능한 소방차의 대수가 부족하거나 현장 도착시간이 지연되는 경우 기 등록된 고소작업차(300)에 재난 위치가 포함된 3차원 현장 지도를 전송하여 구조 지원을 요청할 수 있다. Here, the fire control server 400 is a management server that manages a fire or disaster report received through 119 and instructs the dispatch of a fire engine (not shown) to the corresponding location. In case of delay, it is possible to request rescue assistance by transmitting a 3D field map including the disaster location to the registered aerial work vehicle 300.

따라서, 통합관제서버(200)는 드론(100)의 비행 위치를 제어하여 구조 지원 신호에 포함된 재난 위치(즉 화재가 발생한 위치)로 드론(100)을 이동시키고, 해당 드론(100)의 3차원 환경 인식 센서 시스템으로부터 재난 발생 현장 및 현장 주변에 대한 실시간 3D 맵핑(Mapping)을 수행하여 생성된 현장 지도를 해당 드론(100)으로부터 수신하고, 해당 위치의 GPS 정보를 부가하여 해당 위치에 대한 3차원 현장 지도를 생성하고, 생성된 3차원 현장 지도를 연계된 복수대의 고소작업차(300)중 재난 위치에서 근접한 거리에 위치한 복수대의 고소작업차(300)에 각각 전송하여 지원을 요청한다.Accordingly, the integrated control server 200 controls the flight position of the drone 100 to move the drone 100 to the disaster location (that is, the location where the fire occurred) included in the rescue support signal, and 3 of the drone 100 3D environment-aware sensor system receives real-time 3D mapping of disaster-causing sites and surrounding areas from the corresponding drone 100, and adds GPS information of the corresponding location to 3 for the corresponding location A dimensional field map is generated, and the generated 3D field map is transmitted to a plurality of aerial work vehicles 300 located at a distance from a disaster location among a plurality of related aerial work vehicles 300 to request assistance.

이때, 드론(100)은 설치된 뎁스 카메라(Depth Camera) 및 3D 라이더(Lidar), 2차원 외부 환경 인지 센서(대표적으로 카메라 센서, 2D Laser Scanner 등) 및 고도 센서 등으로 구성된 3차원 환경 인지 통합 센서 중 어느 하나 이상을 포함하는 3차원 환경 인지 센서 시스템과, 3D SLAM(simultaneous location and mapping) 또는 비주얼 SLAM(simultaneous location and mapping) 대표되는 3D Mapping 알고리즘 중 어느 하나인 3차원 지도작성 알고리즘을 이용하여 현장 지도를 작성할 수 있다.At this time, the drone 100 is an installed depth camera (Depth Camera) and a 3D lidar (Lidar), a two-dimensional external environment sensor (representatively a camera sensor, 2D Laser Scanner, etc.) and a three-dimensional environment awareness integrated sensor consisting of an altitude sensor A 3D environment-aware sensor system including any one or more of the 3D mapping algorithm, which is one of 3D mapping algorithms represented by 3D simulaneous location and mapping (SLAM) or visual SLAM (simultaneous location and mapping). You can create a map.

마지막으로 제어부(310)는 고소작업차(300)에 구비되며, 통합관제서버(200)로부터 전송되는 3차원 현장 지도를 수신하여 수신된 3차원 현장 지도를 고소작업차(300)에 구비된 모니터를 통해 출력시키고, 고소작업차(300)가 운전자의 조작에 따라 재난 위치로 이동하면 고소작업차의 탑승함이 기 정의된 목표 지점에 위치하도록 탑승함의 위치를 제어한다.Finally, the control unit 310 is provided on the aerial work vehicle 300, and receives the 3D field map transmitted from the integrated control server 200 and monitors the received 3D field map on the aerial work vehicle 300. Through the output, and when the aerial work vehicle 300 moves to the disaster location according to the driver's operation, the position of the passenger vehicle is controlled such that the aerial vehicle's boarding box is located at a predefined target point.

또한, 통합 관제 서버(200)를 거치지 않고 드론(100)과 고소작업차(300)만으로 시스템을 구성할 수도 있다.In addition, the system may be configured with only the drone 100 and the aerial platform 300 without going through the integrated control server 200.

도 2은 도 1의 고소작업차를 나타낸 블록구성도이다.FIG. 2 is a block diagram showing the aerial work vehicle of FIG. 1.

도2에서와 같이 본 발명의 실시예에 따른 고소작업차(300)는 고소작업차(300)를 제어하기 위한 제어부(310), 내외부 상황을 모니터링 하기 위한 모니터(320), 사람이 탑승하거나 짐을 싣기 위한 공간이 마련되는 탑승함(330), 탑승함(330)을 원하는 높이까지 올려주기 위한 붐(340), 탑승함(330)과 붐(340)을 지지하고 회전 구동하여 탑승함(330)이 위치를 잡을 수 있게 하는 턴테이블(350)을 포함한다.As shown in Figure 2, the aerial platform 300 according to an embodiment of the present invention includes a control unit 310 for controlling the aerial platform 300, a monitor 320 for monitoring the internal and external conditions, a person boarding or luggage. The boarding box 330 provided with a space for loading, the boom 340 for raising the boarding box 330 to a desired height, the boarding box 330 by supporting the boarding box 330 and the boom 340, and rotating and driving the boarding box 330 It includes a turntable 350 that makes it possible to hold this position.

이때, 제어부(310)는 통합관제서버(200)로부터 수신한 3차원 현장 지도를 모니터(320)를 통해 출력시키고, 고소작업차(300)의 운전자가 모니터(320)에 출력된 재난 위치를 확인하여 고소작업차(300)를 재난 위치로 이동시키면, 턴테이블(350) 및 붐(340)의 위치를 제어하여 탑승함(330)이 구조가 필요한 목표 지점에 위치하도록 제어한다.At this time, the control unit 310 outputs the 3D field map received from the integrated control server 200 through the monitor 320, and the driver of the aerial vehicle 300 checks the disaster location output on the monitor 320 By moving the aerial work vehicle 300 to the disaster position, the position of the turntable 350 and the boom 340 is controlled to control the boarding box 330 to be located at a target point where rescue is required.

이때, 탑승함(330)의 목표 지점은 운전자로부터 목표지점의 좌표를 입력받는 방법, 또는 탑승함(330)에 설치된 레이저포인터(331)를 이용하여 운전자에 의해 조준된 목표점을 3차원 현장 지도에 반영하고 상대 공간 좌표를 계산하여 목표지점의 좌표를 산출하는 방법, 또는 재난 위치에 위치한 드론(100)의 GPS 정보 및 고도 정보를 이용하여 목표지점의 좌표를 산출하는 방법 중 적어도 어느 하나의 방법을 이용하여 정의될 수 있고 제어부(310)는 정의된 목표지점을 3차원 현장지도에 표시할 수도 있다.At this time, the target point of the boarding box 330 is a method for receiving coordinates of the target point from the driver, or a laser pointer 331 installed in the boarding box 330 is used to map the target point aimed by the driver to the 3D field map. At least one method of calculating the coordinates of the target point by reflecting and calculating the relative space coordinates, or calculating the coordinates of the target point using GPS information and altitude information of the drone 100 located in the disaster location It can be defined using the control unit 310 may display the defined target point on the 3D field map.

또한, 제어부(310)는 고소작업차(300)가 운전자에 의해 재난 위치로 이동하면, 목표지점의 좌표와 고소작업차(300)의 붐(340), 턴테이블(350) 및 탑승함(330)을 제어하기 위해 고소작업차(300)의 동작과 유사한 극좌표형 매니퓰레이터(manipulator)의 운동학 및 역기구학 모델을 이용하여 고소작업차(300)의 작업 반경과 붐(340)의 길이를 산정하고, 초기 위치에서 목표위치까지의 경로 궤적 계획을 관절공간법, 직교좌표 공간법 그리고 PRM(Probabilistic Roadmaps), RRT(Rapidly-Exploring Random Trees) 등과 같은 장애물 회피 기능이 포함된 3차원 경로 궤적 알고리즘 등을 이용하여 탑승함(330)의 경로 궤적을 산출하고 산출된 경로 궤적을 이용하여 턴테이블(350)을 회전 제어하고 붐(340)의 각도를 상승 제어한 후, 붐(340)이 인출되도록 제어하여 탑승함(330)의 위치를 제어할 수 있다.In addition, when the aerial platform 300 moves to the disaster location by the driver, the control unit 310 coordinates the target point and the boom 340, turntable 350 and boarding box 330 of the aerial platform 300 Using the kinematic and inverse kinematic models of a polar coordinate manipulator similar to the operation of the aerial platform 300 to control the distance, the working radius of the aerial platform 300 and the length of the boom 340 are calculated, and the initial The path trajectory planning from the location to the target location is performed using a 3D path trajectory algorithm that includes obstacle avoidance functions such as joint space method, Cartesian coordinate space method, and Probabilistic Roadmaps (PRM) and Rapidly-Exploring Random Trees (RTR). After calculating the path trajectory of the boarding box 330 and using the calculated path trajectory to rotate-control the turntable 350 and to increase and control the angle of the boom 340, control the boom 340 to be withdrawn and board the board ( 330) can be controlled.

그리고 제어부(310)는 탑승함(330)이 목표 지점에 도달하면 고소작업차의 탑승함(330)에 구비되는 스피커(333)를 통해 탑승함(330)의 위치를 음성 이나 알림음을 이용하여 출력하고, 탑승함(330)에 구비되는 LED(332)를 발광 제어 하여 구조를 필요로 하는 사람들이 탑승함(330)의 위치를 용이하게 인지하도록 할 수도 있다.Then, when the boarding box 330 reaches the target point, the control unit 310 uses a voice or a notification sound to determine the position of the boarding box 330 through the speaker 333 provided in the boarding box 330 of the aerial vehicle. By outputting and controlling the light emission of the LED 332 provided in the boarding box 330, people in need of the structure may easily recognize the position of the boarding box 330.

이하에서는 도 3및 도 4를 통해본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법에 대하여 설명한다.Hereinafter, a method for supporting a lifesaving using a aerial vehicle according to an embodiment of the present invention will be described with reference to FIGS. 3 and 4.

도 3은 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법의 동작 흐름을 도시한 순서도로서, 이를 참조하여 본 발명의 구체적인 동작을 설명한다.3 is a flowchart illustrating an operation flow of a method for assisting a lifesaving using a aerial vehicle according to an embodiment of the present invention, and the specific operation of the present invention will be described with reference to this.

본 발명의 실시예에 따르면, 먼저, 복수대의 고소작업차(300)를 관리하는 통합관제서버(200)가 소방관제서버(400)로부터 구조 지원 신호가 전송되면(S310), 드론(100)을 제어하여 구조 지원 신호에 포함된 재난 위치로 드론(100)을 이동시킨다(S320).According to an embodiment of the present invention, first, when the integrated control server 200 managing a plurality of aerial work vehicles 300 transmits a rescue support signal from the fire control server 400 (S310), the drone 100 By controlling, the drone 100 is moved to the disaster location included in the rescue support signal (S320).

S320 단계의 제어에 따라 재난 위치로 이동한 드론(100)은 재난 발생 현장 및 현장 주변에 대한 실시간 주변 영상을 촬영하고, 촬영된 영상과, 3차원 환경 인식 센서 시스템을 이용하여 작성된 현장 지도 및 GPS 정보를 통합관제서버(200)에 전달한다(S330, S340).The drone 100 moved to the disaster location under the control of step S320, and photographs a real-time surrounding image of the disaster site and the surrounding area, and the generated field map and GPS generated using the 3D environment recognition sensor system The information is transmitted to the integrated control server 200 (S330, S340).

그 다음, 통합관제서버(200)가 S340 단계로부터 전달받은 촬영 영상과 현장 지도 및 재난 위치에 대응하는 GPS정보를 이용하여 3차원 현장 지도를 생성한다(S350).Next, the integrated control server 200 generates a 3D field map using the captured image received from step S340, the field map, and the GPS information corresponding to the disaster location (S350).

이때, 현장 지도는, 드론(100)에 설치된 뎁스 카메라(Depth Camera), 3D 라이더(Lidar), 2차원 외부 환경 인지 센서 및 고도 센서 등으로 구성된 3차원 환경 인지 통합 센서 중 어느 하나 이상을 포함하는 3차원 환경 인지 센서 시스템과, 3D SLAM(simultaneous location and mapping) 또는 비주얼 SLAM(simultaneous location and mapping) 대표되는 3D Mapping 알고리즘 중 어느 하나인 3차원 지도 작성 알고리즘을 이용하여 작성된다.At this time, the field map includes at least one of a 3D environment recognition integrated sensor, such as a depth camera installed on the drone 100, a 3D lidar, a 2D external environment recognition sensor, and an altitude sensor. It is created using a 3D environment-aware sensor system and a 3D mapping algorithm, which is one of 3D mapping algorithms representative of 3D simulated location and mapping (SLAM) or visual simulated location and mapping (SLAM).

그 다음, 통합관제서버(200)가 S350 단계에서 생성된3차원 현장 지도를 해당 재난 위치에서 설정 거리 이내에 위치한 적어도 한 대 이상의 고소작업차(300)로 각각 전송한다(S360).Then, the integrated control server 200 transmits the three-dimensional field map generated in step S350 to at least one aerial work vehicle 300 located within a predetermined distance from the disaster location (S360).

그 다음,S360 단계에서 전송된 3차원 현장 지도를 수신한 고소작업차(300)의 제어부(310)가3차원 현장 지도를 해당 고소작업차(300)에 구비된 모니터(310)를 통해 출력시킨다(S370).Then, the control unit 310 of the aerial work vehicle 300 receiving the 3D field map transmitted in step S360 outputs the 3D field map through the monitor 310 provided in the aerial work vehicle 300. (S370).

그 다음, 고소작업차(300)가 운전자의 조작에 따라 재난 위치로 이동하면(S380), 제어부(310)가 고소작업차(300)의 탑승함(330)이 기 정의된 목표 지점에 위치하도록 탑승함(330)의 위치를 제어한다(S390).Then, when the aerial platform 300 moves to the disaster location according to the driver's operation (S380), the control unit 310 causes the aerial platform 300 to be positioned at a predefined target point. The position of the boarding box 330 is controlled (S390).

이때, 목표 지점은 운전자로부터 목표 지점의 좌표를 입력받는 방법, 또는 탑승함(330)에 설치된 레이저 포인터(331)를 이용하여 운전자에 의해 조준된 목표점을 3차원 현장 지도에 반영하고 상대 공간 좌표를 계산하여 목표 지점의 좌표를 산출하는 방법, 또는 재난 위치에 위치한 드론(100)의 GPS 정보 및 고도 정보를 이용하여 목표 지점의 좌표를 산출하는 방법 중 적어도 어느 하나의 방법을 이용하여 기 정의될 수 있다.At this time, the target point is a method of receiving coordinates of the target point from the driver, or using a laser pointer 331 installed in the boarding box 330, the target point aimed by the driver is reflected in the 3D field map and the relative space coordinates are calculated. It may be predefined using at least one method of calculating the coordinates of the target point by calculating or calculating the coordinates of the target point using GPS information and altitude information of the drone 100 located in the disaster location. have.

또한, 제어부(310)는 고소작업차(300)가 운전자에 의해 재난위치로 이동하면, 목표지점의 좌표와 고소작업차(300)의 붐(340), 턴테이블(350) 및 탑승함(330)을 제어하기 위해 고소작업차(300)의 동작과 유사한 극좌표형 매니퓰레이터(manipulator)의 운동학 및 역기구학 모델을 이용하여 고소작업차(300)의 작업 반경과 붐(340)의 길이를 산정하고, 초기 위치에서 목표위치까지의 경로 궤적 계획을 관절공간법, 직교좌표 공간법 그리고 PRM(Probabilistic Roadmaps), RRT(Rapidly-Exploring Random Trees) 등과 같은 장애물 회피 기능이 포함된 3차원 경로 궤적 알고리즘 등을 이용하여 탑승함(330)의 경로 궤적을 산출하고 산출된 경로 궤적을 이용하여 턴테이블(350)을 회전 제어하고 붐(340)의 각도를 상승 제어한 후, 붐(340)이 인출되도록 제어하여 탑승함(330)의 위치를 제어할 수 있다.In addition, when the aerial platform 300 moves to the disaster location by the driver, the control unit 310 coordinates the target point and the boom 340, turntable 350 and boarding box 330 of the aerial platform 300 Using the kinematic and inverse kinematic models of a polar coordinate manipulator similar to the operation of the aerial platform 300 to control the distance, the working radius of the aerial platform 300 and the length of the boom 340 are calculated, and the initial The path trajectory planning from the location to the target location is performed using a 3D path trajectory algorithm that includes obstacle avoidance functions such as joint space method, Cartesian coordinate space method, and Probabilistic Roadmaps (PRM) and Rapidly-Exploring Random Trees (RTR). After calculating the path trajectory of the boarding box 330 and using the calculated path trajectory to rotate-control the turntable 350 and to increase and control the angle of the boom 340, control the boom 340 to be withdrawn and board the board ( 330) can be controlled.

그 다음 제어부(310)는 탑승함(330)이 목표 위치에 도착했을 때 탑승함(330)에 구비되는 스피커(333)를 통해 탑승함(330)의 위치를 외부로 출력하고, 탑승함(330)에 구비되는 LED(332)를 발광 제어한다(S400).Then, when the boarding box 330 arrives at the target position, the controller 310 outputs the position of the boarding box 330 to the outside through the speaker 333 provided in the boarding box 330, and boards the boarding box 330 ) LED 332 provided in the light emission control (S400).

즉, 제어부(310)는 탑승함(330)이 목표 지점에 도착한 후 탑승함(330)의 위치를 가시 및 가청 시스템을 활용하여 외부에 알릴 수도 있다. 더욱 자세히는 본 발명에 따르면 먼저 가시 시스템으로 연기나 어두운 곳에서도 알아볼 수 있게 고지향성 LED(332) 조명 장치 등을 활용하고, 가청 시스템으로 광지향성 스피커(333)를 활용할 수 있는데, 두 가지를 동시에 사용하여 목표 지점 근처에서 도움이 필요한 사람들이 탑승함(330)의 위치를 보다 쉽게 인지할 수 있도록 함으로써 보다 신속하고 안전한 대피 경로를 제공할 수 있다.That is, the control unit 310 may inform the outside of the boarding box 330 by using a visible and audible system after the boarding box 330 arrives at the target point. In more detail, according to the present invention, first, a high-directional LED 332 lighting device or the like can be used to recognize even in a dark place or a smoke as a visible system, and a photo-directional speaker 333 can be used as an audible system. It can be used to provide a faster and safer evacuation route by making it easier for people in need near the target point to recognize the location of the boarding box 330.

도 4는 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 방법에서 인명 구조 과정을 설명하기 위한 예시도이다.4 is an exemplary view for explaining a life-saving process in a method for assisting a life-saving using a aerial vehicle according to an embodiment of the present invention.

도 4에서와 같이, 고층 건물에 화재가 발생한 경우, 인근에 위치한 고소작업차(300)로 3차원 현장 지도를 전달하여 구조가 필요한 위치로 탑승함(330)의 위치를 제어함으로써 보다 신속하고 안전한 대피 경로를 제공할 수 있다.As shown in FIG. 4, when a fire occurs in a high-rise building, a 3D site map is transmitted to a nearby aerial work vehicle 300 to control the position of the boarding 330 to a location where a structure is required, resulting in faster and safer operation. Evacuation routes can be provided.

상술한 바와 같이, 본 발명의 실시예에 따른 고소작업차를 이용한 인명 구조 지원 시스템 및 그 방법은 대형 화재와 같은 재난 발생 시 드론을 통해 촬영된 3차원 현장 정보 및 3차원 환경 인식 센서 시스템을 이용하여 작성한 현장 지도를 이용하여 현장에서 가까운 위치의 고소작업차를 빠르게 이동시킴으로써 신속한 인명 구조가 가능하여 화재 발생으로 인한 인명 피해를 줄일 수 있는 효과가 있다.As described above, the life support system and method using a aerial vehicle according to an embodiment of the present invention uses a 3D field information and a 3D environment recognition sensor system photographed through a drone when a disaster such as a large fire occurs By using the site map created by quickly moving the aerial vehicle close to the site, it is possible to quickly rescue people, thereby reducing the damage caused by fire.

또한 본 발명의 실시예에 따르면, 고층에서 화재가 발생하여 인명 구조가 필요한 경우 3차원 현장 정보를 이용하여 고소작업차의 안전구조함(탑승함)을 정확한 목표 위치까지 자동으로 이송시킴에 따라 보다 신속하고 안전하게 많은 사람을 구조할 수 있을 뿐만 아니라 소방관들을 화재 현장으로 빠르게 투입할 수 있어 능동적인 재난 구조 활동이 가능한 효과가 있다.In addition, according to an embodiment of the present invention, when a fire occurs in a high floor and lifesaving is required, the safety rescue box (boarding) of the aerial vehicle is automatically transported to the correct target position using 3D field information. In addition to being able to rescue many people quickly and safely, it is also possible to quickly put firefighters into the fire site, enabling active disaster relief activities.

또한 본 발명의 실시예에 따르면, 인명구조용 소방차에도 동작 프로그램 변경 등을 통해 적용 및 활용이 가능한 장점이 있다.In addition, according to an embodiment of the present invention, there is an advantage that can be applied to and utilized by changing the operation program, etc. to the fire truck for lifesaving.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiment shown in the drawings, but this is merely exemplary, and those skilled in the art to which the art belongs understand that various modifications and other equivalent embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the following claims.

100 : 드론 200 : 통합관제서버
300 : 고소작업차 310 : 제어부
320 : 모니터 330 : 탑승함
331 : 레이저 포인터 332 : LED
333 : 스피커 340 : 붐
350 : 턴테이블 400 : 소방관제서버
100: drone 200: integrated control server
300: aerial platform 310: control unit
320: monitor 330: boarding
331: laser pointer 332: LED
333: speaker 340: boom
350: turntable 400: fire control server

Claims (10)

탑승함이 구비된 고소작업차를 이용한 인명 구조 지원 시스템에 있어서,
제어에 따른 위치를 비행하며 주변 영상을 촬영하고 촬영된 영상과, 3차원 환경 인식 센서 시스템을 이용하여 작성된 현장 지도를 GPS 정보와 함께 전달하는 드론;
복수대의 고소작업차를 관리하며, 소방관제서버로부터 구조 지원 신호가 전송되면 상기 드론을 제어하여 상기 구조 지원 신호에 포함된 재난 위치로 이동시키고, 상기 드론으로부터 전달되는 촬영 영상과 현장 지도 및 GPS 정보를 이용하여 3차원 현장 지도를 생성하고, 생성된 상기 3차원 현장 지도를 상기 위치에서 설정 거리 이내에 위치한 적어도 한대 이상의 고소작업차로 각각 전송하는 통합관제서버; 및
상기 고소작업차에 구비되며, 상기 통합관제서버로부터 전송되는 상기 3차원 현장 지도를 수신하여 수신된 3차원 현장 지도를 상기 고소작업차에 구비된 모니터를 통해 출력시키고, 상기 고소작업차가 운전자의 조작에 따라 상기 위치로 이동하면 상기 고소작업차의 탑승함이 기 정의된 목표 지점에 위치하도록 상기 탑승함의 위치를 제어하는 제어부를 포함하는 고소작업차를 이용한 인명 구조 지원 시스템.
In the life support system using a aerial platform equipped with a boarding box,
A drone that flies a location under the control and shoots a surrounding image, and delivers a captured image and a field map created using a 3D environment recognition sensor system together with GPS information;
Manages a plurality of aerial vehicles, and when a rescue support signal is transmitted from the fire control server, the drone is controlled to move to the disaster location included in the rescue support signal, and the captured image, field map, and GPS information transmitted from the drone Integrated control server for generating a three-dimensional field map using, and transmitting the generated three-dimensional field map to at least one aerial work vehicle located within a set distance from the location; And
It is provided in the aerial platform, receives the 3D site map transmitted from the integrated control server, outputs the received 3D site map through the monitor provided in the aerial platform, and the aerial platform is operated by the driver. And a control unit for controlling the position of the boarding box so that the boarding box of the aerial work vehicle is located at a predefined target point when the vehicle is moved to the position according to the rescue system.
제1항에 있어서,
상기 드론은,
뎁스 카메라(Depth Camera), 3D 라이더(Lidar), 2차원 외부 환경 인지 센서 및 고도 센서 중 어느 하나 이상으로 구성되는 3차원 환경 인지 센서 시스템과, 3D SLAM(simultaneous location and mapping) 또는 비주얼 SLAM(simultaneous location and mapping), 3D 맵핑 알고리즘 중 어느 하나인 3차원 지도 작성 알고리즘을 이용하여 상기 현장 지도를 작성하고,
상기 통합관제서버는 상기 드론으로부터 전달된 상기 현장 지도에 해당 위치에 대응하는 GPS 정보를 이용하여 상기 3차원 현장 지도를 생성하는 고소작업차를 이용한 인명 구조 지원 시스템.
According to claim 1,
The drone,
A 3D environmental awareness sensor system consisting of one or more of a depth camera, a 3D lidar, a 2D external environment awareness sensor, and an altitude sensor, and a 3D simaneaneous location and mapping (SLAM) or visual SLAM (simultaneous) location and mapping), using the 3D mapping algorithm, which is one of the 3D mapping algorithms, to create the field map,
The integrated control server is a life support system using a aerial vehicle that generates the 3D field map using GPS information corresponding to a corresponding location on the field map transmitted from the drone.
제1항에 있어서,
상기 제어부는,
상기 운전자로부터 상기 목표 지점의 좌표를 입력받는 방법, 또는
상기 탑승함에 설치된 레이저 포인터를 이용하여 상기 운전자에 의해 조준된 목표점을 상기 3차원 현장 지도에 반영하고 상대 공간 좌표를 계산하여 상기 목표 지점의 좌표를 산출하는 방법, 또는
상기 재난 위치에 위치한 드론의 GPS 정보 및 고도 정보를 이용하여 상기 목표 지점의 좌표를 산출하는 방법 중 적어도 어느 하나의 방법을 이용하여 상기 목표 지점을 정의하고 정의된 목표 지점을 상기 3차원 현장 지도에 표시하는 고소작업차를 이용한 인명 구조 지원 시스템.
According to claim 1,
The control unit,
A method of receiving coordinates of the target point from the driver, or
A method of calculating a coordinate of the target point by reflecting a target point aimed by the driver on the 3D field map using a laser pointer installed in the boarding box and calculating relative space coordinates, or
The target point is defined using at least one method of calculating coordinates of the target point using GPS information and altitude information of the drone located at the disaster location, and the defined target point is defined on the 3D field map. Lifesaving support system using the aerial platform to display.
제3항에 있어서,
상기 제어부는,
상기 고소작업차가 상기 위치로 이동하면, 상기 목표지점의 좌표와 극좌표형 매니퓰레이터(manipulator)의 운동학 및 역기구학 모델을 이용하여 상기 고소작업차의 작업 반경과 붐의 길이를 산정하고, 관절공간법, 직교좌표 공간법 그리고 3차원 경로 궤적 알고리즘 중 적어도 어느 하나를 이용하여 상기 탑승함의 경로 궤적을 산출하고 산출된 경로 궤적을 이용하여 상기 턴테이블을 회전 제어하고 상기 붐의 각도를 상승 제어한 후, 상기 붐이 인출되도록 제어하여 상기 탑승함의 위치를 제어하는 고소작업차를 이용한 인명 구조 지원 시스템.
According to claim 3,
The control unit,
When the aerial platform is moved to the position, the working radius and the length of the boom of the aerial platform are calculated using the kinematic and inverse kinematic models of the coordinates of the target point and the polar coordinate manipulator, and the joint space method, Calculate the path trajectory of the board using at least one of Cartesian spatial method and three-dimensional path trajectory algorithm, rotate control the turntable using the calculated path trajectory, raise the angle of the boom, and then control the boom Lifesaving support system using aerial work vehicle that controls the position of the boarding box by controlling the withdrawal.
제1항에 있어서,
상기 제어부는,
상기 고소작업차의 탑승함에 구비되는 스피커를 통해 상기 탑승함의 위치를 출력하고, 상기 탑승함에 구비되는 LED를 발광 제어하는 고소작업차를 이용한 인명 구조 지원 시스템.
According to claim 1,
The control unit,
A life support system using a aerial work vehicle that outputs the position of the boarding box through a speaker provided in the boarding box of the aerial work vehicle and controls light emission of the LEDs provided in the boarding box.
탑승함이 구비된 고소작업차를 이용한 인명 구조 지원 시스템에 의해 수행되는 인명 구조 지원 방법에 있어서,
복수대의 고소작업차를 관리하는 통합관제서버가 소방관제서버로부터 구조 지원 신호가 전송되면, 드론을 제어하여 상기 구조 지원 신호에 포함된 재난 위치로 상기 드론을 이동시키는 단계;
상기 통합관제 서버가 상기 드론을 통해 촬영된 영상과, 3차원 환경 인식 센서 시스템을 이용하여 작성된 현장 지도 및 GPS 정보를 상기 드론으로부터 전달받는 단계;
상기 통합관제서버가 상기 전달받은 촬영 영상과 현장 지도 및 GPS 정보를 이용하여 3차원 현장 지도를 생성하는 단계;
상기 통합관제서버가 상기 생성된 3차원 현장 지도를 상기 위치에서 설정 거리 이내에 위치한 적어도 한 대 이상의 고소작업차로 각각 전송하는 단계;
상기 고소작업차에 구비되는 제어부가 상기 3차원 현장 지도를 수신하면, 수신된 3차원 현장 지도를 상기 고소작업차에 구비된 모니터를 통해 출력시키는 단계;및
상기 고소작업차가 운전자의 조작에 따라 상기 위치로 이동하면, 상기 제어부가 상기 고소작업차의 탑승함이 기 정의된 목표 지점에 위치하도록 상기 탑승함의 위치를 제어하는 단계를 포함하는 인명 구조 지원 방법.
In the lifesaving support method performed by the lifesaving support system using the aerial platform equipped with a boarding box,
An integrated control server managing a plurality of aerial work vehicles, when a rescue support signal is transmitted from a fire control server, controlling a drone to move the drone to a disaster location included in the rescue support signal;
Receiving, by the integrated control server, an image photographed through the drone and a field map and GPS information generated using a 3D environment recognition sensor system from the drone;
Generating, by the integrated control server, a 3D field map using the received captured image, field map, and GPS information;
Transmitting, by the integrated control server, the generated 3D field map to at least one aerial work vehicle located within a predetermined distance from the location;
When the control unit provided in the aerial work vehicle receives the 3D field map, outputting the received 3D field map through the monitor provided in the aerial work vehicle; And
And when the aerial work vehicle moves to the position according to the driver's operation, the control unit controlling the position of the passenger car to position the boarding space of the aerial work vehicle at a predefined target point.
제6항에 있어서,
상기 현장 지도는,
상기 드론에 설치된 뎁스 카메라(Depth Camera), 3D 라이더(Lidar), 2차원 외부 환경 인지 센서 및 고도 센서 중 어느 하나 이상으로 구성되는 3차원 환경 인지 센서 시스템과, 3D SLAM(simultaneous location and mapping), 비주얼 SLAM(simultaneous location and mapping), 3D 맵핑 알고리즘 중 어느 하나인 3차원 지도 작성 알고리즘을 이용하여 작성되고,
상기 3차원 현장 지도를 생성하는 단계는,
상기 드론으로부터 전달된 상기 현장 지도에 해당 위치에 대응하는 GPS 정보를 이용하여 생성하는 인명 구조 지원 방법.
The method of claim 6,
The on-site map,
A 3D environmental awareness sensor system consisting of one or more of a depth camera installed on the drone, a 3D lidar, a 2D external environment recognition sensor, and an altitude sensor, and a 3D simulated location and mapping (SLAM), Visual SLAM (simultaneous location and mapping), 3D mapping algorithm, one of which is created using a three-dimensional mapping algorithm,
The step of generating the 3D field map,
Lifesaving support method for generating using the GPS information corresponding to the location on the field map transmitted from the drone.
제6항에 있어서,
상기 목표 지점은,
상기 운전자로부터 상기 목표 지점의 좌표를 입력받는 방법, 또는
상기 탑승함에 설치된 레이저 포인터를 이용하여 상기 운전자에 의해 조준된 목표점을 상기 3차원 현장 지도에 반영하고 상대 공간 좌표를 계산하여 상기 목표 지점의 좌표를 산출하는 방법, 또는
상기 재난 위치에 위치한 드론의 GPS 정보 및 고도 정보를 이용하여 상기 목표 지점의 좌표를 산출하는 방법 중 적어도 어느 하나의 방법을 이용하여 기 정의되는 인명 구조 지원 방법.
The method of claim 6,
The target point is,
A method of receiving coordinates of the target point from the driver, or
A method of calculating a coordinate of the target point by reflecting a target point aimed by the driver on the 3D field map using a laser pointer installed in the boarding box and calculating relative space coordinates, or
A life support method defined in advance by using at least one of a method of calculating coordinates of the target point using GPS information and altitude information of a drone located at the disaster location.
제8항에 있어서,
상기 탑승함의 위치를 제어하는 단계는,
상기 목표지점의 좌표와 극좌표형 매니퓰레이터(manipulator)의 운동학 및 역기구학 모델을 이용하여 상기 고소작업차의 작업 반경과 붐의 길이를 산정하고, 관절공간법, 직교좌표 공간법 그리고 3차원 경로 궤적 알고리즘 중 적어도 어느 하나를 이용하여 상기 탑승함의 경로 궤적을 산출하고 산출된 경로 궤적을 이용하여 상기 턴테이블을 회전 제어하고 상기 붐의 각도를 상승 제어한 후, 상기 붐이 인출되도록 제어하여 상기 탑승함의 위치를 제어하는 인명 구조 지원 방법.
The method of claim 8,
Controlling the position of the boarding box,
Using the coordinates of the target point and the kinematic and inverse kinematic models of the polar coordinate manipulator, the working radius of the aerial platform and the length of the boom are calculated, and the joint space method, the Cartesian space method and the 3D path trajectory algorithm Calculate the path trajectory of the boarding box by using at least one of the above, rotate the turntable using the calculated path trajectory, control the angle of the boom upward, and control the boom to be withdrawn to control the position of the boarding box. How to control lifesaving support.
제6항에 있어서,
상기 제어부는 상기 고소작업차의 탑승함에 구비되는 스피커를 통해 상기 탑승함의 위치를 출력하고, 상기 탑승함에 구비되는 LED를 발광 제어하는 단계를 더 포함하는 인명 구조 지원 방법.
The method of claim 6,
The control unit further comprises the step of outputting the position of the boarding box through a speaker provided in the boarding box of the aerial platform, and controlling the light emission of the LED provided in the boarding box.
KR1020180121032A 2018-10-11 2018-10-11 System for life rescue supportusing high place operation carand method thereof KR102107667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180121032A KR102107667B1 (en) 2018-10-11 2018-10-11 System for life rescue supportusing high place operation carand method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180121032A KR102107667B1 (en) 2018-10-11 2018-10-11 System for life rescue supportusing high place operation carand method thereof

Publications (2)

Publication Number Publication Date
KR20200041071A true KR20200041071A (en) 2020-04-21
KR102107667B1 KR102107667B1 (en) 2020-05-07

Family

ID=70456318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180121032A KR102107667B1 (en) 2018-10-11 2018-10-11 System for life rescue supportusing high place operation carand method thereof

Country Status (1)

Country Link
KR (1) KR102107667B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102271938B1 (en) * 2021-02-01 2021-07-02 (주)한성기술단 Drone for fire and emergency rescue system using the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101604188B1 (en) * 2014-05-12 2016-03-16 주식회사 알씨테크 Display apparatus of horizontality for high lift work vechicle
KR101664968B1 (en) * 2015-04-10 2016-10-25 주식회사 호룡 Position tracking device for riding basket of high place works car and its method
US20160363457A1 (en) * 2015-06-10 2016-12-15 Motorola Solutions, Inc Method and apparatus for dispatching network equipment within a communication system
KR101687701B1 (en) * 2015-09-25 2016-12-20 (주)아이넷테크 Fire vehicle device and method thereof
KR101692781B1 (en) * 2015-10-05 2017-01-04 금오공과대학교 산학협력단 Drone - Sensor Interconnected Disaster Management System
KR101842194B1 (en) * 2017-08-28 2018-03-26 주식회사 이든이엔지 Life-saving drone system and lifesaving method using thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101604188B1 (en) * 2014-05-12 2016-03-16 주식회사 알씨테크 Display apparatus of horizontality for high lift work vechicle
KR101664968B1 (en) * 2015-04-10 2016-10-25 주식회사 호룡 Position tracking device for riding basket of high place works car and its method
US20160363457A1 (en) * 2015-06-10 2016-12-15 Motorola Solutions, Inc Method and apparatus for dispatching network equipment within a communication system
KR101687701B1 (en) * 2015-09-25 2016-12-20 (주)아이넷테크 Fire vehicle device and method thereof
KR101692781B1 (en) * 2015-10-05 2017-01-04 금오공과대학교 산학협력단 Drone - Sensor Interconnected Disaster Management System
KR101842194B1 (en) * 2017-08-28 2018-03-26 주식회사 이든이엔지 Life-saving drone system and lifesaving method using thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102271938B1 (en) * 2021-02-01 2021-07-02 (주)한성기술단 Drone for fire and emergency rescue system using the same

Also Published As

Publication number Publication date
KR102107667B1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
KR101705753B1 (en) Evacuation path guidance system
US11377210B2 (en) Monitoring system and mobile robot device
KR102012288B1 (en) Safety measurement system of structure using a drone
JP6080568B2 (en) Monitoring system
CN110860057A (en) Fire-fighting reconnaissance robot and reconnaissance method
CN107451723A (en) Emergency management and rescue things system
US11150659B2 (en) Information collection system and server apparatus
KR20160034013A (en) System and method for construction site management by using unmaned aerial vehicle
CN107194564A (en) Intelligent and safe evacuating system based on BIM
CN112370694B (en) Cooperative fire extinguishing method based on unmanned aerial vehicle and robot
US20210216072A1 (en) Autonomous Fire Vehicle
JP2014192784A (en) Monitoring system
KR102357499B1 (en) Tower crane autonomous operation system and autonomous operation method thereof
KR102107667B1 (en) System for life rescue supportusing high place operation carand method thereof
JP2010280251A (en) Fire extinguishing rescue unit attached to helicopter
KR102433595B1 (en) Unmanned transportation apparatus based on autonomous driving for smart maintenance of railroad vehicles
KR102104698B1 (en) Unmaned Aerial Vehicle for inspecting power facilities, power facilities inspection system and method for controlling unmanned aerial vehicle
KR101006698B1 (en) Prevention system in huge tunnel using rfid
Jacob et al. An intelligent fire detection and extinguishing assistant system using internet of things (IoT)
US11491296B2 (en) Autonomous aircraft and method for providing ventilation to people
WO2020256015A1 (en) Travel route generation device and control device
US20090266566A1 (en) Fire fighting and rescue unit attachable helicopter
CN210904747U (en) Control system of intelligent fire-fighting robot
JP7029978B2 (en) Fire spread prevention system and fire spread prevention method
KR20170097819A (en) Dron for flying and ground moving

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant