KR20200084382A - Emergency evacuation guidance robot and method of controlling the same - Google Patents

Emergency evacuation guidance robot and method of controlling the same Download PDF

Info

Publication number
KR20200084382A
KR20200084382A KR1020180165924A KR20180165924A KR20200084382A KR 20200084382 A KR20200084382 A KR 20200084382A KR 1020180165924 A KR1020180165924 A KR 1020180165924A KR 20180165924 A KR20180165924 A KR 20180165924A KR 20200084382 A KR20200084382 A KR 20200084382A
Authority
KR
South Korea
Prior art keywords
route
evacuation
smoke
fire
robot
Prior art date
Application number
KR1020180165924A
Other languages
Korean (ko)
Inventor
신승렬
Original Assignee
신승렬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 신승렬 filed Critical 신승렬
Priority to KR1020180165924A priority Critical patent/KR20200084382A/en
Publication of KR20200084382A publication Critical patent/KR20200084382A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Abstract

The present invention relates to a fire evacuation guidance robot and a control method thereof. The fire evacuation guidance robot includes: a map generator that generates a map using the SLAM algorithm and measures the current coordinate based on the generated map; a route search unit searching for a route using the map; an imaging device that acquires a surrounding image; and a means of transportation. In a transport robot mode, the fire evacuation guide robot moves inside the building, and the map generator generates the map, analyzes the surrounding image acquired through the imaging device, stores the first coordinates when a person is identified, and stores the second coordinates when an emergency exit is identified. In the fire evacuation mode, the route search unit searches for an evacuation route using the current coordinates, the first coordinates, and the second coordinates, and moves along the evacuation route.

Description

화재 대피 유도로봇 및 이의 제어 방법{EMERGENCY EVACUATION GUIDANCE ROBOT AND METHOD OF CONTROLLING THE SAME}Fire evacuation induction robot and its control method {EMERGENCY EVACUATION GUIDANCE ROBOT AND METHOD OF CONTROLLING THE SAME}

본 발명은 화재 대피 유도로봇 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 주변 환경에 대한 지도를 생성하며 자율주행이 가능하고, 비상 상황에서 화재 대피 유도 기능을 수행하는 로봇 및 이의 제어 방법에 관한 것이다.The present invention relates to a fire evacuation guided robot and a control method thereof, more specifically, to generate a map of the surrounding environment and enable autonomous driving, and a robot performing a fire evacuation guide function in an emergency and a control method thereof will be.

화재 등 사람이 접근하기 힘든 재난지역에 투입되어 화재 진압 및 재난 구호와 관련된 여러 기능을 수행할 수 있는 다양한 종류 및 형태의 재난 구호용 로봇이 개발되고 있다. 이러한 로봇은 재난 구호를 위해 필요한 전문적인 기능을 수행하도록 개발되었으나 아직까지는 기술적인 한계로 인해 전문적인 구호요원 대비 발휘할 수 있는 기능에 한계가 있다. 그럼에도 불구하고 재난 구호용 로봇은 초기 구입 비용 및 유지 비용이 높으며, 화재 등의 재난 상황이 발생하기 전까지는 활용도가 떨어진다는 단점이 있다.Various types and types of disaster relief robots are being developed that can be put into disaster areas that are difficult for humans, such as fires, to perform various functions related to fire suppression and disaster relief. These robots have been developed to perform the specialized functions necessary for disaster relief, but so far, there are limitations on the functions that can be exhibited compared to professional relief personnel due to technical limitations. Nevertheless, disaster relief robots have the disadvantages of high initial purchase and maintenance costs, and poor utilization until disasters such as fires occur.

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 평상시에는 물건을 적재하고 운송하는 기능을 제공하고, 화재 발생시에는 연기로 인해 시야 확보가 어려운 상황에서 대피 경로를 따라 자율 주행하며 대피 유도 기능을 제공할 수 있는 화재 대피 유도로봇 및 이의 제어 방법을 제공하는 것이다.Accordingly, the technical problem of the present invention was conceived in this regard, and the object of the present invention is to provide a function of loading and transporting objects at normal times, and autonomously driving along an evacuation route in a situation where it is difficult to secure a view due to smoke in the event of a fire. It is to provide a fire evacuation guided robot capable of providing evacuation guidance and a control method thereof.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른, 화재 대피 유도 로봇은 SLAM(Simultaneous Localization And Mapping) 알고리즘을 이용하여 지도를 생성하고, 생성된 지도를 기준으로 현재 좌표를 측정하는 지도 생성부; 상기 지도를 이용하여 경로를 탐색하는 경로 탐색부; 주변 이미지를 획득하는 영상촬영 장치; 및 이동수단을 포함하되, 운반 로봇 모드에서는 건물 내부를 이동하며 상기 지도 생성부가 상기 지도를 생성하고, 상기 영상촬영 장치를 통해 획득한 주변 이미지를 분석하여 사람이 식별되면 제1 좌표를 저장하며, 비상구가 식별되면 제2 좌표를 저장하고, 화재 대피 모드에서는 상기 경로 탐색부가 상기 현재 좌표, 상기 제1 좌표 및 상기 제2 좌표를 이용하여 대피 경로를 탐색하고 상기 대피 경로를 따라 이동한다.According to one embodiment for realizing the object of the present invention described above, the fire evacuation guidance robot generates a map using a SLAM (Simultaneous Localization And Mapping) algorithm, and generates a map that measures current coordinates based on the generated map part; A route search unit for searching a route using the map; An image capturing apparatus for acquiring surrounding images; And a moving means, in the transport robot mode, the interior of the building is moved, and the map generation unit generates the map, and analyzes surrounding images acquired through the imaging device to store first coordinates when a person is identified, When the emergency exit is identified, the second coordinates are stored, and in the fire evacuation mode, the route search unit searches the evacuation route using the current coordinates, the first coordinates, and the second coordinates, and moves along the evacuation route.

본 발명의 일 실시예에 있어서, 주변에 대한 3차원 데이터를 획득하는 라이다 센서를 더 포함하고, 상기 SLAM 알고리즘은 상기 라이다 센서를 통해 획득된 3차원 데이터를 이용할 수 있다.In one embodiment of the present invention, further comprising a lidar sensor for obtaining three-dimensional data about the surroundings, the SLAM algorithm may use the three-dimensional data obtained through the lidar sensor.

본 발명의 일 실시예에 있어서, 연기의 농도를 측정하는 연기 센서를 더 포함하고, 상기 지도 생성부는 상기 연기의 농도 및 상기 현재 좌표를 이용하여 연기 발생 정보를 생성하며, 상기 연기 발생 정보는 연기 발생 지역, 연기 농도 및 연기 진행 방향 중 적어도 하나 이상을 포함할 수 있다.In one embodiment of the present invention, further comprising a smoke sensor for measuring the concentration of smoke, the map generation unit generates smoke generation information using the concentration of the smoke and the current coordinates, the smoke generation information is smoke It may include at least one of the region of occurrence, the concentration of smoke and the direction of the smoke.

본 발명의 일 실시예에 있어서, 상기 경로 탐색부는 상기 연기 발생 정보를 더 이용하여 상기 대피 경로를 탐색할 수 있다.In one embodiment of the present invention, the route search unit may further search the evacuation route using the smoke generation information.

본 발명의 일 실시예에 있어서, 상기 화재 대피 모드는 상기 연기 센서에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 또는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신한 경우 활성화될 수 있다.In one embodiment of the present invention, the fire evacuation mode may be activated when the concentration of smoke measured by the smoke sensor is greater than or equal to a predetermined reference value or when a fire alarm signal is received from a fire alarm installed in a building. .

본 발명의 일 실시예에 있어서, 상기 경로 탐색부는 무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 상기 대피 경로에 대한 탐색 기록을 서로 주고 받을 수 있으며, 도착 지점이 적어도 하나 이상의 상기 제2 좌표로 분산되도록 상기 탐색 기록을 더 이용하여 상기 대피 경로를 탐색할 수 있다.In one embodiment of the present invention, the route search unit may exchange search records for the evacuation route with other fire evacuation guidance robots connected by using wireless communication, and an arrival point is at least one or more of the second coordinates. The evacuation route can be searched by further using the search record to be distributed.

본 발명의 일 실시예에 있어서, 상기 경로 탐색부는 상기 화재 대피 모드에서 무선 통신을 이용하여 연결된 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 상기 대피 경로가 상기 제3 좌표로부터 상기 제2 좌표로 이동하는 경로를 포함하도록 경로를 탐색할 수 있다.In one embodiment of the present invention, if the route search unit receives third coordinates from a remote control device connected using wireless communication in the fire evacuation mode, the evacuation route is from the third coordinates to the second coordinates. The route can be searched to include a route that travels.

본 발명의 일 실시예에 있어서, 상기 영상촬영 장치는 상기 원격 제어 장치로 상기 주변 이미지를 전송할 수 있다.In one embodiment of the present invention, the image photographing device may transmit the surrounding image to the remote control device.

본 발명의 일 실시예에 있어서, 물건을 적재할 수 있는 운반수단을 더 포함할 수 있다.In one embodiment of the present invention, it may further include a transport means capable of loading the object.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른, 화재 대피 유도 로봇의 제어 방법은 운반 로봇 모드 및 화재 대피 모드를 포함하되, 상기 운반 로봇 모드는 건물 내부를 이동하며 SLAM(Simultaneous Localization And Mapping) 알고리즘을 이용하여 지도를 생성하고, 생성된 지도를 기준으로 현재 좌표를 측정하는 지도 생성 단계; 및 영상촬영 장치를 통해 획득한 주변 이미지를 분석하여 사람이 식별되면 제1 좌표를 저장하고, 비상구가 식별되면 제2 좌표를 저장하는 단계를 포함하고, 상기 화재 대피 모드는 상기 현재 좌표, 상기 제1 좌표 및 상기 제2 좌표를 이용하여 대피 경로를 탐색하는 단계; 및 상기 대피 경로를 따라 이동하는 단계를 포함한다.According to an embodiment for realizing another object of the present invention, the control method of the fire evacuation induction robot includes a transport robot mode and a fire evacuation mode, wherein the transport robot mode moves inside the building and simulates localization (SLAM). And Mapping) a map generation step of generating a map using an algorithm and measuring current coordinates based on the generated map; And analyzing the surrounding image acquired through the imaging device, storing first coordinates when a person is identified, and storing second coordinates when an emergency exit is identified, wherein the fire evacuation mode includes the current coordinates and the first Searching for an evacuation route using the first coordinate and the second coordinate; And moving along the evacuation route.

본 발명의 일 실시예에 있어서, 상기 SLAM 알고리즘은 라이다 센서를 통해 획득된 3차원 데이터를 이용할 수 있다.In one embodiment of the present invention, the SLAM algorithm may use 3D data acquired through a lidar sensor.

본 발명의 일 실시예에 있어서, 상기 화재 대피 모드는 연기 센서에서 측정된 연기의 농도 및 상기 현재 좌표를 이용하여 연기 발생 정보를 생성하는 단계를 더 포함하고, 상기 연기 발생 정보는 연기 발생 지역, 연기 농도 및 연기 진행 방향 중 적어도 하나 이상을 포함할 수 있다.In one embodiment of the present invention, the fire evacuation mode further includes generating smoke generation information using the concentration of smoke measured by a smoke sensor and the current coordinates, wherein the smoke generation information includes a smoke generation area, It may include at least one of the smoke concentration and the direction of the smoke.

본 발명의 일 실시예에 있어서, 상기 대피 경로를 탐색하는 단계는 상기 연기 발생 정보를 더 이용하여 상기 대피 경로를 탐색할 수 있다.In an embodiment of the present invention, the step of searching for the evacuation route may search for the evacuation route by further using the smoke generation information.

본 발명의 일 실시예에 있어서, 상기 화재 대피 모드는 상기 연기 센서에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 또는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신한 경우 활성화될 수 있다.In one embodiment of the present invention, the fire evacuation mode may be activated when the concentration of smoke measured by the smoke sensor is greater than or equal to a predetermined reference value or when a fire alarm signal is received from a fire alarm installed in a building. .

본 발명의 일 실시예에 있어서, 상기 화재 대피 모드는 무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 상기 대피 경로에 대한 탐색 기록을 서로 주고 받는 단계를 더 포함하고, 상기 대피 경로를 탐색하는 단계는 도착 지점이 적어도 하나 이상의 상기 제2 좌표로 분산되도록 상기 탐색 기록을 더 이용하여 상기 대피 경로를 탐색할 수 있다.In one embodiment of the present invention, the fire evacuation mode further comprises the step of exchanging a search record for the evacuation route with another fire evacuation guidance robot connected using wireless communication, and searching the evacuation route May search the evacuation route by further using the search record so that the arrival point is distributed to at least one of the second coordinates.

본 발명의 일 실시예에 있어서, 상기 대피 경로를 탐색하는 단계는In one embodiment of the present invention, the step of searching for the evacuation route is

무선 통신을 이용하여 연결된 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 상기 대피 경로가 상기 제3 좌표로부터 상기 제2 좌표로 이동하는 경로를 포함하도록 경로를 탐색할 수 있다.When receiving the third coordinate from the connected remote control device using wireless communication, the route may be searched so that the evacuation route includes a route moving from the third coordinate to the second coordinate.

본 발명의 일 실시예에 있어서, 상기 영상촬영 장치는 상기 원격 제어 장치로 상기 주변 이미지를 전송할 수 있다.In one embodiment of the present invention, the image photographing device may transmit the surrounding image to the remote control device.

본 발명의 일 실시예에 있어서, 상기 운반 로봇 모드는 상기 현재 좌표 및 외부에서 입력된 목적지 좌표를 이용하여 운반 경로를 탐색하고, 상기 운반 경로를 따라 운반수단에 적재된 물건을 운송하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the transport robot mode further comprises the steps of searching for a transport route using the current coordinates and a destination coordinate input from the outside, and transporting the object loaded on the transport means along the transport route. It can contain.

본 발명에 따른 화재 대피 유도로봇 및 이의 제어 방법은 평상시 운반용 로봇으로 활용이 가능하다는 장점이 있다.The fire evacuation induction robot and its control method according to the present invention has an advantage that it can be used as a transport robot for everyday use.

본 발명에 따른 화재 대피 유도로봇 및 이의 제어 방법은 화재 발생시 내부에서 운행중인 로봇을 활용하여 화재 상황에 빠른 대처가 가능하다.The fire evacuation induction robot and its control method according to the present invention can quickly respond to a fire situation by using a robot running inside when a fire occurs.

본 발명에 따른 화재 대피 유도로봇 및 이의 제어 방법은 층간 통신을 통해 대피로의 혼잡도를 조절할 수 있어 효율적이고 빠른 대피를 유도할 수 있다.The fire evacuation induction robot and its control method according to the present invention can control the congestion degree of the evacuation route through inter-layer communication, thereby inducing efficient and rapid evacuation.

도 1은 본 발명의 일 실시예에 따른 화재 대피 유도로봇을 설명하기 위한 개념도이다.
도 2는 도 1의 제어부를 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 화재 대피 유도로봇의 제어 방법을 설명하기 위한 순서도이다.
1 is a conceptual diagram for explaining a fire evacuation guided robot according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the control unit of FIG. 1.
3 is a flow chart for explaining a control method of a fire evacuation guided robot according to an embodiment of the present invention.

이하, 첨부한 도면들을 참조하여 본 발명을 보다 상세하게 설명하고자 한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 화재 대피 유도 로봇을 설명하기 위한 개념도이다. 도 2는 도 1의 제어부를 설명하기 위한 블록도이다. 1 is a conceptual diagram for explaining a fire evacuation induction robot according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating the control unit of FIG. 1.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 화재 대피 유도 로봇은 제어부(100), 라이다 센서(210), 초음파 센서(220), 연기 센서(230), 영상 촬영 장치(300), 관성 측정 장치(400), 통신부(500), 이동수단(600), 표시부(700), 경광등(800) 및 운반수단(900)을 포함할 수 있다.1 and 2, the fire evacuation induction robot according to an embodiment of the present invention includes a control unit 100, a lidar sensor 210, an ultrasonic sensor 220, a smoke sensor 230, and an image photographing device ( 300), an inertial measurement device 400, a communication unit 500, a moving means 600, a display unit 700, a warning light 800 and a transport means 900 may be included.

제어부(100)는 화재 대피 유도 로봇을 구성하는 라이다 센서(210), 초음파 센서(220), 연기 센서(230), 영상 촬영 장치(300), 관성 측정 장치(400), 통신부(500), 이동수단(600), 표시부(700), 경광등(800) 및 운반수단(900)의 동작을 제어할 수 있다.The control unit 100 is a lidar sensor 210, an ultrasonic sensor 220, a smoke sensor 230, an image photographing device 300, an inertial measurement device 400, and a communication unit 500 constituting a fire evacuation induction robot. The operation of the moving means 600, the display unit 700, the warning light 800, and the transportation means 900 can be controlled.

제어부(100)는 제어 시그널을 통해 각각의 모듈들을 제어하는 중앙 처리 장치(Central Processing Unit, CPU) 및 마이크로 콘트롤러 유닛(Micro Controller Unit, MCU) 중 적어도 하나 이상을 포함할 수 있다.The control unit 100 may include at least one of a central processing unit (CPU) and a micro controller unit (MCU) that control each module through a control signal.

제어부(100)는 하드웨어 추상화, 로우 레벨 장치 제어, 프로세스간 메시지 전달 및 패키지 관리 등 로봇 시스템을 제어하기 위한 운영체제(Operating System) 역할을 수행할 수 있다.The controller 100 may serve as an operating system for controlling the robot system, such as hardware abstraction, low-level device control, inter-process message delivery, and package management.

화재 대피 유도 로봇은 평상시에는 운반 로봇 모드로 작동하고, 화재 등의 재난 상황 발생시 화재 대피 모드로 작동할 수 있다. 제어부(100)는 운반 로봇 모드와 화재 대피 모드간 전환을 제어할 수 있다. 화재 대피 모드는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신하는 경우 또는 연기 센서(230)에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 활성화될 수 있다.The fire evacuation induction robot may normally operate in a transport robot mode, and may operate in a fire evacuation mode when a disaster situation such as a fire occurs. The control unit 100 may control switching between the transport robot mode and the fire evacuation mode. The fire evacuation mode may be activated when a fire alarm signal is received from a fire alarm installed in a building or when the concentration of smoke measured by the smoke sensor 230 is greater than or equal to a predetermined reference value.

제어부(100)는 지도 생성부(110), 경로 탐색부(120), 영상 처리부(130) 및 주행 제어부(140)를 포함할 수 있다.The control unit 100 may include a map generation unit 110, a route search unit 120, an image processing unit 130, and a driving control unit 140.

운반 로봇 모드에서, 화재 대피 유도 로봇은 건물 내부를 자율주행하며 지도 생성부(110)를 통해 지도를 생성할 수 있다. 화재 대피 유도 로봇은 영상 처리부(130)를 통해 건물 내부에 체류하고 있는 사람들의 위치를 지속적으로 업데이트하여 저장할 수 있다. 화재 대피 유도 로봇은 영상 처리부(130)를 통해 비상구 등의 탈출 통로에 대한 좌표 값을 저장하고 있을 수 있다. In the transport robot mode, the fire evacuation induction robot can autonomously drive inside the building and generate a map through the map generation unit 110. The fire evacuation induction robot may continuously update and store the location of people staying inside the building through the image processing unit 130. The fire evacuation induction robot may store coordinate values for an escape passage such as an emergency exit through the image processing unit 130.

화재 대피 모드에서, 화재 대피 유도 로봇은 경로 탐색부(120)를 통해 대피 경로를 탐색하고, 탐색된 대피 경로를 따라 이동하며 건물 내부에 있는 요구조자들을 비상구 등의 대피로까지 유도할 수 있다.In the fire evacuation mode, the fire evacuation induction robot may search the evacuation route through the route search unit 120, move along the searched evacuation route, and guide the helpers in the building to the evacuation route, such as an emergency exit.

지도 생성부(110)는 화재 대피 유도 로봇의 주변에 대한 3차원 데이터를 이용하여 지도를 생성할 수 있다. 일 실시예에서, 지도 생성부(110)는 SLAM(Simultaneous Localization And Mapping) 알고리즘을 사용하여 지도를 생성하고, 생성된 지도를 기준으로 화재 대피 유도 로봇이 위치하고 있는 현재 좌표를 측정할 수 있다.The map generator 110 may generate a map using 3D data about the surroundings of the fire evacuation guide robot. In one embodiment, the map generator 110 may generate a map using a Simultaneous Localization And Mapping (SLAM) algorithm, and measure the current coordinates where the fire evacuation guidance robot is located based on the generated map.

SLAM 알고리즘은 지도(map)가 주어져 있지 않고, 지도에서의 위치도 판단할 수 없는 경우에 주변 환경을 센서로 감지해가면서 지도를 생성하고, 생성된 지도를 기준으로 센서의 현재 위치까지 추정하는 알고리즘을 의미한다.The SLAM algorithm generates a map while sensing the surrounding environment with a sensor when a map is not given and the location on the map cannot be determined, and estimates the current position of the sensor based on the generated map. Means

일 실시예에서, 지도 생성부(110)의 SLAM 알고리즘은 라이다 센서(210)를 통해 획득된 3차원 데이터를 이용하여 지도를 생성할 수 있다. 이와는 달리, 지도 생성부(110)의 SLAM 알고리즘은, 도시되지 않았으나, 주변 사물에 대한 깊이 정보를 획득할 수 있는 키넥트 센서 등을 통해 획득된 3차원 데이터를 이용하여 지도를 생성할 수 있다.In one embodiment, the SLAM algorithm of the map generator 110 may generate a map using 3D data obtained through the lidar sensor 210. Unlike this, the SLAM algorithm of the map generation unit 110 may generate a map using 3D data obtained through a Kinect sensor or the like, which is not shown, but can acquire depth information about surrounding objects.

지도 생성부(110)는 영상 처리부(130)로부터 전달받은 이미지 분석 결과를 이용하여 사람, 비상구, 소화전 등의 좌표를 저장하고, 지도에 표시할 수 있다.The map generation unit 110 may store coordinates such as a person, an emergency exit, and a fire hydrant using the image analysis result received from the image processing unit 130 and display the map on the map.

일 실시예에서, 지도 생성부(110)는 영상 처리부(130)에서 분석된 이미지 분석 결과, 라이다 센서(210)를 통해 획득된 3차원 데이터 및 초음파 센서(220)를 통해 획득된 거리 데이터 중 적어도 하나 이상을 이용하여 사람을 식별할 수 있고, 식별된 사람의 위치를 탐지하여 이를 제1 좌표로 저장할 수 있다. 복수의 사람이 식별되는 경우 복수의 제1 좌표가 저장될 수 있다. In one embodiment, the map generation unit 110 of the image analysis result analyzed by the image processing unit 130, the three-dimensional data obtained through the lidar sensor 210 and the distance data obtained through the ultrasonic sensor 220 A person may be identified using at least one or more, and a position of the identified person may be detected and stored as first coordinates. When a plurality of people are identified, a plurality of first coordinates may be stored.

여기서, 각각의 제1 좌표는 하나의 2차원 좌표 값(예를 들어, 가로축 값과 세로축 값으로 표시되는 좌표 값) 또는 특정 공간에 대한 식별 값을 포함할 수 있다. 예를 들어, N호 강의실에서 사람이 식별된 경우 제1 좌표는 식별된 사람의 2차원 좌표 또는 N호 강의실에 대한 식별 값을 포함할 수 있다. 즉, 각각의 공간에 대한 식별 값을 지정하고, 특정 공간에서 사람이 식별된 경우 제1 좌표는 특정 공간에 대한 식별 값을 포함할 수 있다. Here, each of the first coordinates may include one 2D coordinate value (for example, a coordinate value represented by a horizontal axis value and a vertical axis value) or an identification value for a specific space. For example, when a person is identified in the N-class classroom, the first coordinate may include the identified person's two-dimensional coordinate or an identification value for the N-class classroom. That is, an identification value for each space is designated, and when a person is identified in a specific space, the first coordinate may include an identification value for the specific space.

화재 대피 유도 로봇이 건물 내부를 자율주행하면서 지도 생성부(110)를 통해 제1 좌표를 지속적으로 업데이트할 수 있다.The fire evacuation induction robot may continuously update the first coordinates through the map generation unit 110 while autonomous driving inside the building.

지도 생성부(110)는 영상 처리부(130)에서 분석된 이미지 분석 결과, 라이다 센서(210)를 통해 획득된 3차원 데이터 및 초음파 센서(220)를 통해 획득된 거리 데이터 중 적어도 하나 이상을 이용하여 비상구의 위치를 탐지할 수 있고, 이를 제2 좌표로 저장할 수 있다. 복수의 비상구가 식별되는 경우 복수의 제2 좌표가 저장될 수 있다. The map generation unit 110 uses at least one of three-dimensional data acquired through the lidar sensor 210 and distance data obtained through the ultrasonic sensor 220 as a result of the image analysis analyzed by the image processing unit 130. By detecting the location of the emergency exit, it can be stored as a second coordinate. When a plurality of emergency exits are identified, a plurality of second coordinates may be stored.

일 실시예에서, 각각의 제2 좌표는 제1 좌표와 달리 가로축과 세로축 값으로 표시되는 2차원 좌표 값을 포함할 수 있다. 이와는 달리, 각각의 제2 좌표는 제1 좌표와 마찬가지로 가로축과 세로축 값으로 표시되는 2차원 좌표 값 또는 특정 공간에 대한 식별 값을 포함할 수 있다.In one embodiment, each of the second coordinates may include two-dimensional coordinate values represented by horizontal and vertical axis values, unlike the first coordinate. Unlike this, each of the second coordinates may include two-dimensional coordinate values represented by horizontal and vertical axis values or identification values for a specific space, like the first coordinates.

지도 생성부(110)는 영상 처리부(130)에서 분석된 이미지 분석 결과, 라이다 센서(210)를 통해 획득된 3차원 데이터 및 초음파 센서(220)를 통해 획득된 거리 데이터 중 적어도 하나 이상을 이용하여 소화전 등의 소방시설 관련 시설물에 대한 위치를 탐지할 수 있고, 이를 기타 시설물 좌표로 저장할 수 있다. 복수의 시설물이 식별되는 경우 복수의 기타 시설물 좌표가 저장될 수 있다.The map generation unit 110 uses at least one of three-dimensional data acquired through the lidar sensor 210 and distance data obtained through the ultrasonic sensor 220 as a result of the image analysis analyzed by the image processing unit 130. By doing so, it is possible to detect the location of facilities related to firefighting facilities such as fire hydrants and store them as coordinates of other facilities. When a plurality of facilities are identified, a plurality of other facility coordinates may be stored.

일 실시예에서, 각각의 기타 시설물 좌표는 제1 좌표와 달리 가로축과 세로축 값으로 표시되는 2차원 좌표 값을 포함할 수 있다. 이와는 달리, 각각의 기타 시설물 좌표는 제1 좌표와 마찬가지로 가로축과 세로축 값으로 표시되는 2차원 좌표 값 또는 특정 공간에 대한 식별 값을 포함할 수 있다.In one embodiment, the coordinates of each other facility may include two-dimensional coordinate values represented by horizontal and vertical axis values, unlike the first coordinate. Unlike this, each other facility coordinate may include two-dimensional coordinate values represented by horizontal and vertical axis values or identification values for a specific space, like the first coordinate.

지도 생성부(110)는 연기 센서(230)에서 연기가 측정된 경우, 측정된 위치에서의 좌표, 연기의 농도 및 농도 변화를 기초로 연기 발생 정보를 생성할 수 있다. 지도 생성부(110)는 연기 발생 정보를 지도에 표시할 수 있다.When smoke is measured by the smoke sensor 230, the map generation unit 110 may generate smoke generation information based on coordinates at the measured position, concentration of smoke, and concentration change. The map generator 110 may display smoke generation information on the map.

연기 발생 정보는 연기 발생 지역, 연기 농도 및 연기의 진행 방향 중 적어도 하나 이상을 포함할 수 있다. 연기 발생 지역은 연기가 측정된 위치에서의 식별 값을 포함할 수 있다. 연기의 농도는 연기 센서(230)에서 측정된 연기의 농도를 포함할 수 있다. 연기의 진행 방향은 연기의 농도 변화를 이용하여 산출될 수 있다. The smoke generation information may include at least one of a smoke generation area, a smoke concentration, and a direction in which the smoke moves. The smoke generating area may include an identification value at a position where smoke is measured. The concentration of smoke may include the concentration of smoke measured by the smoke sensor 230. The direction of the smoke can be calculated using the change in the concentration of the smoke.

예를 들어, 화재 대피 유도 로봇이 복도 A를 제1 방향으로 주행하면서 측정한 연기 농도가 증가하는 경우, 연기 발생 지역은 복도 A에 대한 식별 값을 포함할 수 있다. 연기의 진행 방향은 제1 방향에 반대되는 제2 방향을 포함할 수 있다. 연기의 농도는 복도 A에 대한 최저 및 최고 값을 포함할 수 있다. 또는, 연기의 농도는 복도 A에 대한 평균값을 포함할 수 있다. For example, when the smoke evacuation inducing robot increases the smoke concentration measured while driving the corridor A in the first direction, the smoke generating area may include an identification value for the corridor A. The direction of movement of the smoke may include a second direction opposite to the first direction. The concentration of smoke can include the lowest and highest values for hallway A. Alternatively, the concentration of smoke may include an average value for corridor A.

경로 탐색부(120)는 지도 생성부(110)에서 생성된 지도를 이용하여 경로를 탐색할 수 있다. 경로 탐색부(120)는 경로 탐색을 위해 A 스타 알고리즘, D 스타 알고리즘, 다익스트라 알고리즘(Dijkstra algorithm) 등의 알고리즘을 사용할 수 있다. The route search unit 120 may search for a route using the map generated by the map generation unit 110. The route search unit 120 may use algorithms such as an A-star algorithm, a D-star algorithm, and a Dijkstra algorithm for searching the route.

경로 탐색부(120)는 운반 로봇 모드에서 물건 운반 등의 목적을 위해 입력된 좌표까지의 경로를 탐색할 수 있다. 상기 좌표의 입력은 표시부(700)에 표시된 지도 상에서 마우스를 이용하여 선택될 수 있다. 또는, 터치 스크린을 포함하는 표시부(700)에 표시된 지도 상에서 손가락으로 터치하여 선택될 수 있다.The route search unit 120 may search for a route up to the coordinates input for the purpose of carrying objects in the transportation robot mode. The input of the coordinates may be selected using a mouse on a map displayed on the display unit 700. Alternatively, it may be selected by touching with a finger on a map displayed on the display unit 700 including the touch screen.

경로 탐색부(120)는 화재 대피 모드에서 대피 경로를 탐색할 수 있다. 경로 탐색부(120)는 화재 대피 모드가 활성화되는 경우 제1 좌표를 요구조자 구조 위치로 사용할 수 있고, 제2 좌표를 대피 경로의 도착 위치로 사용할 수 있다. 다시 말해 대피 경로는 제1 좌표로부터 제2 좌표로 이동하는 경로를 포함할 수 있다.The route search unit 120 may search for an evacuation route in the fire evacuation mode. When the fire evacuation mode is activated, the route search unit 120 may use the first coordinates as a requestor rescue location, and use the second coordinates as an arrival location of the evacuation route. In other words, the evacuation route may include a route moving from the first coordinate to the second coordinate.

일 실시예에서, 경로 탐색부(120)는 현재 좌표, 제1 좌표 및 제2 좌표를 이용하여 대피 경로를 탐색할 수 있다. 경로 탐색부(120)는 안전한 대피 경로를 탐색하기 위하여 현재 좌표, 제1 좌표, 제2 좌표에 더하여 연기 발생 정보를 더 이 용하여 대피 경로를 탐색할 수 있다. 경로 탐색부(120)는 대피 경로를 탐색함에 있어서 연기 발생 지역, 연기 농도 및 연기의 진행 방향 중 적어도 하나 이상을 고려할 수 있다. 예를 들어, 경로 탐색부(120)는 연기 농도가 미리 정해진 위험 농도보다 크거나 같은 연기 발생 지역을 우회하도록 대피 경로를 탐색할 수 있다. 또는 경로 탐색부(120)는 연기의 진행 방향을 고려하여 연기 농도가 높아지는 경로를 우회하도록 대피 경로를 탐색할 수 있다. In one embodiment, the route search unit 120 may search for an evacuation route using current coordinates, first coordinates, and second coordinates. The route search unit 120 may search for an evacuation route by using smoke generation information in addition to the current coordinates, the first coordinates, and the second coordinates to search for a safe evacuation route. The route search unit 120 may consider at least one of a smoke generating area, a smoke concentration, and a direction of the smoke in searching the evacuation route. For example, the route search unit 120 may search for an evacuation route to bypass the smoke generating area where the smoke concentration is greater than or equal to a predetermined dangerous concentration. Alternatively, the route search unit 120 may search the evacuation route to bypass the route where the smoke concentration is increased in consideration of the direction of the smoke.

비상구 등 탈출 경로가 복수개 존재함에도 하나의 탈출 경로로 집중되어 화재 대피가 효율적이지 못하게 되는 것을 방지하기 위하여, 경로 탐색부(120)는 도착 지점이 적어도 하나 이상의 제2 좌표로 분산되도록 대피 경로를 탐색할 수 있다.In order to prevent fire evacuation from being effective due to concentration of a single escape route even when a plurality of escape routes such as emergency exits exist, the route search unit 120 searches the evacuation route so that the arrival point is distributed to at least one second coordinate. can do.

경로 탐색부(120)는 무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 대피 경로에 대한 탐색 기록을 서로 주고 받을 수 있다. 일 실시예에서, 다른 화재 대피 유도 로봇은 다른 층에 배치된 화재 대피 유도 로봇이거나 같은 층에 배치된 화재 대피 유도 로봇일 수 있다.The route search unit 120 may exchange communication records with other fire evacuation guidance robots connected by using wireless communication. In one embodiment, the other fire evacuation guidance robot may be a fire evacuation guidance robot disposed on another floor or a fire evacuation guidance robot disposed on the same floor.

경로 탐색부(120)는 도착 지점이 적어도 하나 이상의 제2 좌표로 분산되도록 다른 화재 대피 유도 로봇으로부터 수신한 탐색 기록을 더 이용하여 대피 경로를 탐색할 수 있다. 즉, 경로 탐색부(120)는 효율적인 대피 경로를 탐색하기 위하여 현재 좌표, 제1 좌표, 제2 좌표 및 연기 발생 정보에 더하여 다른 화재 대피 유도 로봇으로부터 수신한 탐색 기록을 더 이용하여 대피 경로를 탐색할 수 있다.The route search unit 120 may search for an evacuation route by further using a search record received from another fire evacuation guidance robot so that the arrival point is distributed to at least one or more second coordinates. That is, the route search unit 120 searches the evacuation route using the search records received from other fire evacuation guidance robots in addition to the current coordinates, the first coordinates, the second coordinates, and smoke generation information in order to search for an efficient evacuation route. can do.

구체적으로, 탐색 기록은 화재 대피 유도 로봇이 여태까지 탐색한 대피 경로를 포함할 수 있다. 경로 탐색부(120)는 탐색 기록을 통해 각 비상구별 대피 횟수를 산출할 수 있고, 각 비상구별 대피 횟수를 기초로 각 비상구에 대한 혼잡도를 산출할 수 있다. 결과적으로, 경로 탐색부(120)는 각 비상구별 혼잡도를 기초로 도착 지점이 적어도 하나 이상의 제2 좌표로 분산되도록 대피 경로를 탐색할 수 있다.Specifically, the search record may include an evacuation route that the fire evacuation guidance robot has searched so far. The route search unit 120 may calculate evacuation times for each emergency exit through the search record, and calculate congestion for each emergency exit based on the evacuation times for each emergency exit. As a result, the route search unit 120 may search the evacuation route such that the arrival point is distributed to at least one second coordinate based on the congestion level of each emergency exit.

경로 탐색부(120)는 무선 통신을 이용하여 연결된 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 대피 경로가 제3 좌표로부터 제2 좌표로 이동하는 경로를 포함하도록 경로를 탐색할 수 있다. 예를 들어, 경로 탐색부(120)는 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 현재 위치로부터 제3 좌표를 경유하여 제2 좌표로 이동하는 대피 경로를 탐색할 수 있다.The route search unit 120 may search for a route so that the evacuation route includes a route from the third coordinate to the second coordinate when the third coordinate is transmitted from the connected remote control device using wireless communication. For example, when receiving the third coordinates from the remote control device, the route search unit 120 may search for an evacuation route moving from the current location to the second coordinates via the third coordinates.

이를 통해, 제1 좌표에 포함되지 않은 다른 장소(즉, 제3 좌표)에서 요구조자가 발견되는 경우에도 원격 조종을 통해 화재 대피 유도 로봇을 요구조자가 있는 제3 좌표로 보내고 피난을 유도할 수 있다.Through this, even when the requestor is found in another place not included in the first coordinate (ie, the third coordinate), the fire evacuation guide robot can be sent to the third coordinate where the requestor is located through remote control to induce evacuation.

영상 처리부(130)는 영상 촬영 장치(300)를 이용하여 획득한 주변 이미지를 분석할 수 있다. 영상 처리부(130)는 이미지를 분석하여 사람, 비상구, 소화전 등을 식별할 수 있으나 이에 한정되는 것은 아니다. 영상 처리부(130)는 이미지 분석 결과를 지도 생성부(110)로 전달할 수 있다. The image processing unit 130 may analyze the surrounding image acquired using the image photographing apparatus 300. The image processing unit 130 may identify a person, an emergency exit, and a fire hydrant by analyzing an image, but is not limited thereto. The image processing unit 130 may transmit the image analysis results to the map generation unit 110.

주행 제어부(140)는 자율주행을 위해 모터(610), 모터 드라이버(620) 및 모터 엔코더(630)를 제어할 수 있다. 주행 제어부(140)는 모터 엔코더(630)에서 측정한 바퀴의 회전수를 피드백(feedback) 받아 모터(610)의 속도를 PID(Proportional Integral Derivative) 제어할 수 있다. The driving control unit 140 may control the motor 610, the motor driver 620, and the motor encoder 630 for autonomous driving. The driving control unit 140 may receive a feedback of the number of revolutions of the wheel measured by the motor encoder 630 and control the speed of the motor 610 (Proportional Integral Derivative).

주행 제어부(140)는 관성 측정 장치(400)를 이용하여 화재 대피 유도 로봇의 자세 및 이동거리를 측정할 수 있다. 주행 제어부(140)는 주행 중 센서 퓨징(Senser Fusing)을 이용해 물체 또는 사람을 인식하고, 이를 회피하도록 주행을 제어할 수 있다.The driving control unit 140 may measure the posture and the moving distance of the fire evacuation guidance robot using the inertial measurement device 400. The driving control unit 140 may recognize an object or a person by using sensor fusing while driving, and control driving to avoid it.

여기서, 센서 퓨징(Senser Fusing)이란, 단일 센서 사용의 한계를 극복하고자 복수의 센서로부터 측정된 데이터를 융합하여 측정의 정확도를 향상시키는 기술을 의미한다.Here, the sensor fusing (Senser Fusing) refers to a technology that improves the accuracy of measurement by fusing data measured from a plurality of sensors to overcome the limitations of using a single sensor.

일 실시예에서, 주행 제어부(140)는 라이다 센서(210), 초음파 센서(220) 및 영상 촬영 장치(300)를 통해 측정 또는 획득한 데이터를 기초로 장애물을 인식하고, 장애물까지의 거리를 측정할 수 있다. In one embodiment, the driving control unit 140 recognizes an obstacle based on data measured or acquired through the lidar sensor 210, the ultrasonic sensor 220, and the image photographing device 300, and determines the distance to the obstacle. Can be measured.

라이다 센서(210)는 라이다(Light Detection and Ranging, LiDAR) 기술을 이용한 센서로, 레이저 스캐너가 빛을 쏘고 되돌아온 빛을 감지하여 주변에 대한 3차원 데이터를 획득할 수 있다. 라이다 센서(210)는 360도 전방향에 대한 3차원 데이터를 획득할 수 있다.The lidar sensor 210 is a sensor using LiDAR (Light Detection and Ranging, LiDAR) technology, and a laser scanner shoots light and detects the returned light to obtain 3D data about the surroundings. The lidar sensor 210 may acquire 3D data for all directions in 360 degrees.

초음파 센서(220)는 초음파를 이용하여 장애물을 감지하고, 장애물까지의 거리를 측정할 수 있다. The ultrasonic sensor 220 may detect an obstacle using ultrasonic waves and measure a distance to the obstacle.

연기 센서(230)는 연기의 농도를 측정할 수 있다. 예를 들어, 연기 감지기는 연기 농도에 따라 빛이 차단되는 정도 또는 빛이 산란되는 정도에 따라 가변되는 신호를 기초로 연기 농도를 측정할 수 있다. 일 실시예에서, 연기 감지기는 광전식 연기감지기를 포함할 수 있으나, 이에 한정되는 것은 아니며 연기의 농도를 감지할 수 있는 다양한 방식의 센서를 포함할 수 있다. 연기 센서(230)는 측정된 연기의 농도를 지도 생성부(110)로 전달할 수 있다.The smoke sensor 230 may measure the concentration of smoke. For example, the smoke detector may measure the smoke concentration based on a signal that varies depending on the degree of light blocking or light scattering according to the smoke concentration. In one embodiment, the smoke detector may include a photoelectric smoke detector, but is not limited thereto, and may include various types of sensors capable of detecting the concentration of smoke. The smoke sensor 230 may transmit the measured concentration of smoke to the map generator 110.

영상 촬영 장치(300)는 렌즈 및 이미지 센서로 구성된 촬영 장치이며, 화재 대피 유도 로봇의 주변을 촬영하여 주변 이미지를 획득할 수 있다. 영상 촬영 장치(300)는 무선 통신을 이용하여 연결된 원격 제어 장치로 주변 이미지를 전송할 수 있다. 원격 제어 장치는 영상 촬영 장치(300)로부터 전달받은 주변 이미지를 통해 화재 대피 유도 로봇과 시야를 공유할 수 있다. The image photographing apparatus 300 is a photographing apparatus composed of a lens and an image sensor, and may acquire a surrounding image by photographing the surroundings of a fire evacuation guidance robot. The image photographing apparatus 300 may transmit a surrounding image to a connected remote control device using wireless communication. The remote control device may share the field of view with the fire evacuation guidance robot through the surrounding image received from the image photographing device 300.

관성 측정 장치(Inertial Measurement Unit, IMU)(400)는 움직이는 물체의 관성을 측정하여 화재 대피 유도 로봇의 자세와 이동거리를 계산할 수 있다. 관성 측정 장치(400)는 가속도를 측정할 수 있는 가속도계, 회전 관성을 측정할 수 있는 자이로스코프(Gyroscope) 및 방위각을 측정할 수 있는 자기력계를 포함할 수 있다.The inertial measurement unit (IMU) 400 may measure the inertia of a moving object to calculate the posture and distance of a fire evacuation induction robot. The inertial measurement device 400 may include an accelerometer capable of measuring acceleration, a gyroscope capable of measuring rotational inertia, and a magnetometer capable of measuring azimuth.

통신부(500)는 무선 통신을 통해 다른 화재 대피 유도 로봇 또는 원격 제어 장치와 데이터를 주고 받을 수 있다. 통신부(500)는 무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 대피 경로에 대한 탐색 기록을 서로 주고 받을 수 있다. 통신부(500)는 무선 통신을 이용하여 연결된 원격 제어 장치로 주변 이미지를 전송할 수 있다.The communication unit 500 may exchange data with other fire evacuation guidance robots or remote control devices through wireless communication. The communication unit 500 may exchange search records for evacuation routes with other fire evacuation guidance robots connected using wireless communication. The communication unit 500 may transmit a surrounding image to a connected remote control device using wireless communication.

이동수단(600)은 바퀴를 회전시키기 위한 모터(610), 모터(610)의 방향과 속도를 제어하기 위한 모터 드라이버(620) 및 바퀴의 회전수를 측정하기 위한 모터 엔코더(630)를 포함할 수 있다.The moving means 600 includes a motor 610 for rotating the wheel, a motor driver 620 for controlling the direction and speed of the motor 610, and a motor encoder 630 for measuring the number of revolutions of the wheel. Can.

표시부(700)는 지도 생성부(110)에서 생성된 지도, 경로 탐색부(120)에서 탐색된 경로, 영상 촬영 장치(300)에서 촬영된 주변 이미지 중 적어도 하나 이상을 표시할 수 있다. 표시부(700)는 액정 표시 장치(Liquid Crystal Display; LCD), 유기 발광 장치(Organic Light Emitting Display; OLED), 전기 영동 표시 장치(Electro Phoretic Display; EPD), 플라즈마 표시 패널(Plasma Display Panel; PDP) 등의 디스플레이 장치 또는 디스플레이 장치를 포함하는 컴퓨터일 수 있다. 또한, 표시부(700)는 물리적 버튼, 터치 스크린 등을 이용하여 사용자로부터 데이터를 입력 받는 입력부와 일체형으로 구현될 수 있다.The display unit 700 may display at least one of a map generated by the map generation unit 110, a route searched by the route search unit 120, and a surrounding image captured by the image photographing device 300. The display unit 700 includes a liquid crystal display (LCD), an organic light emitting display (OLED), an electrophoretic display (EPD), and a plasma display panel (PDP) It may be a display device such as or a computer including a display device. In addition, the display unit 700 may be implemented integrally with an input unit that receives data from a user using a physical button, a touch screen, or the like.

경광등(800)은 어두운 상황에서 화재 대피 유도 로봇의 위치를 쉽게 파악할 수 있도록 단속적으로 빛을 발산하는 광원을 포함할 수 있다. 경광등(800)의 광원은 전력 소비가 낮은 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 경광등(800)은 컬러 필터를 포함할 수 있다. 예를 들어, 광원에서 발산된 빛이 붉은색 컬러 필터를 통과하면서 붉은색 빛으로 변경될 수 있다.The warning light 800 may include a light source that intermittently emits light so that the position of the fire evacuation induction robot can be easily determined in a dark situation. The light source of the warning light 800 may include a light emitting diode (LED) having low power consumption. The beacon 800 may include a color filter. For example, light emitted from the light source may be changed to red light while passing through the red color filter.

운반수단(900)은 물건을 적재할 수 있다. 운반수단(900)은 라이다 센서(210)의 360도 전방위 측정을 방해하지 않기 위하여 운반수단(900)의 하부에 위치할 수 있다.The transport means 900 can load objects. The conveying means 900 may be located below the conveying means 900 so as not to interfere with the 360 degree omnidirectional measurement of the lidar sensor 210.

운반수단(900)은 물건이 적재되어 있는지 여부를 확인할 수 있는 근접 센서를 더 포함할 수 있다. 운반수단(900)은 적재된 물건에 부착된 RFID 태그, NFC 태그 등으로부터 정보를 획득할 수 있는 RFID 통신 모듈 및 NFC 통신 모듈 중 적어도 하나 이상을 더 포함할 수 있다. 일 실시예에서, 운반수단(900)은 적재된 물건에 부착된 RFID 태그 또는 NFC 태그로부터 도착지 좌표를 획득할 수 있고, 획득한 도착지 좌표를 경로 탐색부(120)로 전달할 수 있다. 경로 탐색부(120)는 적재된 물건에 부착된 RFID 태그 또는 NFC 태그로부터 획득한 도착지 좌표까지의 경로를 탐색할 수 있다. The transport means 900 may further include a proximity sensor capable of confirming whether an object is loaded. The transport means 900 may further include at least one of an RFID communication module and an NFC communication module capable of obtaining information from an RFID tag, an NFC tag, etc., attached to the loaded object. In one embodiment, the transport means 900 may obtain the destination coordinates from the RFID tag or NFC tag attached to the loaded object, and may transmit the obtained destination coordinates to the route search unit 120. The route search unit 120 may search for a route from the RFID tag or NFC tag attached to the loaded object to the destination coordinates.

도 3은 본 발명의 일 실시예에 따른 화재 대피 유도로봇의 제어 방법을 설명하기 위한 순서도이다.3 is a flow chart for explaining a control method of a fire evacuation guided robot according to an embodiment of the present invention.

도 3을 참조하면, 화재 대피 유도 로봇은 평상시에는 운반 로봇 모드로 작동할 수 있다(S100). 화재 대피 유도 로봇은 화재 등의 재난 상황 발생시 화재 대피 모드로 전환되어 작동할 수 있다(S200). 화재 대피 모드는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신하는 경우 또는 연기 센서(230)에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 활성화될 수 있다.Referring to FIG. 3, the fire evacuation induction robot may operate in a transport robot mode at normal times (S100). The fire evacuation induction robot may operate by switching to a fire evacuation mode when a disaster situation such as a fire occurs (S200). The fire evacuation mode may be activated when a fire alarm signal is received from a fire alarm installed in a building or when the concentration of smoke measured by the smoke sensor 230 is greater than or equal to a predetermined reference value.

화재 대피 모드가 활성화 되는 경우, 화재 대피 유도 로봇은 경로 탐색부(120)를 통해 대피 경로를 탐색하고, 자체 탐지를 통해 저장하고 있는 제1 좌표 또는 무선 통신을 이용하여 연결된 원격 제어 장치로부터 전달받은 제3 좌표를 이용하여 요구조자가 있는 구조 위치로 이동 후 대피로까지 유도할 수 있다(S300).When the fire evacuation mode is activated, the fire evacuation guidance robot searches the evacuation route through the route search unit 120 and receives the first coordinates stored through self-detection or received from a connected remote control device using wireless communication. The third coordinate may be used to move to a rescue location with a requesting assistant and lead to an evacuation route (S300).

화재 대피 유도 로봇은 요구조자를 대피로까지 유도한 후 대피하지 못한 요구조자가 남아있는 경우 S300 단계를 반복할 수 있다. 이 경우, 남아있는 요구조자 위치를 기초로 구조위치를 갱신할 수 있다(S500).The fire evacuation induction robot may repeat the step S300 when the request assistance is left after evacuating the request assistance to the evacuation route. In this case, the structural position may be updated based on the remaining requestor position (S500).

요구조자 위치는 자체 탐지를 통해 저장하고 있는 제1 좌표 또는 무선 통신을 이용하여 연결된 원격 제어 장치로부터 전달받은 제3 좌표를 이용하여 갱신될 수 있다.The requestor location can be updated using the first coordinates stored through self-detection or the third coordinates received from the remote control device connected using wireless communication.

이상에서 설명한 바와 같이, 본 발명에 따른 화재 대피 유도 로봇은 평상시에는 건물 내부를 자율 주행하며 물건을 운반하는 기능을 수행하다가 화재 발생시 별도의 투입 없이 곧바로 화재 대피 유도 로봇으로 기능할 수 있어 신속하게 반응할 수 있다.As described above, the fire evacuation induction robot according to the present invention performs a function of autonomous driving inside the building and transports objects during normal times, and when a fire occurs, it can function as a fire evacuation induction robot without any additional input and reacts quickly. can do.

또한, 본 발명에 따른 화재 대피 유도 로봇은 건물 내부에 존재하는 사람들의 위치를 파악하고 있어 화재 발생시 요구조자들이 있는 구조 위치로 신속하게 접근할 수 있고, 요구조자들의 대피를 유도할 수 있다.In addition, the fire evacuation induction robot according to the present invention can grasp the location of people present inside the building, so that when a fire occurs, it is possible to quickly approach the rescue location where there are request aids and to induce evacuation of the request aids.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 시시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호 범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention described above has been described with reference to the embodiments shown in the drawings, but this is merely exemplary, and those skilled in the art will understand that various modifications and variations of the examples are possible. However, it should be considered that such modifications are within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 제어부 110: 지도 생성부
120: 경로 탐색부 130: 영상 처리부
140: 주행 제어부 210: 라이다 센서
220: 초음파 센서 230: 연기 센서
300: 영상 촬영 장치 400: 관성 측정 장치
500: 통신부 600: 이동수단
700: 표시부 800: 경광등
900: 운반수단
100: control unit 110: map generation unit
120: path search unit 130: image processing unit
140: driving control unit 210: lidar sensor
220: ultrasonic sensor 230: smoke sensor
300: imaging device 400: inertial measurement device
500: communication unit 600: means of transportation
700: display unit 800: warning light
900: means of transport

Claims (18)

SLAM(Simultaneous Localization And Mapping) 알고리즘을 이용하여 지도를 생성하고, 생성된 지도를 기준으로 현재 좌표를 측정하는 지도 생성부;
상기 지도를 이용하여 경로를 탐색하는 경로 탐색부;
주변 이미지를 획득하는 영상촬영 장치; 및
이동수단을 포함하되,
운반 로봇 모드에서는 건물 내부를 이동하며 상기 지도 생성부가 상기 지도를 생성하고, 상기 영상촬영 장치를 통해 획득한 주변 이미지를 분석하여 사람이 식별되면 제1 좌표를 저장하며, 비상구가 식별되면 제2 좌표를 저장하고,
화재 대피 모드에서는 상기 경로 탐색부가 상기 현재 좌표, 상기 제1 좌표 및 상기 제2 좌표를 이용하여 대피 경로를 탐색하고 상기 대피 경로를 따라 이동하는 화재 대피 유도 로봇.
A map generator that generates a map using a SLAM (Simultaneous Localization And Mapping) algorithm and measures current coordinates based on the generated map;
A route search unit for searching a route using the map;
An image capturing apparatus for acquiring surrounding images; And
Including transportation,
In the transport robot mode, the interior of the building moves, and the map generation unit generates the map, analyzes the surrounding image acquired through the imaging device, stores first coordinates when a person is identified, and second coordinates when an emergency exit is identified. Save it,
In the fire evacuation mode, the fire evacuation guide robot moves the route search unit to search for an evacuation route using the current coordinates, the first coordinates, and the second coordinates, and moves along the evacuation route.
제1항에 있어서,
주변에 대한 3차원 데이터를 획득하는 라이다 센서를 더 포함하고,
상기 SLAM 알고리즘은 상기 라이다 센서를 통해 획득된 3차원 데이터를 이용하는 것을 특징으로 하는, 화재 대피 유도 로봇.
According to claim 1,
Further comprising a lidar sensor for obtaining three-dimensional data about the surroundings,
The SLAM algorithm is characterized in that using the three-dimensional data obtained through the lidar sensor, fire evacuation guidance robot.
제1항에 있어서,
연기의 농도를 측정하는 연기 센서를 더 포함하고,
상기 지도 생성부는 상기 연기의 농도 및 상기 현재 좌표를 이용하여 연기 발생 정보를 생성하며,
상기 연기 발생 정보는 연기 발생 지역, 연기 농도 및 연기 진행 방향 중 적어도 하나 이상을 포함하는 것을 특징으로 하는, 화재 대피 유도 로봇.
According to claim 1,
Further comprising a smoke sensor for measuring the concentration of smoke,
The map generation unit generates smoke generation information using the concentration of the smoke and the current coordinates,
The smoke generation information, it characterized in that it includes at least one of the smoke generation area, smoke concentration and the direction of the smoke, fire evacuation guidance robot.
제3항에 있어서, 상기 경로 탐색부는
상기 연기 발생 정보를 더 이용하여 상기 대피 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇.
The method of claim 3, wherein the route search unit
And evacuating the evacuation route using the smoke generation information.
제3항에 있어서, 상기 화재 대피 모드는
상기 연기 센서에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 또는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신한 경우 활성화되는 것을 특징으로 하는, 화재 대피 유도 로봇.
The method of claim 3, wherein the fire evacuation mode
It is activated when the concentration of smoke measured by the smoke sensor is greater than or equal to a predetermined reference value or when a fire alarm signal is received from a fire alarm installed in a building, a fire evacuation induction robot.
제1항에 있어서, 상기 경로 탐색부는
무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 상기 대피 경로에 대한 탐색 기록을 서로 주고 받을 수 있으며, 도착 지점이 적어도 하나 이상의 상기 제2 좌표로 분산되도록 상기 탐색 기록을 더 이용하여 상기 대피 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇.
The method of claim 1, wherein the route search unit
The evacuation route can be further exchanged with other fire evacuation guidance robots connected by using wireless communication, so that the evacuation route for the evacuation route can be exchanged with the at least one second coordinate. Fire evacuation guidance robot, characterized in that the navigation.
제1항에 있어서, 상기 경로 탐색부는
상기 화재 대피 모드에서 무선 통신을 이용하여 연결된 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 상기 대피 경로가 상기 제3 좌표로부터 상기 제2 좌표로 이동하는 경로를 포함하도록 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇.
The method of claim 1, wherein the route search unit
When receiving a third coordinate from a remote control device connected using wireless communication in the fire evacuation mode, it is characterized in that the route is searched to include a route from the third coordinate to the second coordinate. A, fire evacuation induction robot.
제7항에 있어서, 상기 영상촬영 장치는
상기 원격 제어 장치로 상기 주변 이미지를 전송하는 것을 특징으로 하는, 화재 대피 유도 로봇.
The method of claim 7, wherein the imaging device
A fire evacuation induction robot, characterized in that the surrounding image is transmitted to the remote control device.
제1항에 있어서,
물건을 적재할 수 있는 운반수단을 더 포함하는 것을 특징으로 하는, 화재 대피 유도 로봇.
According to claim 1,
It characterized in that it further comprises a transport means for loading the goods, fire evacuation guided robot.
운반 로봇 모드 및 화재 대피 모드를 포함하는 화재 대피 유도 로봇의 제어 방법에 있어서,
상기 운반 로봇 모드는
건물 내부를 이동하며 SLAM(Simultaneous Localization And Mapping) 알고리즘을 이용하여 지도를 생성하고, 생성된 지도를 기준으로 현재 좌표를 측정하는 지도 생성 단계; 및
영상촬영 장치를 통해 획득한 주변 이미지를 분석하여 사람이 식별되면 제1 좌표를 저장하고, 비상구가 식별되면 제2 좌표를 저장하는 단계를 포함하고,
상기 화재 대피 모드는
상기 현재 좌표, 상기 제1 좌표 및 상기 제2 좌표를 이용하여 대피 경로를 탐색하는 단계; 및
상기 대피 경로를 따라 이동하는 단계를 포함하는, 화재 대피 유도 로봇의 제어 방법.
In the control method of the fire evacuation guidance robot, including a transport robot mode and a fire evacuation mode,
The transport robot mode
A map generation step of moving a building and generating a map using a SLAM (Simultaneous Localization And Mapping) algorithm, and measuring current coordinates based on the generated map; And
Analyzing the surrounding image acquired through the imaging device to store the first coordinates when a person is identified, and storing the second coordinates when an emergency exit is identified,
The fire evacuation mode is
Searching for an evacuation route using the current coordinates, the first coordinates, and the second coordinates; And
And moving along the evacuation route.
제10항에 있어서, 상기 SLAM 알고리즘은
라이다 센서를 통해 획득된 3차원 데이터를 이용하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 10, wherein the SLAM algorithm
Characterized in that using the three-dimensional data obtained through the lidar sensor, a fire evacuation guidance robot control method.
제10항에 있어서, 상기 화재 대피 모드는
연기 센서에서 측정된 연기의 농도 및 상기 현재 좌표를 이용하여 연기 발생 정보를 생성하는 단계를 더 포함하고,
상기 연기 발생 정보는 연기 발생 지역, 연기 농도 및 연기 진행 방향 중 적어도 하나 이상을 포함하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 10, wherein the fire evacuation mode
Further comprising the step of generating smoke generation information using the concentration of the smoke measured by the smoke sensor and the current coordinates,
The smoke generation information, it characterized in that it comprises at least one of the smoke generation area, smoke concentration and the direction of the smoke, control method of the fire evacuation induction robot.
제12항에 있어서, 상기 대피 경로를 탐색하는 단계는
상기 연기 발생 정보를 더 이용하여 상기 대피 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 12, wherein the step of navigating the evacuation route is
And characterized in that the search for the evacuation route by further using the smoke generation information, the control method of the fire evacuation guidance robot.
제12항에 있어서, 상기 화재 대피 모드는
상기 연기 센서에서 측정된 연기의 농도가 미리 정해진 기준값 보다 크거나 같은 경우 또는 건물에 설치된 화재 경보기로부터 화재 경보 신호를 수신한 경우 활성화되는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 12, wherein the fire evacuation mode
It is characterized in that it is activated when the concentration of smoke measured by the smoke sensor is greater than or equal to a predetermined reference value or when a fire alarm signal is received from a fire alarm installed in a building, the method for controlling a fire evacuation induction robot.
제10항에 있어서, 상기 화재 대피 모드는
무선 통신을 이용하여 연결된 다른 화재 대피 유도 로봇과 상기 대피 경로에 대한 탐색 기록을 서로 주고 받는 단계를 더 포함하고,
상기 대피 경로를 탐색하는 단계는
도착 지점이 적어도 하나 이상의 상기 제2 좌표로 분산되도록 상기 탐색 기록을 더 이용하여 상기 대피 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 10, wherein the fire evacuation mode
Further comprising the step of exchanging a search record for the evacuation route with another fire evacuation guidance robot connected using a wireless communication,
The step of searching for the evacuation route is
A control method of a fire evacuation guided robot, characterized in that the evacuation route is further searched using the search record so that the arrival point is distributed to at least one of the second coordinates.
제10항에 있어서, 상기 대피 경로를 탐색하는 단계는
무선 통신을 이용하여 연결된 원격 제어 장치로부터 제3 좌표를 전달받는 경우, 상기 대피 경로가 상기 제3 좌표로부터 상기 제2 좌표로 이동하는 경로를 포함하도록 경로를 탐색하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 10, wherein the step of navigating the evacuation route is
When receiving a third coordinate from a remote control device connected by using wireless communication, the evacuation route is characterized in that the route is searched to include a route moving from the third coordinate to the second coordinate. How to control the robot.
제16항에 있어서, 상기 영상촬영 장치는
상기 원격 제어 장치로 상기 주변 이미지를 전송하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
17. The method of claim 16, The imaging device
And transmitting the surrounding image to the remote control device.
제10항에 있어서, 상기 운반 로봇 모드는
상기 현재 좌표 및 외부에서 입력된 목적지 좌표를 이용하여 운반 경로를 탐색하고, 상기 운반 경로를 따라 운반수단에 적재된 물건을 운송하는 단계를 더 포함하는 것을 특징으로 하는, 화재 대피 유도 로봇의 제어 방법.
The method of claim 10, wherein the transport robot mode
And searching for a transportation route using the current coordinates and a destination coordinate input from the outside, and transporting the object loaded on the transportation means along the transportation route. .
KR1020180165924A 2018-12-20 2018-12-20 Emergency evacuation guidance robot and method of controlling the same KR20200084382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180165924A KR20200084382A (en) 2018-12-20 2018-12-20 Emergency evacuation guidance robot and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180165924A KR20200084382A (en) 2018-12-20 2018-12-20 Emergency evacuation guidance robot and method of controlling the same

Publications (1)

Publication Number Publication Date
KR20200084382A true KR20200084382A (en) 2020-07-13

Family

ID=71570770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180165924A KR20200084382A (en) 2018-12-20 2018-12-20 Emergency evacuation guidance robot and method of controlling the same

Country Status (1)

Country Link
KR (1) KR20200084382A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102382220B1 (en) * 2020-10-29 2022-04-04 주식회사 트리톤넷 Carrier type apparatus for the detecting and alarming the harmful gas
CN114364102A (en) * 2021-12-22 2022-04-15 无锡轻大建筑设计研究院有限公司 Emergency lighting system for building
KR20220117102A (en) 2021-02-15 2022-08-23 동신대학교산학협력단 System and method for guiding of evacuation route
WO2023027238A1 (en) * 2021-08-24 2023-03-02 Lg Electronics Inc. Delivery system
KR102647612B1 (en) * 2023-11-13 2024-03-14 주식회사 코너스 Robot for guiding an evacuation route for persons in the space in the event of emergency and method for controlling the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102382220B1 (en) * 2020-10-29 2022-04-04 주식회사 트리톤넷 Carrier type apparatus for the detecting and alarming the harmful gas
KR20220117102A (en) 2021-02-15 2022-08-23 동신대학교산학협력단 System and method for guiding of evacuation route
WO2023027238A1 (en) * 2021-08-24 2023-03-02 Lg Electronics Inc. Delivery system
CN114364102A (en) * 2021-12-22 2022-04-15 无锡轻大建筑设计研究院有限公司 Emergency lighting system for building
CN114364102B (en) * 2021-12-22 2023-12-05 无锡轻大建筑设计研究院有限公司 Emergency lighting system for building
KR102647612B1 (en) * 2023-11-13 2024-03-14 주식회사 코너스 Robot for guiding an evacuation route for persons in the space in the event of emergency and method for controlling the same

Similar Documents

Publication Publication Date Title
KR20200084382A (en) Emergency evacuation guidance robot and method of controlling the same
US9875648B2 (en) Methods and systems for reducing false alarms in a robotic device by sensor fusion
Fischer et al. Location and navigation support for emergency responders: A survey
US8355818B2 (en) Robots, systems, and methods for hazard evaluation and visualization
Li et al. ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind
US7450024B2 (en) Article locating and tracking apparatus and method
US8990049B2 (en) Building structure discovery and display from various data artifacts at scene
US9235216B2 (en) Running information generating apparatus of autonomous running apparatus, running information generating method, running information generating program, and autonomous running apparatus
JP2020509500A (en) Control method of autonomous mobile robot
US9462423B1 (en) Qualitative and quantitative sensor fusion for indoor navigation
Elloumi et al. Indoor navigation assistance with a Smartphone camera based on vanishing points
Fusco et al. Indoor localization for visually impaired travelers using computer vision on a smartphone
Zhang et al. A slam based semantic indoor navigation system for visually impaired users
Zhang et al. An indoor navigation aid for the visually impaired
US11693412B2 (en) Method and device for navigating in dynamic environment
KR102504330B1 (en) Realtime Evacuation Guidance System
Kuribayashi et al. Corridor-Walker: Mobile indoor walking assistance for blind people to avoid obstacles and recognize intersections
KR102163462B1 (en) Path-finding Robot and Mapping Method Using It
US20230236017A1 (en) Personal protective equipment for navigation and map generation within a visually obscured environment
Freeman et al. Wireless integrated robots for effective search and guidance of rescue teams
US20230384114A1 (en) Personal protective equipment for navigation and map generation within a visually obscured environment
JP2019078617A (en) Mobility device and method of environment sensing in mobility device
KR102408327B1 (en) AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales
JP2022125493A (en) Mobile robot, conveyance system, method, and program
JP6670682B2 (en) Position detection method and position detection system

Legal Events

Date Code Title Description
E601 Decision to refuse application