KR20180040255A - Airport robot - Google Patents

Airport robot Download PDF

Info

Publication number
KR20180040255A
KR20180040255A KR1020160131895A KR20160131895A KR20180040255A KR 20180040255 A KR20180040255 A KR 20180040255A KR 1020160131895 A KR1020160131895 A KR 1020160131895A KR 20160131895 A KR20160131895 A KR 20160131895A KR 20180040255 A KR20180040255 A KR 20180040255A
Authority
KR
South Korea
Prior art keywords
airport
person
specific
unit
monitoring
Prior art date
Application number
KR1020160131895A
Other languages
Korean (ko)
Inventor
윤유술
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160131895A priority Critical patent/KR20180040255A/en
Publication of KR20180040255A publication Critical patent/KR20180040255A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators

Abstract

An embodiment of the present invention provides an airport robot, comprising: an object recognition portion for recognizing people in a surrounding image filmed during operation of a guidance service mode; a character confirmation portion for confirming whether a predicted dangerous character matched to a set danger monitoring condition among the people presents; and a control portion for converting the guidance service mode into a monitoring mode if the predicted dangerous character presents, and controlling the object recognition portion for monitoring the predicted dangerous character.

Description

공항 로봇{AIRPORT ROBOT}Airport Robot {AIRPORT ROBOT}

실시 예는 공항 로봇에 관한 것으로서, 더욱 상세하게는 공항 내에 위치한 위험 인물을 감시하기 용이한 공항 로봇에 관한 것이다.The present invention relates to an airport robot, and more particularly, to an airport robot that is easy to monitor a dangerous person located in an airport.

최근 공항과 같은 공공 장소에서 이용자들에게 각종 서비스를 보다 효과적으로 제공하기 위하여, 로봇 등의 도입이 논의되고 있다. 이용자들은 공항에 배치된 로봇을 통해 공항 내 길 안내 서비스, 탑승 정보 안내 서비스, 기타 멀티미디어 컨텐츠 제공 서비스 등과 같은 각종 서비스를 이용할 수 있다.Recently, the introduction of robots and the like has been discussed in order to provide users with various services more effectively in a public place such as an airport. Users can use various services such as airport guidance service, boarding information guidance service, and other multimedia contents provision service through the robot arranged at the airport.

그러나, 로봇과 같은 첨단 기기의 경우 단가가 높을 수 밖에 없으므로, 공항 내에 배치되는 공항 로봇의 수는 한정될 수 있다. 따라서, 한정된 수의 공항 로봇을 이용한 보다 효율적인 서비스 제공 방안이 요구될 수 있다.However, in the case of advanced equipment such as a robot, the unit price is high, so the number of airport robots placed in the airport can be limited. Therefore, a more efficient service provision scheme using a limited number of airport robots may be required.

최근 들어, 공항 내에서 발생되는 범죄에 대하여, 공항을 이용하는 다수의 사람들 중 위험 인물, 예를 들면 테러리스트, 범죄자 또는 범죄 예상 대상자를 추출하여, 공항 내에서 발생 될 범죄를 미연에 방지하기 위한 서비스를 제공하기 위한 연구가 진행 중에 있다.In recent years, we have developed a service to detect dangerous persons, for example, terrorists, criminals or persons who are expected to be crime, among a large number of people using airports in order to prevent crimes in the airport Research is underway.

실시 예의 목적은, 공항 내에 위치한 사람들 중 설정된 이전 위험 인물의 행동 정보에 대응하는 위험 인물의 존재를 확인할 수 있는 공항 로봇을 제공함에 있다.The object of the embodiment is to provide an airport robot capable of confirming the presence of a dangerous person corresponding to behavior information of a previous dangerous person set among the people located in an airport.

실시 예의 다른 목적은, 위험 인물의 존재 확인 시, 위험 인물의 위치 좌표를 기반으로 생성한 경로 정보를 다른 공항 로봇들 및 공항 모니터링 시스템 중 적어도 하나로 전송하여 위험 인물의 이동 중 감시할 수 있는 공항 로봇을 제공함에 있다.Another object of the present invention is to provide an airport robot capable of monitoring the movement of a dangerous person by transmitting route information generated based on position coordinates of a dangerous person to at least one of other airport robots and an airport monitoring system when confirming the presence of a dangerous person .

실시 예의 또 다른 목적은, 다른 공항 로봇 및 공항 모니터링 시스템 중 적어도 하나로부터 경로 정보 수신 시, 위험 인물이 확인되면 위험 인물을 감시할 수 있는 공항 로봇을 제공함에 있다.Another object of the present invention is to provide an airport robot capable of monitoring a dangerous person when a dangerous person is identified when receiving route information from at least one of other airport robots and airport monitoring systems.

실시 예에 따른 공항 로봇은, 안내 서비스 모드 동작 중 촬영한 주변의 영상에서 사람들을 인식하는 사물 인식부, 상기 사람들 중 설정된 위험 감시 조건에 매칭되는 예상 위험 인물이 존재하는지 확인하는 인물 확인부 및 상기 예상 위험 인물이 존재하면 상기 안내 서비스 모드를 감시 모드로 전환하고, 상기 예상 위험 인물을 감시하기 위해 상기 사물 인식부를 제어하는 제어부를 포함할 수 있다.An airport robot according to an embodiment of the present invention includes an object recognizing unit for recognizing people in a surrounding image photographed during a guiding service mode operation, a person identifying unit for confirming whether there is a predicted risk person matched with the risk monitoring condition set among the people, And a control unit for switching the guidance service mode to the monitoring mode when there is a predicted danger person and controlling the object recognition unit to monitor the predicted danger person.

실시 예에 따른 공항 로봇은, 다른 공항 로봇들 및 공항 모니터링 시스템과 통신하는 통신부를 더 포함하고, 상기 제어부는, 상기 예상 위험 인물이 존재하면 상기 사물 인식부를 제어하여 상기 예상 위험 인물에 대한 특정 영상을 전달받아, 상기 예상 위험 인물의 행동정보를 취득하는 정보 취득부, 상기 행동정보를 기반으로, 상기 예상 위험 인물이 위험 인물인지 판단하는 위험 판단부 및 상기 예상 위험 인물이 존재하면 상기 안내 서비스 모드를 상기 감시 모드로 전환하고, 상기 예상 위험 인물이 상기 위험 인물로 판단되면 상기 행동정보가 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 전송되게 상기 통신부를 제어하는 구동 제어부를 포함할 수 있다.The airport robot according to the embodiment may further include a communication unit for communicating with other airport robots and an airport monitoring system, and the control unit may control the object recognition unit to detect a specific image of the expected dangerous person A risk judging unit for judging whether the predicted risk person is a risk person based on the behavior information and a risk judging unit for judging whether the predicted risk person is a risk person, And a drive control unit for controlling the communication unit to transmit the behavior information to at least one of the other airport robots and the airport monitoring system when the predicted dangerous person is determined to be the dangerous person .

실시 예에 따른 공항 로봇은, 상기 통신부가 상기 특정 공항 로봇으로부터 전송된 특정 경로 정보를 수신하고, 상기 구동 제어부는, 상기 감시 대기 모드에서 상기 감시 모드로 전환하고, 상기 특정 행동정보에 포함된 특정 예상 위험 인물의 이미지를 추출하고, 상기 특정 경로 정보에 포함된 특정 예상 이동 경로 및 특정 도주 가능 경로 중 적어도 하나에 위치하면, 상기 사물인식부를 제어하여 촬영한 특정 영상에서 상기 특정 예상 위험 인물의 이미지에 매칭되는 상기 특정 예상 위험 인물을 감시할 수 있다.In the airport robot according to the embodiment, the communication unit receives the specific route information transmitted from the specific airport robot, and the drive control unit switches from the monitoring standby mode to the monitoring mode, When the image of the predicted dangerous person is located in at least one of a specific anticipated travel route and a specific escapable route included in the specific route information, The specific expected risk person matched to the specific expected risk person.

실시 예에 따른 공항 로봇은, 공항 내에 위치한 사람들 중 위험 인물로 판단되는 위험 예상 인물을 감시함으로써, 공항 내에서 발생될 범죄를 미연에 방지할 수 있고, 범죄를 방지함으로써 공항을 이용하는 이용자들의 안전 및 편의성을 확보할 수 있는 이점이 있다.The airport robot according to the embodiment can prevent the crime that may occur in the airport by monitoring the dangerous person who is considered to be a dangerous person among the people located in the airport, There is an advantage that convenience can be secured.

또한, 실시 예에 따른 공항 로봇은, 감시 대상인 위험 예상 인물이 위치를 이동하여도, 다른 공항 로봇 및 공항 감시 시스템 중 적어도 하나와 협업하여 위험 예상 인물을 지속적으로 감시할 수 있으므로, 범죄 확률을 낮출 수 있는 이점이 있다.In addition, the airport robot according to the embodiment can continuously monitor the dangerous person by collaborating with at least one of the other airport robots and the airport monitoring system even if the dangerous person to be monitored moves, thereby lowering the probability of crime There is an advantage to be able to.

또한, 실시 예에 따른 공항 로봇은, 다른 공항 로봇 및 공항 감시 시스템 중 적어도 하나로부터 경로 정보를 수신하면, 경로 정보에 부합되는 위험 인물이 확인될 때 감시를 함으로써, 범죄 확률을 낮출 수 있으며 위험 인물이 다른 곳을 이동하는지 확인할 수 있는 이점이 있다.In addition, when the route information is received from at least one of the other airport robots and the airport surveillance system, the airport robot according to the embodiment can reduce the probability of a crime by monitoring when a dangerous person matching the route information is identified, There is an advantage to be able to see if you are moving around elsewhere.

도 1은 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템도이다.
도 2는 도 1에 나타낸 공항 로봇의 하드웨어 구성을 나타낸 블록도이다.
도 3은 도 2에 나타낸 공항 로봇의 마이컴 및 AP의 제어 구성을 나타낸 블록도이다.
도 4는 제1 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.
도 5 내지 도 8은 실시 예에 따른 공항 로봇의 동작에 대한 예시 동작도이다.
1 is a system diagram showing the structure of an airport robot system according to an embodiment.
2 is a block diagram showing the hardware configuration of the airport robot shown in Fig.
3 is a block diagram showing a control configuration of the microcomputer and the AP of the airport robot shown in Fig.
4 is a block diagram showing a control configuration of an airport robot according to the first embodiment.
5 to 8 are exemplary operation diagrams of an operation of the airport robot according to the embodiment.

이하, 첨부된 도면을 참조하여 실시 예에 따른 공항 로봇에 대해 상세히 설명하도록 한다.Hereinafter, an airport robot according to an embodiment will be described in detail with reference to the accompanying drawings.

도 1은 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템도이다.1 is a system diagram showing the structure of an airport robot system according to an embodiment.

도 1을 참조하면, 공항 로봇 시스템은 공항 로봇(100), 서버(300), 카메라(400), 및 이동 단말기(500)를 포함할 수 있다.Referring to FIG. 1, an airport robot system may include an airport robot 100, a server 300, a camera 400, and a mobile terminal 500.

공항 로봇(100)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.The airport robot 100 can perform patrol, guidance, cleaning, disinfection and transportation within the airport.

공항 로봇(100)은 서버(300) 또는 이동 단말기(500)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(100)은 서버(300)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(100)은 공항 내 카메라(400)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. The airport robot 100 can transmit and receive signals to / from the server 300 or the mobile terminal 500. For example, the airport robot 100 can transmit and receive signals including the server 300 and the information on the situation in the airport. In addition, the airport robot 100 can receive image information of each area of the airport from the camera 400 in the airport.

따라서, 공항 로봇(100)은 공항 로봇(100)이 촬영한 영상 정보 및 카메라(400)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링 할 수 있다.Therefore, the airport robot 100 can monitor the status of the airport by synthesizing the image information photographed by the airport robot 100 and the image information received from the camera 400.

공항 로봇(100)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(100)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. The airport robot 100 can receive commands directly from the user. For example, it is possible to directly receive a command from a user through input or voice input touching a display unit provided in the airport robot 100.

공항 로봇(100)은 사용자, 서버(300), 또는 이동 단말기(500) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.The airport robot 100 may perform operations such as patrol, guidance, and cleaning according to a command received from the user, the server 300, or the mobile terminal 500 and the like.

다음으로, 서버(300)는 공항 로봇(100), 카메라(400), 및/또는 이동 단말기(500)로부터 정보를 수신할 수 있다. 서버(300)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(300)는 저장된 정보들을 공항 로봇(100) 또는 이동 단말기(500)에 전송할 수 있다. 또한, 서버(300)는 공항에 배치된 복수의 공항 로봇(100)들 각각에 대한 명령 신호를 전송할 수 있다.Next, the server 300 can receive information from the airport robot 100, the camera 400, and / or the mobile terminal 500. [ The server 300 may collectively store and manage information received from each of the devices. The server 300 may transmit the stored information to the airport robot 100 or the mobile terminal 500. In addition, the server 300 may transmit a command signal to each of a plurality of airport robots 100 disposed at an airport.

카메라(400)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(400)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(400)는 촬영된 영상을 서버(300) 또는 공항 로봇(100)에 전송할 수 있다.The camera 400 may include a camera installed in the airport. For example, the camera 400 may include a plurality of closed circuit television (CCTV) cameras installed in an airport, an infrared heat sensing camera, and the like. The camera 400 may transmit the photographed image to the server 300 or the airport robot 100.

이동 단말기(500)는 공항 내 서버(300)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(500)는 서버(300)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. The mobile terminal 500 can exchange data with the server 300 in the airport. For example, the mobile terminal 500 may receive airport-related data such as flight time schedules, airport maps, etc. from the server 300.

사용자는 이동 단말기(500)를 통해 공항에서 필요한 정보를 서버(300)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(500)는 서버(300)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(300)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(300)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.The user can obtain necessary information from the server 300 through the mobile terminal 500 by receiving the information. In addition, the mobile terminal 500 can transmit data such as a photograph, a moving picture, a message, and the like to the server 300. For example, the user can request the cleaning of the corresponding area by transmitting the lost photograph to the server 300 and receiving the missing photograph, or photographing the photograph of the area requiring cleaning in the airport to the server 300.

또한, 이동 단말기(500)는 공항 로봇(100)과 데이터를 송수신할 수 있다.In addition, the mobile terminal 500 can transmit and receive data to and from the airport robot 100.

예를 들어, 이동 단말기(500)는 공항 로봇(100)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(100)으로 전송할 수 있다. 공항 로봇(100)은 이동 단말기(500)로부터 수신된 호출 신호에 응답하여 이동 단말기(500)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(100)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(500)로 전송할 수 있다.For example, the mobile terminal 500 may transmit a signal for calling the airport robot 100, a signal for requesting a specific operation, or an information request signal to the airport robot 100. The airport robot 100 may move to the position of the mobile terminal 500 or perform an operation corresponding to the command signal in response to the paging signal received from the mobile terminal 500. [ Or the airport robot 100 may transmit data corresponding to the information request signal to the mobile terminal 500 of each user.

도 2는 실시 예에 따른 공항 로봇의 하드웨어 구성을 나타낸 블록도이다.2 is a block diagram illustrating a hardware configuration of an airport robot according to an embodiment.

도 2를 참조하면, 공항 로봇의 하드웨어는 마이컴 그룹 및 AP 그룹으로 구성될 수 있다.Referring to FIG. 2, the hardware of the airport robot may include a microcomputer group and an AP group.

상기 마이컴 그룹은 마이컴(Micom, 110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)를 포함할 수 있다.The microcomputer group may include a micom 110, a power source 120, an obstacle recognition unit 130, and a driving unit 140.

마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130), 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다.The microcomputer 110 can manage a driving unit 140 including a power supply unit 120 including a battery and the like among hardware of an airport robot, an obstacle recognition unit 130 including various sensors, and a plurality of motors and wheels have.

전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. The power supply unit 120 may include a battery driver 121 and a lithium-ion battery 122.

배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전 및 방전을 관리할 수 있다. The battery driver 121 can manage the charging and discharging of the lithium-ion battery 122.

리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있으며, 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있으며, 이에 한정을 두지 않는다.The lithium-ion battery 122 may supply power for driving the airport robot, and may be constructed by connecting two 24V / 102A lithium-ion batteries in parallel, but is not limited thereto.

장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. The obstacle recognizing unit 130 may include an IR remote control receiver 131, a USS 132, a Cliff PSD 133, an ARS 134, a Bumper 135, and an OFS 136.

IR(Infrared) 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR 리모콘의 신호를 수신하는 센서를 포함할 수 있다. The infrared (IR) remote control receiver 131 may include a sensor for receiving a signal of an IR remote controller for remotely controlling the airport robot.

USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서일 수 있다.USS (Ultrasonic sensor) 132 may be a sensor for determining the distance between the obstacle and the airport robot using ultrasonic signals.

Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. The Cliff PSD 133 may include sensors for detecting cliffs or cliffs in an airport robot traveling range 360 degrees in all directions.

ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. The ARS (Attitude Reference System) 134 may include a sensor capable of detecting the attitude of the airport robot. The ARS 134 may include a sensor consisting of three axes of acceleration and three axes of acceleration for detecting the amount of rotation of the airport robot.

Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. The bumper 135 may include a sensor that detects a collision between the airport robot and the obstacle. The sensor included in the bumper 135 can detect a collision between the airport robot and the obstacle in the range of 360 degrees.

OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.The OFS (Optical Flow Sensor) 136 may include a sensor for measuring the traveling state of an airport robot and a sensor for measuring the distance traveled by the airport robot on various floor surfaces.

주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. The travel driving unit 140 includes a motor driver 141, a wheel motor 142, a rotation motor 143, a main brush motor 144, a side brush motor 145 and a suction motor 146 .

모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터(142), 브러시 모터(143) 및 석션 모터(146)를 구동하는 역할을 수행할 수 있다. The motor driver 141 may serve to drive the wheel motor 142, the brush motor 143, and the suction motor 146 for traveling and cleaning the airport robot.

휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있으며, 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. The wheel motor 142 may drive a plurality of wheels for driving the airport robot. The rotation motor 143 may be driven to rotate left and right, up and down, or rotate the head of the main body of the airport robot or the airport robot, It can be driven for turning or turning of the wheels.

메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있으며, 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.The main brush motor 144 can drive a brush for sweeping dirt on the airport floor and the side brush motor 145 can drive a brush for sweeping dirt in the area around the outer surface of the airport robot. The suction motor 146 can be driven to suck the dirt on the airport floor.

AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다.The AP group may include an AP 150, a user interface unit 160, an object recognition unit 170, a location recognition unit 180, and a LAN 190.

AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치일 수 있다. The AP (Application Processor) 150 may be a central processing unit that manages the entire system of hardware modules of the airport robot.

AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110)으로 전송하여 모터, 예들들어 주행 구동부(140) 등의 구동이 수행되게 할 수 있다.The AP 150 may drive the application program for driving and the user input / output information to the microcomputer 110 using the position information inputted through the various sensors, so that the driving of the motor, for example, the driving driving unit 140, have.

유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. The user interface unit 160 includes a user interface processor 161, an LTE router 162, a WIFI SSID 163, a microphone board 164, a barcode reader 165, a touch monitor 166, And a speaker 167.

유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부(160)의 동작을 제어할 수 있다. The user interface processor 161 can control the operation of the user interface unit 160 responsible for user input and output.

LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. The LTE router 162 can receive the necessary information from the outside and can perform LTE communication for transmitting information to the user.

WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. The WIFI SSID 163 can perform position recognition of a specific object or an airport robot by analyzing the signal strength of WiFi.

마이크 보드(164)는 복수 개의 마이크 신호를 입력받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. The microphone board 164 receives a plurality of microphone signals, processes the voice signal into voice data, which is a digital signal, and analyzes the direction of the voice signal and the voice signal.

바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드(Read) 할 수 있다. The barcode reader 165 can read barcode information written in a plurality of tickets used in an airport.

터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. The touch monitor 166 may include a touch panel configured to receive user input and a monitor for displaying output information.

스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.The speaker 167 can play a role of notifying the user of specific information by voice.

사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. The object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173.

2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. The 2D camera 171 may be a sensor for recognizing a person or an object based on a two-dimensional image.

RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처 된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. For detecting a person or object using captured images having depth data obtained from a camera having RGBD sensors or other similar 3D imaging devices as RGBD cameras (Red, Green, Blue, Distance, 172) Sensor.

인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.The recognition data processing module 173 can process a signal such as a 2D image / image or 3D image / image obtained from the 2D camera 171 and the RGBD camera 172 to recognize a person or an object.

위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. The position recognition unit 180 may include a stereo board 181, a lidar 182, and a SLAM camera 183.

SLAM(Simultaneous Localization And Mapping) 카메라(183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. Simultaneous Localization And Mapping (SLAM) camera 183 may implement the co-location tracking and mapping technology.

공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. The airport robot can detect the surrounding information by using the SLAM camera 183 and process the obtained information to create a map corresponding to the task execution space and estimate its own absolute position.

라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란 된 빛 중 후방 산란 된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. Light Detection and Ranging (Lidar) 182 is a laser radar, which can be a sensor that irradiates a laser beam and collects and analyzes backscattered light among light absorbed or scattered by an aerosol to perform position recognition.

스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.The stereo board 181 processes and processes sensing data collected from the rider 182 and the SLAM camera 183 to manage the data for recognition of the position of an airport robot and recognition of obstacles.

랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.The LAN 190 may communicate with the user input / output related user interface processor 161, the recognition data processing module 173, the stereo board 181 and the AP 150.

도 3은 실시 예에 따른 공항 로봇의 마이컴 및 AP의 제어 구성을 나타낸 블록도이다.3 is a block diagram showing a control configuration of a microcomputer and an AP of an airport robot according to an embodiment of the present invention.

도 3에 나타낸 마이컴(210) 및 AP(220)는 공항 로봇의 인식 및 행동을 제어하기 위하여, 다양한 제어 구성을 가질 수 있으며, 이에 한정을 두지 않는다.The microcomputer 210 and the AP 220 shown in FIG. 3 may have various control structures for controlling the recognition and behavior of the airport robot, but are not limited thereto.

도 3을 참조하면, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)을 포함할 수 있다. Referring to FIG. 3, the microcomputer 210 may include a data access service module 215.

데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. The data access service module 215 includes a data acquisition module 211, an emergency module 212, a motor driver module 213 and a battery manager module 214, . ≪ / RTI >

데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱 된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. The data acquisition module 211 can acquire sensed data from a plurality of sensors included in the airport robot and transmit the sensed data to the data access service module 215.

이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 이머전시 모듈(212)은 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우, 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. The emergency module 212 is a module capable of detecting an abnormal state of the airport robot. When the airport robot performs a predetermined type of behavior, the emergency module 212 detects that the airport robot has entered an abnormal state .

모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. The motor driver module 213 can manage driving control of a wheel, a brush, and a suction motor for driving and cleaning the airport robot.

배터리 매니저 모듈(214)은 도 2의 리튬-이온 배터리(122)의 충전 및 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.The battery manager module 214 is responsible for charging and discharging the lithium-ion battery 122 of FIG. 2 and may transmit the battery status of the airport robot to the data access service module 215.

AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. The AP 220 receives various types of cameras and sensors, user input, etc., and performs recognition and processing to control the operation of the airport robot.

인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. The interaction module 221 synthesizes the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222 to collectively manage software that allows the user and the airport robot to interact with each other Lt; / RTI >

유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223), 키(key), 터치 스크린 및, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. The user interface module 222 receives a user's close command such as a display unit 223, a key, a touch screen, and a reader, which is a monitor for current status of the airport robot and operation / To receive a remote signal, such as a signal from an IR remote control for remote control, or to receive user input from a user input 224 that receives a user's input signal from a microphone or bar code reader.

적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. When at least one user input is received, the user interface module 222 may pass user input information to a state machine module 225.

사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. The state management module 225 receiving the user input information can manage the entire state of the airport robot and issue an appropriate command corresponding to the user input.

플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. The planning module 226 can determine the start and end points / actions for the specific operation of the airport robot in accordance with the command received from the state management module 225, and calculate the route to which the airport robot should move.

네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. The navigation module 227 is responsible for the overall running of the airport robot, and may cause the airport robot to travel according to the travel route calculated by the planning module 226. [

모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.The motion module 228 can perform the operation of the basic airport robot in addition to the traveling.

또한, 공항 로봇은 위치 인식부(230)를 포함할 수 있다. In addition, the airport robot may include the location recognition unit 230. [

위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. The position recognition unit 230 may include a relative position recognition unit 231 and an absolute position recognition unit 234. [

상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. The relative position recognition unit 231 can calculate the amount of movement of the airport robot for a predetermined period of time by correcting the amount of movement of the airport robot through the RGM mono sensor 232 and recognize the current environment of the airport robot through the LiDAR 233 can do.

절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. The absolute position recognition unit 234 may include a Wifi SSID 235 and a UWB 236. [ The Wifi SSID 235 is a UWB sensor module for recognizing the absolute position of the airport robot, and is a WIFI module for estimating the current position by detecting the Wifi SSID.

Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. The Wifi SSID 235 can recognize the position of the airport robot by analyzing the signal strength of the Wifi.

UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.The UWB 236 can calculate the distance between the transmitter and the receiver and sense the absolute position of the airport robot.

또한, 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. In addition, the airport robot may include a map management module 240.

맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. The map management module 240 may include a grid module 241, a path planning module 242, and a map partitioning module 243.

그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. The grid module 241 can manage a grid-shaped map generated by the airport robot through the SLAM camera, or map data of the surrounding environment for the position recognition input to the airport robot in advance.

패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다. The path planning module 242 can take charge of the travel path calculation of the airport robots in the map division for cooperation among the plurality of airport robots. In addition, the path planning module 242 can calculate a traveling route through which the airport robot should move in an environment where one airport robot operates. The map division module 243 can calculate the area to be managed by the plurality of airport robots in real time.

위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. The data sensed and calculated from the position recognition unit 230 and the map management module 240 may be transmitted to the state management module 225 again.

상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.The state management module 225 can command the planning module 226 to control the operation of the airport robot based on the data sensed and calculated from the position recognition module 230 and the map management module 240. [

도 4는 제1 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.4 is a block diagram showing a control configuration of an airport robot according to the first embodiment.

도 4는 도 2 및 도 3에 나타낸 공항 로봇의 구성에 대하여 미아를 찾고, 보호 및 보호자 안내를 위해 필요한 제어 구성을 나타낸 것이며, 도 4에 나타낸 제어 구성은 도 2 및 도 3에 나타낸 구성에서 명칭이 변경될 수 있다.Fig. 4 is a view showing a control configuration necessary for searching for a guardian and guiding a guardian of the airport robot shown in Figs. 2 and 3, and the control configuration shown in Fig. 4 is a configuration shown in Fig. 2 and Fig. Can be changed.

도 4를 참조하면, 공항 로봇(600)은 통신부(610), 사물 인식부(620), 주행구동부(630), 인물 확인부(640) 및 제어부(650)를 포함할 수 있다.4, the airport robot 600 may include a communication unit 610, an object recognizing unit 620, a travel driving unit 630, a person identifying unit 640, and a controller 650.

통신부(610)는 공항 내에 배치된 공항 모니터링 시스템(미도시) 및 다른 항공 로봇들(미도시) 중 적어도 하나와 통신을 수행할 수 있다.The communication unit 610 may communicate with at least one of an airport monitoring system (not shown) and other air robots (not shown) disposed in the airport.

실시 예에서, 통신부(610)는 도 2에 기재된 유저 인터페이스부(160)에 포함된 LET 라우터(162)일 수 있으며, 이에 한정을 두지 않는다.In the embodiment, the communication unit 610 may be the LET router 162 included in the user interface unit 160 shown in FIG. 2, but is not limited thereto.

사물 인식부(620)는 카메라(622) 및 인식 데이터 처리모듈(624)을 포함할 수 있다.The object recognition unit 620 may include a camera 622 and a recognition data processing module 624. [

카메라(622)는 제어부(650)의 제어에 따라 안내 서비스 모드 동작 중 설정 구역으로 이동 중 또는 설정 위치에 정지 중 주변의 영상(ms)을 촬영할 수 있다.The camera 622 can photograph the image (ms) of the surroundings during traveling to the setting zone or stopping at the setting position during the guide service mode operation under the control of the controller 650. [

여기서, 카메라(622)는 1° 내지 180°의 반경을 가지고 영상(ms)을 촬영하는 적어도 하나의 카메라일 수 있으며, 이에 한정을 두지 않는다.Here, the camera 622 may be at least one camera that photographs an image ms with a radius of 1 DEG to 180 DEG, but is not limited thereto.

실시 예에서, 카메라(622)는 도 2에 기재된 2D 카메라(171) 및 RGBD 카메라(172)일 수 있으며, 이에 한정을 두지 않는다.In an embodiment, the camera 622 may be, but is not limited to, the 2D camera 171 and the RGBD camera 172 described in FIG.

인식 데이터 처리모듈(624)은 카메라(622)로부터 전달된 영상(ms)을 영상처리하여, 영상(ms)에서 사람들을 인식할 수 있다.The recognition data processing module 624 can image the image ms transmitted from the camera 622 and recognize people in the image ms.

실시 예에서, 인식 데이터 처리모듈(624)은 도 2에 기재된 인식 데이터 처리모듈(173)일 수 있으며, 이에 한정을 두지 않는다.In an embodiment, the recognition data processing module 624 may be, but is not limited to, the recognition data processing module 173 described in FIG.

인식 데이터 처리모듈(624)은 상기 사람들의 인식 결과를 제어부(650)로 전달할 수 있다.The recognition data processing module 624 may transmit the recognition result of the people to the control unit 650. [

주행 구동부(630)는 제어부(650)의 제어에 따라 상기 사람들 중 안내 서비스 모드를 요청하는 사람이 선택한 장소로 이동할 수 있도록 모터를 구동시킬 수 있다.The travel driving unit 630 may drive the motor so that the traveling driving unit 630 can move to the place selected by the person requesting the guidance service mode among the people under the control of the controller 650. [

실시 예에서, 주행 구동부(630)는 도 2에 기재된 주행 구동부(140)와 동일할 수 있으며, 이에 한정을 두지 않는다.In the embodiment, the travel driving unit 630 may be the same as the travel driving unit 140 described in FIG. 2, but is not limited thereto.

인물 확인부(640)는 사물 인식부(620)에서 인식한 상기 사람들 중 설정된 위험 감시 조건에 매칭되는 예상 위험 인물이 존재하는지 확인하여, 제어부(650)로 전달할 수 있다.The person identifying unit 640 can check whether there is a predicted risk person matched with the risk monitoring condition set in the persons recognized by the object recognizing unit 620 and transmit the result to the controller 650. [

여기서, 상기 위험 감시 조건은 이전 위험 인물들에 대해 설정된 인상착의, 장소, 행동 및 테러 리스트 중 적어도 하나를 포함할 수 있다.Here, the risk monitoring condition may include at least one of impression set, place, action, and terrorist list set for the previous dangerous persons.

상기 인상착의는 공항 또는 다른 공공 장소에서 발생된 범죄 또는 테러의 범인에 대한 인상착의 정보일 수 있으며, 예를 들어, 얼굴에 착용한 마스크, 모자 등으로 얼마나 가렸는지, 얼굴을 알아볼수 없도록 지속적으로 고개를 숙이고 있는지에 대한 정보일 수 있으며, 이에 한정을 두지 않는다.The impression may be information on an impression of a criminal or terrorist offender at an airport or other public place, for example, how much it is masked with a face mask, a hat, etc., And may be information about whether or not the head is inclined.

또한, 상기 장소는 공항 또는 다른 공공 장소에서 발생된 범죄 또는 테러가 발생할 수 있는 장소로써, 공항 내에서 사람들이 주로 이동하지 않으며 폭발물 등을 설치할 수 있는 장소로 창고, 계단 및 쓰레기통 주변일 수 있다.In addition, the place is a place where crime or terrorism may occur in an airport or other public places, and it can be a place where people do not move mainly in the airport and can install explosives, etc., and can be around a warehouse, a staircase and a garbage can.

또한, 상기 행동은 공항 또는 다른 공공 장소에서 발생된 범죄 또는 테러를 실행하기 이전에 범인의 행동으로써, 공항 내에서 소란스럽게 소리를 지르는 행동, 주변을 감시하는 행동 등일 수 있다.In addition, the actions may be, for example, an act of murder within the airport as an act of the criminal prior to the execution of an offense or terrorism in an airport or other public place, an activity to monitor the surroundings, and the like.

또한, 상기 테러 리스트는 상기 공항 모니터링 시스템에서 설정하며 공항 또는 다른 공공 장소에서 발생된 범죄 또는 테러를 실행하기 이전에 범인들의 이미지 및 상기 이미지에 대응하는 이름이 기재된 목록 리스트일 수 있다.Also, the terrorist list may be a list set up in the airport monitoring system and listing the images of the criminals and the names corresponding to the images before the execution of terrorism or terrorism occurred in an airport or other public place.

이와 같이, 인물 확인부(640)는 상기 예상 위험 인물이 상기 위험 감시 조건에 매칭되어 속하면 상기 예상 위험 인물이 존재하는 것으로 확인하여, 상기 제어부로 상기 예상 위험 인물의 존재를 제어부(640)로 전달할 수 있다.In this way, the person identification unit 640 confirms that the expected dangerous person is present if the expected dangerous person is matched with the danger monitoring condition, and the presence of the expected dangerous person is notified to the control unit 640 .

제어부(640)는 정보 취득부(652), 위험 판단부(654) 및 구동 제어부(656)를 포함할 수 있다.The control unit 640 may include an information acquisition unit 652, a risk determination unit 654, and a drive control unit 656.

실시 에에서, 제어부(650)는 도 2에 기재된 마이컴(110) 및 AP(150) 중 적어도 하나일 수 있으며, 이에 한정을 두지 않는다.In the embodiment, the controller 650 may be at least one of the microcomputer 110 and the AP 150 shown in FIG. 2, but is not limited thereto.

우선, 공항 로봇(600)이 위험 예상 인물을 감지하는 경우에 대하여 먼저 설명한다.First, the case where the airport robot 600 detects a dangerous person is described first.

정보 취득부(652)는 인물 확인부(640)로부터 상기 예상 위험 인물이 존재하는 것으로 전달되면, 상기 예상 위험 인물에 대한 특정 영상(p_ms)을 촬영하도록 사물인식부(620)를 제어할 수 있다.The information acquiring unit 652 may control the object recognizing unit 620 to capture a specific image p_ms of the expected dangerous person when the predicted risk person is present from the person identifying unit 640 .

이후, 정보 취득부(652)는 특정 영상(p_ms)이 전달되면 상기 예상 위험 인물의 행동정보(hf)를 취득할 수 있다.Thereafter, the information acquiring unit 652 can acquire the behavior information hf of the predicted danger person when the specific image p_ms is transferred.

여기서, 행동정보(hf)는 상기 예상 위험 인물로 존재가 확인된 후, 상기 예상 위험 인물의 이미지, 현 위치에서의 대기 시간 및 동행자 여부 중 적어도 하나를 포함할 수 있다.Here, the behavior information hf may include at least one of the image of the expected dangerous person, the waiting time at the current position, and the presence of the companion after the presence of the expected dangerous person is confirmed.

즉, 행동정보(hf)는 상기 예상 위험 인물이 실제 위험 인물인지 한번 더 화긴하기 위한 정보일 수 있으며, 상술한 상기 예상 위험 인물의 이미지, 현 위치에서의 대기 시간 및 동행자 여부를 제외한 다른 특징의 정보일 수 있으며, 이에 한정을 두지 않는다.That is, the behavior information hf may be information for making the predicted risk person a real danger person again. The behavior information hf may be information about the image of the expected risk person, the waiting time at the current position, Information, but is not limited thereto.

위험 판단부(654)는 행동정보(hf)가 상기 이전 위험 인물들, 예를 들어 공항 또는 공공장소에서 범죄 또는 테러를 한 범인들의 행동정보와 매칭되는지 판단할 수 있다.The risk judging unit 654 can judge whether the behavior information hf matches the behavior information of the previous danger persons, for example, criminals or terrorists who have committed terrorism at the airport or public place.

구동 제어부(656)는 상기 예상 위험 인물이 존재하면 상기 안내 서비스 모드를 감시 모드로 전환할 수 있다.The drive control unit 656 may switch the guidance service mode to the monitoring mode when the expected danger person exists.

이후, 구동 제어부(656)는 위험 판단부(654)의 판단 결과, 상기 예상 위험 인물이 위험 인물로 판단되면, 행동정보(hf)가 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 전송되게 통신부(610)를 제어할 수 있다.The drive control unit 656 determines that the behavior information hf is transmitted to at least one of the other airport robots and the airport monitoring system when the risk determination unit 654 determines that the expected dangerous person is a dangerous person The communication unit 610 can be controlled.

구동 제어부(656)는 상기 예상 위험 인물의 현 위치에서 이동하는 예상 이동 경로 및 도주 가능 경로 중 적어도 하나를 포함하는 경로 정보(lf)를 생성하여, 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 전송되게 통신부(610)를 제어할 수 있다.The drive control unit 656 generates route information lf including at least one of the anticipated movement route and the escapable route that are to be moved at the present position of the expected dangerous person and transmits at least one of the other airport robots and the airport monitoring system It is possible to control the communication unit 610 to be transmitted to one.

또한, 구동 제어부(656)는 위험 판단부(654)의 판단 결과, 상기 예상 위험 인물을 상기 위험 인물이 아닌 것으로 판단하면, 상기 감시 모드를 상기 안내 서비스 모드로 전환할 수 있다.If it is determined that the expected dangerous person is not the dangerous person, the drive control unit 656 may switch the monitoring mode to the guidance service mode.

이후, 구동 제어부(656)는 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 감시 해제 정보(if)가 전송되게 통신부(610)를 제어할 수 있다.Then, the drive control unit 656 can control the communication unit 610 to transmit the monitoring release information (if) to at least one of the other airport robots and the airport monitoring system.

상술한 바와 다르게, 상기 다른 공항 로봇들 중 특정 공항 로봇으로부터 위험 예상 인물의 존재를 알리는 특정 행동 정보(hf_1)가 안내 서비스 모드로 동작 중 수신하는 경우에 대하여 설명한다.Different from the above, a description will be given of a case in which specific action information hf_1 indicating the presence of a dangerous person from a specific airport robot among the other airport robots is received during operation in the guidance service mode.

구동 제어부(656)는 통신부(610)를 통해 특정 행동 정보(hf_1)가 전달되면, 상기 안내 서비스 모드를 감시 대기 모드로 전환할 수 있다.The drive control unit 656 can switch the guidance service mode to the monitoring standby mode when the specific behavior information hf_1 is transmitted through the communication unit 610. [

이후, 구동 제어부(656)는 상기 특정 공항 로봇으로부터 전송된 특정 경로 정보(lf_1)를 통신부(610)가 수신하면 상기 감시 대기 모드를 감시 모드로 전환하고, 특정 행동 정보(hf_1)에 포함된 특정 예상 위험 인물의 이미지를 추출할 수 있다.The drive control unit 656 switches the monitoring standby mode to the monitoring mode when the communication unit 610 receives the specific route information lf_1 transmitted from the specific airport robot, It is possible to extract the image of the expected dangerous person.

구동 제어부(656)는 상기 특정 예상 위험 인물의 이미지를 추출한 후, 특정 경로 정보(lf_1)에 포함된 특정 예상 이동 경로 및 특정 도주 가능 경로 중 적어도 하나에 위치할 때, 상기 특정 예상 위험 인물이 현 위치로 이동하는 경우 사물 인식부(620)에서 촬영한 영상에서 상기 특정 예상 위험 인물의 이미지에 매칭되는 상기 특정 예상 위험 인물을 감시할 수 있다.The driving control unit 656 extracts the image of the specific expected dangerous person and then when it is located in at least one of the specific anticipated travel route and the specific escapable route included in the specific route information lf_1, It is possible to monitor the specific expected danger person matching the image of the specific expected danger person in the image photographed by the object recognition unit 620. [

이후, 구동 제어부(656)는 상술한 바와 같이 감시 모드로 동작할 수 있다.Thereafter, the drive control unit 656 can operate in the monitoring mode as described above.

또한, 구동 제어부(656)는 상기 특정 공항 로봇으로부터 전송된 특정 감시 해제 정보(if_1)를 통신부(610)가 수신하면, 상기 감시 대기 모드에서 상기 안내 서비스 모드로 전환할 수 있으며, 이에 한정을 두지 않는다.In addition, the drive control unit 656 can switch from the monitoring standby mode to the guidance service mode when the communication unit 610 receives the specific monitoring release information (if_1) transmitted from the specific airport robot. Do not.

도 5 내지 도 8은 실시 예에 따른 공항 로봇의 동작에 대한 예시 동작도이다.5 to 8 are exemplary operation diagrams of an operation of the airport robot according to the embodiment.

도 5는 공항 내에 공항 로봇(600) 및 다른 공항 로봇들(701 내지 703)이 현재 위치된 곳에 설정된 안내 서비스 모드로 동작하는 것을 나타낸다.5 shows that the airport robot 600 and the other airport robots 701 to 703 in the airport operate in the guidance service mode set in the place where they are currently located.

이때, 공항 로봇(600)은 공항의 서쪽(W) 방향, 즉 건물(5) 방향에 위치한 사람들을 포함하는 영상(ms)를 촬영할 수 있다.At this time, the airport robot 600 can photograph an image (ms) including people located in the west (W) direction of the airport, that is, in the direction of the building (5).

도 6은 공항 로봇(600)이 촬영한 영상(ms)을 나타낸다.6 shows an image (ms) taken by the airport robot 600. Fig.

여기서, 공항 로봇(600)은 영상(ms)에 포함된 사람들 중 설정된 위험 감시 조건에 매칭되는 예상 위험 인물의 존재를 확인할 수 있으며, 안내 서비스 모드를 감시 모드로 변환할 수 있다.Here, the airport robot 600 can confirm the presence of a predicted danger person matching the risk monitoring condition set among the people included in the image ms, and convert the guidance service mode into the monitoring mode.

도 7 및 도 8은 공항 로봇(600)이 예상 위험 인물의 경로 정보(lf)에 포함된 산출한 예상 이동 경로 및 예상 위험 인물의 도주 가능 경로를 나타낸다.Figs. 7 and 8 show the estimated travel route calculated by the airport robot 600 included in the route information lf of the anticipated danger person and the escape route of the anticipated danger person.

공항 로봇(600)은 예상 위험 인물의 현재 위치 및 이동 방향을 기반으로, 공항 내에서 예상 위험 인물이 이동할 것으로 예상되는 장소까지의 예상 이동 경로 및 상기 장소에서 도주할 수 있는 도주 가능 경로를 산출할 수 있다.The airport robot 600 calculates an expected travel route to the place where the expected dangerous person is expected to move within the airport based on the current position and the travel direction of the expected dangerous person and the escape route that can escape from the place .

이후, 공항 로봇(600)은 경로 정보를 다른 공항 로봇(701 내지 703)으로 전송할 수 있다.Then, the airport robot 600 can transmit the route information to the other airport robots 701 to 703.

상술한 바와 같이, 예상 위험 인물이 상기 도주 가능 경로로 이동하는 경우, 다른 공항 로봇(702)는 예상 위험 인물을 감시할 수 있으며, 다른 공항 로봇(703)은 다른 공항 로봇(702)의 감시 이후에 상기 예상 위험 인물을 감시할 수 있다.As described above, when the expected dangerous person moves to the escapable route, the other airport robot 702 can monitor the expected dangerous person, and the other airport robot 703 can monitor the dangerous person after the monitoring of the other airport robot 702 The expected risk person may be monitored.

상기와 같이 기재된 실시 예들은 설명된 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The embodiments described above are not limited to the configurations and methods described above, but the embodiments may be configured by selectively combining all or a part of the embodiments so that various modifications can be made.

또한, 이상에서는 실시 예에 대하여 도시하고 설명하였지만, 실시 예는 상술한 특정에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (13)

안내 서비스 모드 동작 중 촬영한 주변의 영상에서 사람들을 인식하는 사물 인식부;
상기 사람들 중 설정된 위험 감시 조건에 매칭되는 예상 위험 인물이 존재하는지 확인하는 인물 확인부; 및
상기 예상 위험 인물이 존재하면 상기 안내 서비스 모드를 감시 모드로 전환하고, 상기 예상 위험 인물을 감시하기 위해 상기 사물 인식부를 제어하는 제어부를 포함하는 공항 로봇.
An object recognition unit for recognizing people from a surrounding image photographed during a guide service mode operation;
A person identifying unit for checking whether there is a predicted risk person matching the risk monitoring condition set out among the people; And
And a control unit for switching the guidance service mode to the monitoring mode when the expected dangerous person is present and controlling the object recognition unit to monitor the expected dangerous person.
제 1 항에 있어서,
상기 사물 인식부는,
상기 영상을 촬영하는 카메라; 및
상기 영상에서 상기 사람들을 인식하여, 상기 사람들 각각의 위치좌표를 상기 제어부로 전달하는 인식 데이터 처리모듈을 포함하는 공항 로봇.
The method according to claim 1,
The object recognizing unit,
A camera for photographing the image; And
And a recognition data processing module for recognizing the people in the image and transmitting the position coordinates of the people to the controller.
제 2 항에 있어서,
상기 카메라는,
1° 내지 180°의 반경을 가지고 상기 영상을 촬영하는 적어도 하나의 카메라인 공항 로봇.
3. The method of claim 2,
The camera comprises:
Wherein at least one camera captures the image with a radius of 1 DEG to 180 DEG.
제 1 항에 있어서,
상기 위험 감시 조건은,
이전 위험 인물들에 대해 설정된 인상착의, 장소, 행동 및 테러 리스트 중 적어도 하나를 포함하는 공항 로봇.
The method according to claim 1,
The above-
An airport robot comprising at least one of impression details, place, action and terrorist list set for previous risk persons.
제 4 항에 있어서,
상기 인물 확인부는,
상기 예상 위험 인물이 상기 위험 감시 조건에 매칭되어 속하면 상기 예상 위험 인물이 존재하는 것으로 확인하여, 상기 제어부로 상기 예상 위험 인물의 존재를 전달하는 공항 로봇.
5. The method of claim 4,
Wherein the person-
And if the expected dangerous person is matched with the danger monitoring condition, it confirms that the expected dangerous person exists, and delivers the presence of the expected dangerous person to the control unit.
제 1 항에 있어서,
다른 공항 로봇들 및 공항 모니터링 시스템과 통신하는 통신부를 더 포함하고,
상기 제어부는,
상기 예상 위험 인물이 존재하면 상기 사물 인식부를 제어하여 상기 예상 위험 인물에 대한 특정 영상을 전달받아, 상기 예상 위험 인물의 행동정보를 취득하는 정보 취득부;
상기 행동정보를 기반으로, 상기 예상 위험 인물이 위험 인물인지 판단하는 위험 판단부; 및
상기 예상 위험 인물이 존재하면 상기 안내 서비스 모드를 상기 감시 모드로 전환하고, 상기 예상 위험 인물이 상기 위험 인물로 판단되면 상기 행동정보가 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 전송되게 상기 통신부를 제어하는 구동 제어부를 포함하는 공항 로봇.
The method according to claim 1,
Further comprising a communication unit for communicating with other airport robots and an airport monitoring system,
Wherein,
An information acquisition unit for controlling the object recognition unit to receive a specific image of the expected risk person and acquiring behavior information of the expected risk person if the predicted risk person exists;
A risk judging unit for judging whether the predicted risk person is a risk person based on the behavior information; And
Wherein the guidance service mode is switched to the surveillance mode when the expected dangerous person is present and the behavior information is transmitted to at least one of the other airport robots and the airport monitoring system when the predicted dangerous person is determined to be the dangerous person, And a drive control section for controlling the communication section.
제 6 항에 있어서,
상기 행동정보는,
상기 예상 위험 인물의 이미지, 현 위치에서의 대기 시간 및 동행자 여부 중 적어도 하나를 포함하는 공항 로봇.
The method according to claim 6,
Wherein the action information comprises:
An image of the expected dangerous person, a waiting time at the current position, and a companion presence.
제 6 항에 있어서,
상기 위험 판단부는,
상기 행동정보가 설정된 이전 위험 인물들의 행동정보와 매칭되는지 판단하여, 상기 제어부로 판단 결과를 전달하는 공항 로봇.
The method according to claim 6,
The risk judging unit,
Determines whether the behavior information matches the behavior information of the previous dangerous persons, and transmits the determination result to the control unit.
제 6 항에 있어서,
상기 구동 제어부는,
상기 예상 위험 인물을 상기 위험 인물로 판단하면, 상기 예상 위험 인물의 현 위치에서 이동하는 예상 이동 경로 및 도주 가능 경로 중 적어도 하나를 포함하는 경로 정보를 생성하여, 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 전송되게 상기 통신부를 제어를 제어하는 공항 로봇.
The method according to claim 6,
The drive control unit may include:
Generating route information including at least one of a predicted travel route and an escapable route that are to be moved from a current position of the expected dangerous person when the predicted dangerous person is determined to be the dangerous person, And controls the communication unit to be transmitted to at least one of the plurality of systems.
제 6 항에 있어서,
상기 구동 제어부는,
상기 예상 위험 인물이 상기 위험 인물이 아닌것으로 판단하면, 상기 감시 모드를 상기 안내 서비스 모드로 전환하며, 상기 다른 공항 로봇들 및 상기 공항 모니터링 시스템 중 적어도 하나로 감시 해제 정보가 전송되게 상기 통신부를 제어하는 공항 로봇.
The method according to claim 6,
The drive control unit may include:
And switches the monitoring mode to the guidance service mode if it is determined that the expected dangerous person is not the dangerous person, and controls the communication unit to transmit the monitoring release information to at least one of the other airport robots and the airport monitoring system Airport robots.
제 6 항에 있어서,
상기 통신부는,
상기 다른 공항 로봇들 중 특정 공항 로봇으로부터 전송된 특정 행동정보를 수신하고,
상기 구동 제어부는,
상기 특정 행동정보를 수신하면, 상기 특정 행동정보에 따라 상기 안내 서비스 모드를 감시 대기 모드로 전환하는 공항 로봇.
The method according to claim 6,
Wherein,
Receiving specific behavior information transmitted from a specific airport robot among the other airport robots,
The drive control unit may include:
And when the specific behavior information is received, switches the guidance service mode to the monitoring standby mode according to the specific behavior information.
제 11 항에 있어서,
상기 통신부는,
상기 특정 공항 로봇으로부터 전송된 특정 경로 정보를 수신하고,
상기 구동 제어부는,
상기 감시 대기 모드에서 상기 감시 모드로 전환하고, 상기 특정 행동정보에 포함된 특정 예상 위험 인물의 이미지를 추출하고, 상기 특정 경로 정보에 포함된 특정 예상 이동 경로 및 특정 도주 가능 경로 중 적어도 하나에 위치하면, 상기 사물인식부을 제어하여 촬영한 특정 영상에서 상기 특정 예상 위험 인물의 이미지에 매칭되는 상기 특정 예상 위험 인물을 감시하는 공항 로봇.
12. The method of claim 11,
Wherein,
Receiving the specific route information transmitted from the specific airport robot,
The drive control unit may include:
Wherein the control unit switches from the monitoring standby mode to the monitoring mode, extracts an image of a specific expected danger person included in the specific action information, and displays the position information on at least one of a specific anticipated travel route and a specific escapable route included in the specific route information And monitors the specific anticipated danger person matching the image of the specific anticipated danger person in the specific image captured by controlling the object recognizing unit.
제 11 항에 있어서,
상기 통신부는,
상기 특정 공항 로봇으로부터 전송된 특정 감시 해제 정보를 수신하고,
상기 구동 제어부는,
상기 특정감시 해제 정보에 따라 상기 감시 대기 모드에서 상기 안내 서비스 모드로 전환하는 공항 로봇.
12. The method of claim 11,
Wherein,
Receiving specific monitoring release information transmitted from the specific airport robot,
The drive control unit may include:
And switches from the monitoring standby mode to the guidance service mode according to the specific monitoring release information.
KR1020160131895A 2016-10-12 2016-10-12 Airport robot KR20180040255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160131895A KR20180040255A (en) 2016-10-12 2016-10-12 Airport robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160131895A KR20180040255A (en) 2016-10-12 2016-10-12 Airport robot

Publications (1)

Publication Number Publication Date
KR20180040255A true KR20180040255A (en) 2018-04-20

Family

ID=62088473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160131895A KR20180040255A (en) 2016-10-12 2016-10-12 Airport robot

Country Status (1)

Country Link
KR (1) KR20180040255A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220027529A (en) * 2020-08-27 2022-03-08 네이버랩스 주식회사 Evaluation method and system for robot
KR20230043662A (en) 2021-09-23 2023-03-31 뉴인테크 주식회사 Moving line tracking system and method for arrival hall of liability to crime travelers
KR102603692B1 (en) 2023-05-02 2023-11-21 뉴인테크 주식회사 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers
US11899467B2 (en) 2019-03-07 2024-02-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11899467B2 (en) 2019-03-07 2024-02-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
KR20220027529A (en) * 2020-08-27 2022-03-08 네이버랩스 주식회사 Evaluation method and system for robot
KR20220027745A (en) * 2020-08-27 2022-03-08 네이버랩스 주식회사 A building that evaluates motions of robots driving in an indoor space of the building
KR20230043662A (en) 2021-09-23 2023-03-31 뉴인테크 주식회사 Moving line tracking system and method for arrival hall of liability to crime travelers
KR102603692B1 (en) 2023-05-02 2023-11-21 뉴인테크 주식회사 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers

Similar Documents

Publication Publication Date Title
US11260533B2 (en) Robot and robot system comprising same
US20210311476A1 (en) Patrol robot and patrol robot management system
US20190358814A1 (en) Robot and robot system comprising same
KR20180039977A (en) Assistant robot for airport and method thereof
US11110600B2 (en) Airport robot and operation method thereof
US20190351558A1 (en) Airport robot and operation method therefor
JP6080568B2 (en) Monitoring system
US10728505B2 (en) Monitoring system
CN109962970B (en) Information collection system and server device
KR20180080499A (en) Robot for airport and method thereof
KR20180040255A (en) Airport robot
JP6172958B2 (en) Shooting system
JP2019114110A (en) Information collection system and server device
KR20180039378A (en) Robot for airport and method thereof
KR102570164B1 (en) Airport robot, and method for operating server connected thereto
KR20180038870A (en) Airport robot and system including the same
KR20180040907A (en) Airport robot
KR102599784B1 (en) Airport robot
KR20180038884A (en) Airport robot, and method for operating server connected thereto
US20190354246A1 (en) Airport robot and movement method therefor
JP2014146141A (en) Photographic system
US11693410B2 (en) Optimizing a navigation path of a robotic device
JP5982273B2 (en) Shooting system
KR20180038871A (en) Robot for airport and method thereof
JP2007279824A (en) Autonomous mobile robot