KR102578138B1 - Airport robot and system including the same - Google Patents

Airport robot and system including the same Download PDF

Info

Publication number
KR102578138B1
KR102578138B1 KR1020160130045A KR20160130045A KR102578138B1 KR 102578138 B1 KR102578138 B1 KR 102578138B1 KR 1020160130045 A KR1020160130045 A KR 1020160130045A KR 20160130045 A KR20160130045 A KR 20160130045A KR 102578138 B1 KR102578138 B1 KR 102578138B1
Authority
KR
South Korea
Prior art keywords
airport robot
person
airport
robot
driving
Prior art date
Application number
KR1020160130045A
Other languages
Korean (ko)
Other versions
KR20180038870A (en
Inventor
김동훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160130045A priority Critical patent/KR102578138B1/en
Priority to PCT/KR2017/010269 priority patent/WO2018066837A1/en
Publication of KR20180038870A publication Critical patent/KR20180038870A/en
Application granted granted Critical
Publication of KR102578138B1 publication Critical patent/KR102578138B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시 예에 의한 공항 로봇은, 상기 공항 로봇의 주행 경로를 소정의 주행 속도로 주행하는 주행 구동부; 와 사람과, 상기 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및 상기 소정의 주행 속도로 주행하되, 상기 공항 로봇으로부터 소정 거리 내의 영역에 상기 사람이 존재하는 경우, 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록, 상기 주행 구동부를 제어하는 제어부를 포함한다.An airport robot according to an embodiment of the present invention includes a travel driver that travels the travel path of the airport robot at a predetermined travel speed; and an object recognition unit that detects a person and characteristics related to the person; and a control unit that controls the travel driving unit to drive at the predetermined travel speed, but to adjust the predetermined travel speed in response to characteristics related to the person when the person is present in an area within a predetermined distance from the airport robot. Includes.

Description

공항 로봇 및 이를 포함하는 시스템{AIRPORT ROBOT AND SYSTEM INCLUDING THE SAME}Airport robot and system including same {AIRPORT ROBOT AND SYSTEM INCLUDING THE SAME}

본 발명은 공항 로봇 및 이를 포함하는 시스템에 관한 것으로서, 보다 구체적으로 공항 로봇의 주행 경로 주위에 사람이 감지되는 경우 이에 대응하여 주행 속도를 조절하는 공항 로봇 및 이를 포함하는 시스템에 관한 것이다.The present invention relates to an airport robot and a system including the same, and more specifically, to an airport robot and a system including the airport robot that adjusts the traveling speed in response when a person is detected around the driving path of the airport robot.

최근 공항 이용객의 폭발적인 증가 추세 및 스마트 공항으로의 도약을 위한 노력으로, 공항 내에서 로봇을 통해 서비스를 제공하는 방안이 논의되고 있다. 공항에 지능형 로봇을 도입하는 경우, 기존의 컴퓨터 시스템이 대체할 수 없었던 사람의 고유 역할을 로봇이 대신 수행할 수 있어, 제공되는 서비스의 양적 및 질적 향상에 기여할 수 있을 것으로 기대된다.Due to the recent explosive increase in the number of airport users and efforts to make a leap forward as a smart airport, plans to provide services through robots within the airport are being discussed. When intelligent robots are introduced to airports, it is expected that the robots will be able to perform the unique roles of humans that existing computer systems could not replace, contributing to the quantitative and qualitative improvement of the services provided.

로봇의 주행과 관련하여 중요한 기능 중 하나는 장애물 회피이다. 특히, 공항은 사람이 많이 모이는 장소이므로, 로봇과 사람이 충돌하는 사고가 자주 발생할 수 있다. 따라서, 공항 로봇의 경우 장애물 회피 기능이 무엇보다 중요하다. One of the important functions related to robot driving is obstacle avoidance. In particular, airports are places where many people gather, so accidents involving collisions between robots and people can frequently occur. Therefore, for airport robots, obstacle avoidance function is of utmost importance.

기존의 로봇은 주행 중 주변 장애물을 감지하여 충돌을 회피할 수 있도록 설계되어 있다. 따라서, 로봇은 주행 중 주행 방향의 전방에 위치한 사람을 감지하는 경우, 주행 방향을 전환함으로써 사람과의 충돌을 회피한다.Existing robots are designed to detect surrounding obstacles while driving and avoid collisions. Therefore, when the robot detects a person located in front of the driving direction while driving, it changes the driving direction to avoid collision with the person.

본 발명은 사람과의 충돌을 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.The present invention provides an airport robot that can avoid collisions with people and a system including the same.

또한, 본 발명은 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.In addition, the present invention provides an airport robot and a system including the same that can avoid collisions with people by reflecting the driving situation.

또한, 본 발명은 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.In addition, the present invention provides an airport robot and a system including the same that can efficiently avoid collisions with people by reflecting the surrounding environment in which the airport robot travels.

또한, 본 발명은 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.Additionally, the present invention provides an airport robot and a system including the same that can prevent collisions with people in situations where there is a high possibility of collision.

나아가, 본 발명은 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지하는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.Furthermore, the present invention provides an airport robot and a system including the same that effectively prevents collisions with people by reflecting the detected characteristics of the person.

본 발명의 일 실시 예에 따르면, 공항 로봇은, 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 제어부를 포함한다. 이에 의하면, 주행 중 주행 경로 주위에 사람이 감지되는 경우 공항 로봇의 주행 속도를 조절함으로써 사람과의 충돌을 회피할 수 있다.According to an embodiment of the present invention, an airport robot includes an object recognition unit that detects characteristics related to people; and a control unit that adjusts the traveling speed in response to characteristics related to the person when a person exists in an area within a predetermined distance from the airport robot. According to this, when a person is detected around the driving path while driving, a collision with a person can be avoided by adjusting the driving speed of the airport robot.

상기 제어부는, 사람과 공항 로봇간의 거리가 가까워질수록 주행 속도를 감소시킬 수 있다. 이에 의하면, 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있다.The control unit may reduce the traveling speed as the distance between the person and the airport robot becomes closer. According to this, collisions with people can be avoided by reflecting the driving situation.

상기 제어부는, 공항 로봇 주위에 사람이 많이 밀집될수록, 주행 속도를 감소시킬 수 있다. 이에 의하면, 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있다.The control unit may reduce the traveling speed as more people are crowded around the airport robot. According to this, collisions with people can be efficiently avoided by reflecting the surrounding environment in which the airport robot drives.

상기 제어부는, 임계 거리 내에 사람이 존재하는 경우 공항 로봇의 주행을 중단시킬 수 있다. 이에 의하면, 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있다.The control unit may stop the airport robot from running when a person exists within a critical distance. According to this, it is possible to prevent a collision with a person in a situation where there is a high possibility of collision.

상기 제어부는, 감지된 사람의 신장이 작을수록 공항 로봇의 주행 속도를 감소시킬 수 있다. 이에 의하면, 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지할 수 있다.The control unit may reduce the traveling speed of the airport robot as the detected height of the person becomes shorter. According to this, collisions with people can be efficiently prevented by reflecting the detected characteristics of the person.

본 발명의 다른 실시 예에 따르면, 공항 로봇을 제어하는 서버는, 공항 로봇과 통신을 수행하는 통신부; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는지 여부 및 상기 사람과 관련된 특성에 대한 데이터를 통신부가 수신하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 제어부를 포함한다.According to another embodiment of the present invention, a server that controls an airport robot includes a communication unit that communicates with the airport robot; And when the communication unit receives data about whether a person exists in an area within a predetermined distance from the airport robot and the characteristics related to the person, it includes a control unit that adjusts the driving speed in response to the characteristics related to the person.

본 발명의 또 다른 실시 예에 따르면, 공항 로봇을 포함하는 시스템은, 소정 거리 내의 영역에 사람이 존재하는지 여부 및 사람과 관련된 특성을 감지하여 서버에 전송하는 공항 로봇; 및 사람과 관련된 특성에 대응하여 주행 속도를 조절하도록 공항 로봇을 제어하는 서버를 포함한다.According to another embodiment of the present invention, a system including an airport robot includes: an airport robot that detects whether a person is present in an area within a predetermined distance and the characteristics related to the person and transmits the information to a server; and a server that controls the airport robot to adjust its travel speed in response to human-related characteristics.

본 발명의 또 다른 실시 예에 따르면, 공항 로봇의 주행 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체에서, 상기 주행 방법은, 사람과 관련된 특성을 감지하는 단계; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 단계를 포함한다.According to another embodiment of the present invention, in a computer-readable recording medium on which a program for performing a driving method of an airport robot is recorded, the driving method includes: detecting characteristics related to a person; and, when a person exists in an area within a predetermined distance from the airport robot, adjusting the traveling speed in response to characteristics related to the person.

본 발명의 일 실시 예에 따르면, 공항 로봇은 사람과의 충돌을 회피할 수 있다.According to an embodiment of the present invention, an airport robot can avoid collisions with people.

본 발명의 다른 실시 예에 따르면, 공항 로봇은 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있다.According to another embodiment of the present invention, an airport robot can avoid collisions with people by reflecting the driving situation.

본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 해당 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있다.According to another embodiment of the present invention, an airport robot can efficiently avoid collisions with people by reflecting the surrounding environment in which the airport robot drives.

본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있다.According to another embodiment of the present invention, an airport robot can prevent a collision with a person in a situation where there is a high possibility of collision.

본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지할 수 있다.According to another embodiment of the present invention, an airport robot can effectively prevent collisions with people by reflecting the detected characteristics of the person.

도 1은 본 발명의 일 실시 예에 의한 공항 로봇의 하드웨어 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 의한 공항 로봇의 소프트웨어 플랫폼의 구조를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 의한 공항 로봇 시스템의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 7a 내지 도 7c는 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 9a와 도 9b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 11a와 도 11b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
Figure 1 is a diagram showing the hardware configuration of an airport robot according to an embodiment of the present invention.
Figure 2 is a diagram showing the structure of a software platform of an airport robot according to an embodiment of the present invention.
Figure 3 is a diagram showing the configuration of an airport robot system according to an embodiment of the present invention.
Figure 4 is a diagram showing the driving process of an airport robot according to an embodiment of the present invention.
5A to 5C are diagrams for explaining a driving method of an airport robot according to an embodiment of the present invention.
Figure 6 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.
7A to 7C are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.
Figure 8 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.
9A and 9B are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.
Figure 10 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.
Figures 11a and 11b are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

도 1은 본 발명의 일 실시 예에 의한 공항 로봇의 하드웨어 구성을 도시한 도면이다. Figure 1 is a diagram showing the hardware configuration of an airport robot according to an embodiment of the present invention.

본 발명의 일 실시 예에 의한 공항 로봇(100)은 마이컴(110), 전원부(120), 장애물 인식부(130), 주행 구동부(140), 어플리케이션 프로세서(150), 유저 인터페이스부(160), 오브젝트 인식부(170), 위치 인식부(180) 및 랜 모듈(190)을 포함할 수 있다.The airport robot 100 according to an embodiment of the present invention includes a microcomputer 110, a power supply unit 120, an obstacle recognition unit 130, a travel driver 140, an application processor 150, a user interface unit 160, It may include an object recognition unit 170, a location recognition unit 180, and a LAN module 190.

이와 같이 구성되는 공항 로봇(100)은 마이컴(110)에 의해 제어되는 부분과, 어플리케이션 프로세서(150)에 의해 제어되는 부분으로 구성될 수 있다. 마이컴(110)에 의해 제어되는 부분은, 마이컴(110)과 전원부(120), 장애물 인식부(130) 및 주행 구동부(140)를 포함할 수 있다. 어플리케이션 프로세서(150)에 의해 제어되는 부분은 어플리케이션 프로세서(150), 유저 인터페이스부(160), 오브젝트 인식부(170), 위치 인식부(180) 및 랜 모듈(190)을 포함할 수 있다. 이 경우, 마이컴(110)과 어플리케이션 프로세서(150)는 UART 통신을 수행할 수 있다.The airport robot 100 configured in this way may be composed of a part controlled by the microcomputer 110 and a part controlled by the application processor 150. The part controlled by the microcomputer 110 may include the microcomputer 110, the power supply unit 120, the obstacle recognition unit 130, and the travel driver 140. The part controlled by the application processor 150 may include the application processor 150, the user interface unit 160, the object recognition unit 170, the location recognition unit 180, and the LAN module 190. In this case, the microcomputer 110 and the application processor 150 can perform UART communication.

마이컴(Micom, 110)은 중앙처리장치(CPU)를 하나의 고밀도집적회로(LSI) 칩에 집적된 마이크로프로세서로 만든 초소형 컴퓨터일 수 있다. 마이컴(110)은 일반적으로 공항 로봇(100)의 전반적인 동작을 제어할 수 있다. 마이컴(110)은 마이컴(110)이 제어하는 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리함으로써, 사용자에게 적절한 정보 또는 기능을 제공하거나 처리할 수 있다. 또한, 마이컴(110)은 공항 로봇(100)을 구동하기 위하여, 도 1에 도시된 구성요소들 중 적어도 일부를 제어하거나, 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.A microcomputer (Micom, 110) may be a miniature computer made of a microprocessor with a central processing unit (CPU) integrated into a single high-density integrated circuit (LSI) chip. The microcomputer 110 can generally control the overall operation of the airport robot 100. The microcomputer 110 can provide or process appropriate information or functions to the user by processing signals, data, and information input or output through components controlled by the microcomputer 110. Additionally, in order to drive the airport robot 100, the microcomputer 110 may control at least some of the components shown in FIG. 1 or may operate by combining at least two or more of them.

전원부(120)는 마이컴(110)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가 받아 공항 로봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이를 위해, 전원부(120)는 배터리 드라이버(Battery Driver, 121) 및 배터리(Battery, 122)를 포함할 수 있다.The power unit 120 receives external or internal power under the control of the microcomputer 110 and supplies power to each component included in the airport robot 100. For this purpose, the power supply unit 120 may include a battery driver (121) and a battery (122).

배터리 드라이버(121)는 배터리(122)의 충전과 방전을 제어할 수 있다.The battery driver 121 can control charging and discharging of the battery 122.

배터리(122)는 공항 로봇(100)의 구동을 위한 전원을 공급할 수 있다. 실시 예에 따라, 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성된 리튬-이온 배터리(Li-Ion Battery) 또는 충전 가능한 2차 전지인 납축 전지로 구성될 수 있다. 배터리(122)는 내장형 또는 교체 가능한 형태로 구현될 수 있다.The battery 122 may supply power to drive the airport robot 100. Depending on the embodiment, the battery 122 may be composed of a lithium-ion battery (Li-Ion Battery) consisting of two 24V/102A lithium-ion batteries connected in parallel, or a lead acid battery that is a rechargeable secondary battery. The battery 122 may be implemented as a built-in or replaceable type.

장애물 인식부(130)는 공항 로봇(100)의 주위에 위치하는 장애물을 감지할 수 있다. 이를 위해, 장애물 인식부(130)는 공항 로봇(100) 내 정보, 공항 로봇(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 감지하기 위한 하나 이상의 센서를 포함할 수 있다. 구체적으로, 장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136) 등을 포함할 수 있다. The obstacle recognition unit 130 can detect obstacles located around the airport robot 100. To this end, the obstacle recognition unit 130 may include one or more sensors for detecting at least one of information within the airport robot 100, information on the surrounding environment surrounding the airport robot 100, and user information. Specifically, the obstacle recognition unit 130 may include an IR remote control receiver 131, USS 132, Cliff PSD 133, ARS 134, Bumper 135, and OFS 136.

IR 리모콘 수신부(131)는 공항 로봇(100)을 원격 조정하기 위한 적외선(Infrared, IR) 리모컨의 신호를 감지하는 센서를 포함할 수 있다. 초음파 센서(Ultra Sonic Sensor: USS)(132)는 초음파의 특성을 이용하거나 초음파를 발생시켜 거리나 두께 및 움직임 등을 검출할 수 있다. 예를 들어, 초음파 센서(132)는 초음파 신호를 이용하여 장애물과 공항 로봇(100) 사이의 거리를 판단할 수 있다. Cliff PSD(133)는 360도 전 방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇(100)의 자세를 검출할 수 있는 센서를 포함할 수 있다. 이를 위해, ARS(134)는 공항 로봇(100)의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇(100)과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도의 범위에서 공항 로봇(100)과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇(100)의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇(100)의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.The IR remote control receiver 131 may include a sensor that detects a signal from an infrared (IR) remote control for remotely controlling the airport robot 100. The ultrasonic sensor (USS) 132 can detect distance, thickness, and movement by using the characteristics of ultrasonic waves or by generating ultrasonic waves. For example, the ultrasonic sensor 132 may determine the distance between an obstacle and the airport robot 100 using an ultrasonic signal. Cliff PSD 133 may include a sensor to detect cliffs or cliffs in the 360-degree omni-directional airport robot driving range. ARS (Attitude Reference System, 134) may include a sensor capable of detecting the attitude of the airport robot 100. To this end, the ARS 134 may include a sensor consisting of three acceleration axes and three gyro axes for detecting the rotation amount of the airport robot 100. Bumper 135 may include a sensor that detects a collision between the airport robot 100 and an obstacle. The sensor included in the bumper 135 can detect a collision between the airport robot 100 and an obstacle in a 360-degree range. The Optical Flow Sensor (OFS) 136 may include a sensor that can measure the spinning phenomenon of the airport robot 100 while driving and the driving distance of the airport robot 100 on various floor surfaces.

주행 구동부(140)는 공항 로봇(100)을 자율적으로 주행시킬 수 있다. 이를 위해, 주행 구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(Main Brush, 144), 사이드 브러시 모터(Side Brush, 145) 및 석션 모터(Suction, 146)를 포함할 수 있다. The travel driver 140 can drive the airport robot 100 autonomously. For this purpose, the traveling drive unit 140 includes motor drivers (Motor Drivers, 141), wheel motors (142), rotation motors (143), main brush motors (Main Brush, 144), side brush motors (Side Brush, 145), and It may include a suction motor (Suction, 146).

모터 드라이버(141)는 공항 로봇(100)의 주행 및 청소를 위한 휠 모터, 회전 모터, 브러시 모터 및 석션 모터를 구동할 수 있다. 휠 모터(142)는 공항 로봇(100)의 주행을 위하여 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇(100)의 메인 바디 또는 공항 로봇(100)의 헤드부의 좌우 회전 및 상하 회전을 위해 구동되거나, 공항 로봇(100)의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥(100)의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇(100)의 바깥 면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.The motor driver 141 can drive a wheel motor, a rotation motor, a brush motor, and a suction motor for driving and cleaning the airport robot 100. The wheel motor 142 can drive a plurality of wheels for the airport robot 100 to travel. The rotation motor 143 may be driven to rotate the main body of the airport robot 100 or the head of the airport robot 100 left and right and up and down, or may be driven to change the direction or rotate the wheels of the airport robot 100. there is. The main brush motor 144 may drive a brush that sweeps up dirt from the airport floor 100. The side brush motor 145 can drive a brush that sweeps away dirt from the area around the outer surface of the airport robot 100. The suction motor 146 may be driven to suction dirt from the airport floor.

어플리케이션 프로세서(Application Processor: AP(150)는 공항 로봇(100)의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치, 즉 제어부로서 기능할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 각종 센서들을 통해 입력된 위치 정보를 이용하여 주행을 위한 응용 프로그램을 구동하거나, 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하도록 제어할 수 있다. Application Processor (AP 150) may function as a central processing unit, that is, a control unit, that manages the entire hardware module system of the airport robot 100. Specifically, the application processor 150 receives input through various sensors. Using the location information, an application for driving can be run, or user input/output information can be transmitted to the microcomputer 110 to control the operation of a motor, etc.

유저 인터페이스부(160)는 사용자의 입출력을 담당하며, 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167) 등을 포함할 수 있다. The user interface unit 160 is responsible for user input and output, and includes a user interface processor (UI Processor) 161, an LTE router (162), a WIFI SSID (163), a microphone board (164), and a barcode reader (165). , may include a touch monitor 166 and a speaker 167.

유저 인터페이스 프로세서(161)는 유저 인터페이스부(160)의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi 신호 강도를 분석하여 특정 사물 또는 공항 로봇(100)의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.The user interface processor 161 may control the operation of the user interface unit 160. The LTE router 162 can receive necessary information from the outside and perform LTE communication to transmit information to the user. The WIFI SSID 163 can perform location recognition of a specific object or the airport robot 100 by analyzing WiFi signal strength. The microphone board 164 can receive a plurality of microphone signals, process the voice signal into voice data, which is a digital signal, and analyze the direction of the voice signal and the corresponding voice signal. The barcode reader 165 can read barcode information written on a plurality of tickets used at the airport. The touch monitor 166 may include a touch panel configured to receive user input and a monitor to display output information. The speaker 167 may perform the role of informing the user of specific information by voice.

오브젝트 인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)을 포함할 수 있다. The object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173.

2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하는 센서로 동작할 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)는 RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡쳐 영상들을 이용하여 사람 또는 사물을 검출하기 위한 센서로 동작할 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라 (172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.The 2D camera 171 may operate as a sensor that recognizes people or objects based on two-dimensional images. RGBD camera (Red, Green, Blue, Distance, 172) is a sensor for detecting people or objects using captured images with depth data obtained from cameras with RGBD sensors or other similar 3D imaging devices. It can work. The recognition data processing module 173 can recognize people or objects by processing signals such as 2D images/videos or 3D images/videos obtained from the 2D camera 171 and the RGBD camera 172.

위치 인식부(180)는 공항 로봇(100)의 현재 위치를 인식하며, 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. The location recognition unit 180 recognizes the current location of the airport robot 100 and may include a stereo board (Stereo B/D) 181, Lidar (182), and a SLAM camera (183).

스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여, 공항 로봇(100)의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 이에 의해, 공항 로봇(100)은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(LIght Detection And Ranging: LIDAR, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방 산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. The stereo board 181 processes and processes sensing data collected from the lidar 182 and the SLAM camera 183, and may be responsible for data management for location recognition and obstacle recognition of the airport robot 100. SLAM cameras (Simultaneous Localization And Mapping cameras, 183) can implement simultaneous location tracking and mapping technology. As a result, the airport robot 100 can detect surrounding environment information using the SLAM camera 183, process the obtained information, create a map corresponding to the mission performance space, and simultaneously estimate its absolute position. LIght Detection And Ranging (LIDAR, 182) is a laser radar and may be a sensor that performs location recognition by irradiating a laser beam and collecting and analyzing backscattered light among the light absorbed or scattered by aerosol.

랜(LAN, 190)은 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.The LAN 190 may communicate with the user interface processor 161, the recognition data processing module 173, the stereo board 181, and the AP 150.

한편, 도 1에 도시된 구성요소들은 공항 로봇(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 공항 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 즉, 본 발명의 일 실시 예에 의한 공항 로봇(100)은 자신이 수행하는 특화된 기능에 따라, 도 1에 도시된 구성요소들 중 일부만을 포함할 수 있다. 예를 들어, 공항 로봇(100)은 장애물이나 위치를 인식하기 위한 구성요소는 공통적으로 포함하고, 청소 또는 안내 역할에 특화된 구성 요소는 해당 기능을 수행하는 경우에만 포함할 수 있다.Meanwhile, the components shown in FIG. 1 are not essential for implementing the airport robot 100, so the airport robot 100 described in this specification includes more or fewer components than the components listed above. You can have it. That is, the airport robot 100 according to an embodiment of the present invention may include only some of the components shown in FIG. 1 depending on the specialized functions it performs. For example, the airport robot 100 may commonly include components for recognizing obstacles or locations, and may include components specialized for cleaning or guiding roles only when performing the corresponding functions.

도 2는 본 발명의 일 실시 예에 의한 공항 로봇의 소프트웨어 플랫폼의 구조를 도시한 도면이다. Figure 2 is a diagram showing the structure of a software platform of an airport robot according to an embodiment of the present invention.

공항 로봇(100)의 인지와 동작 및 주행을 제어하기 위하여, 마이컴(210) 과 어플리케이션 프로세서(220)는 실시 예에 따라 다양한 구조를 가지는 소프트웨어 플랫폼을 포함할 수 있다.In order to control the recognition, operation, and driving of the airport robot 100, the microcomputer 210 and the application processor 220 may include a software platform with various structures depending on the embodiment.

일 실시 예에 의하면, 도 2에 도시된 바와 같이, 마이컴(210)은 데이터 획득 모듈(Data Acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor Driver module, 213), 배터리 매니저 모듈(Battery Manager module, 214) 및 데이터 액세스 서비스 모듈(Data Access Service module, 215)을 포함할 수 있다.According to one embodiment, as shown in FIG. 2, the microcomputer 210 includes a data acquisition module (Data Acquisition module, 211), an emergency module (Emergency module, 212), and a motor driver module (Motor Driver module, 213). , It may include a battery manager module (214) and a data access service module (Data Access Service module (215)).

데이터 획득 모듈(211)은 공항 로봇(100)에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇(100)의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇(100)이 기 정해진 타입의 행동을 수행하는 경우 공항 로봇(100)이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇(100)의 주행 및 청소를 위하여 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 배터리(122)의 충전과 방전을 담당하고, 공항 로봇(100)의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(211), 이머전시 모듈(212), 모터 드라이버 모듈(213) 및 배터리 매니저 모듈(214)의 동작을 제어할 수 있다.The data acquisition module 211 may acquire sensed data from a plurality of sensors included in the airport robot 100 and transmit it to the data access service module 215. The emergency module 212 is a module that can detect an abnormal state of the airport robot 100. When the airport robot 100 performs a predetermined type of action, it detects that the airport robot 100 has entered an abnormal state. can do. The motor driver module 213 can manage drive control of the wheels, brushes, and suction motors for driving and cleaning of the airport robot 100. The battery manager module 214 is responsible for charging and discharging the battery 122 of FIG. 1 and can transmit the battery status of the airport robot 100 to the data access service module 215. The data access service module 215 may control the operations of the data acquisition module 211, the emergency module 212, the motor driver module 213, and the battery manager module 214.

어플리케이션 프로세서(220)는 각종 카메라 및 센서들로부터 사용자 입력 등을 수신하고, 이를 인식 및 가공하여 공항 로봇(100)의 동작을 제어할 수 있다. 이를 위해, 어플리케이션 프로세서(220)는 인터랙션 모듈(Interaction module, 221), 유저 인터페이스 모듈(U/I module, 222), 디스플레이부(223), 사용자 입력부(224), 상태 관리 모듈(State Machine module, 225), 플래닝 모듈(Planning module, 226), 네비게이션 모듈(Navigation module, 227) 및 모션 모듈(Motion module, 228) 등을 포함할 수 있다.The application processor 220 may receive user input from various cameras and sensors, recognize and process the input, and control the operation of the airport robot 100. To this end, the application processor 220 includes an interaction module (Interaction module, 221), a user interface module (U/I module, 222), a display unit 223, a user input unit 224, and a state machine module (State Machine module, 225), a planning module (226), a navigation module (227), and a motion module (228).

인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 조합하여, 사용자와 공항 로봇(100)이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. The interaction module 221 combines the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222, and provides software that allows the user and the airport robot 100 to interact with each other. ) may be a module that oversees.

유저 인터페이스 모듈(222)은 공항 로봇(100)의 현재 상황 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등을 통하여 입력된 사용자의 근거리 명령을 수신하거나, 공항 로봇(100)의 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되는 경우, 유저 인터페이스 모듈(222)은 상태 관리 모듈(225)로 사용자 입력 정보를 전달할 수 있다. The user interface module 222 receives the user's short-range commands input through the display unit 223, which is a monitor for providing current status and operation/information of the airport robot 100, and keys, touch screens, readers, etc. Receives or manages user input received from the user input unit 224, which receives a long-distance signal such as a signal from an IR remote control for remote control of the airport robot 100, or receives a user input signal from a microphone or barcode reader, etc. can do. When at least one user input is received, the user interface module 222 may transmit the user input information to the state management module 225.

사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇(100)의 전체 상태를 관리하고, 사용자 입력에 대응하는 적절한 명령을 내릴 수 있다.The state management module 225 that receives the user input information can manage the overall state of the airport robot 100 and issue appropriate commands in response to the user input.

플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇(100)의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇(100)이 어느 경로로 이동해야 하는지를 계산할 수 있다. The planning module 226 determines the start and end time/actions for a specific operation of the airport robot 100 according to the command received from the status management module 225, and determines which path the airport robot 100 should move. It can be calculated.

네비게이션 모듈(227)은 공항 로봇(100)의 주행 전반을 담당하는 기능을 수행하며, 플래닝 모듈(226)에서 계산된 주행 경로에 따라 공항 로봇(100)이 주행하도록 제어할 수 있다. The navigation module 227 performs the overall function of driving the airport robot 100 and can control the airport robot 100 to drive according to the driving path calculated by the planning module 226.

모션 모듈(228)은 주행 이외에 기본적인 공항 로봇(100)의 동작을 수행하도록 제어할 수 있다.The motion module 228 can be controlled to perform basic operations of the airport robot 100 in addition to driving.

또한, 본 발명의 일 실시 예에 의한 공항 로봇(100)은 위치 인식부 (230)와 맵 관리 모듈(240)을 포함할 수 있다.Additionally, the airport robot 100 according to an embodiment of the present invention may include a location recognition unit 230 and a map management module 240.

위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM Mono(232) 센서를 통해 공항 로봇(100)의 이동량을 보정하고, 일정한 시간 동안 공항 로봇(100)의 이동량을 계산할 수 있다. 또한, 상대 위치 인식부(231)는 LiDAR(233)를 통해 현재 공항 로봇(100)의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)를 포함할 수 있다. Wifi SSID(235)는 공항 로봇(100)의 절대 위치 인식을 위한 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi 신호 강도를 분석하여 공항 로봇(100)의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇(100)의 절대적 위치를 센싱할 수 있다.The location recognition unit 230 may include a relative location recognition unit 231 and an absolute location recognition unit 234. The relative position recognition unit 231 can correct the movement amount of the airport robot 100 through the RGM Mono (232) sensor and calculate the movement amount of the airport robot 100 for a certain period of time. Additionally, the relative position recognition unit 231 can recognize the current surrounding environment of the airport robot 100 through the LiDAR 233. The absolute location recognition unit 234 may include a Wifi SSID 235 and UWB 236. The Wifi SSID 235 is a sensor module for recognizing the absolute location of the airport robot 100, and is a WIFI module for estimating the current location through Wifi SSID detection. The Wifi SSID 235 can recognize the location of the airport robot 100 by analyzing the Wifi signal strength. The UWB 236 can sense the absolute position of the airport robot 100 by calculating the distance between the transmitter and the receiver.

맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇(100)이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇(100)에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇(100)들 사이의 협업을 위한 맵 구분에서, 공항 로봇(100)들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇(100) 한대가 동작하는 환경에서 공항 로봇(100)이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇(100)들이 각자 담당해야 할 구역을 실시간으로 계산할 수 있다.The map management module 240 may include a grid module 241, a path planning module 242, and a map division module 243. The grid module 241 can manage a grid-shaped map generated by the airport robot 100 through a SLAM camera or map data of the surrounding environment for location recognition input to the airport robot 100 in advance. The path planning module 242 may be responsible for calculating the driving paths of the airport robots 100 in dividing the map for collaboration between the plurality of airport robots 100. Additionally, the path planning module 242 can also calculate the driving path that the airport robot 100 must travel in an environment in which one airport robot 100 operates. The map division module 243 can calculate in real time the areas that each of the plurality of airport robots 100 should be responsible for.

위치 인식부(230)와 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터 들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230)와 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇(100)의 동작을 제어하도록 플래닝 모듈(226)에 제어명령을 내릴 수 있다.Data sensed and calculated from the location recognition unit 230 and the map management module 240 may be transmitted back to the state management module 225. The state management module 225 sends a control command to the planning module 226 to control the operation of the airport robot 100 based on the data sensed and calculated from the location recognition unit 230 and the map management module 240. You can get off.

도 2에 도시된 공항 로봇(100)의 소프트웨어 플랫폼 구조는 자신이 수행하는 특화된 기능에 따라 변경될 수 있다. 예를 들어, 공항 로봇(100)은 청소 또는 안내 역할을 수행하는지 여부에 따라, 공항 로봇(100)의 주행 제어와 관련된 상태 관리 모듈(225), 플래닝 모듈(226), 네비게이션 모듈(227) 및 모션 모듈(228) 등이 상이하게 구현될 수 있다.The software platform structure of the airport robot 100 shown in FIG. 2 can be changed depending on the specialized functions it performs. For example, the airport robot 100 may include a state management module 225, a planning module 226, a navigation module 227, and The motion module 228 and the like may be implemented differently.

도 3은 본 발명의 일 실시 예에 의한 공항 로봇 시스템의 구성을 도시한 도면이다.Figure 3 is a diagram showing the configuration of an airport robot system according to an embodiment of the present invention.

본 발명의 일 실시 예에 의한 공항 로봇 시스템은, 공항 로봇(100), 이동 단말기(200), 서버(300) 및 카메라(400)를 포함할 수 있다.The airport robot system according to an embodiment of the present invention may include an airport robot 100, a mobile terminal 200, a server 300, and a camera 400.

공항 로봇(100)은 공항 내를 자율 주행하며, 순찰, 안내, 청소, 방역 및 운반 등의 역할을 수행할 수 있다.The airport robot 100 drives autonomously within the airport and can perform roles such as patrolling, guiding, cleaning, quarantine, and transportation.

이를 위해, 공항 로봇(100)은 이동 단말기(200)와 서버(300) 및 카메라(400)중 적어도 하나와 통신을 수행할 수 있다. 예를 들어, 공항 로봇 (100)은 서버(300)와 공항 내 상황 정보 등을 포함한 데이터를 송수신할 수 있다. 또한, 공항 로봇(100)은 공항 내 설치된 카메라(400)로부터 공항의 각 구역들을 촬영한 영상 데이터를 수신할 수 있다. 이 경우, 공항 로봇(100)은 공항 로봇(100)이 촬영한 영상 데이터 및 카메라(400)로부터 수신한 영상 데이터에 기초하여 공항의 전체 상황을 모니터링 할 수 있다.To this end, the airport robot 100 may communicate with at least one of the mobile terminal 200, the server 300, and the camera 400. For example, the airport robot 100 can transmit and receive data including situation information within the airport with the server 300. Additionally, the airport robot 100 can receive image data captured from each area of the airport from the camera 400 installed within the airport. In this case, the airport robot 100 can monitor the overall situation of the airport based on the image data captured by the airport robot 100 and the image data received from the camera 400.

공항 로봇(100)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(100)에 구비된 디스플레이부를 터치하는 사용자 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(100)은 사용자, 서버(300), 또는 이동 단말기(200) 등으로부터 수신된 명령에 따라 공항 내를 자율 주행하며 순찰, 안내, 청소 등의 동작을 수행할 수 있다.The airport robot 100 can receive commands directly from the user. For example, a command can be received directly from the user through a user input that touches the display unit provided on the airport robot 100 or a voice input. The airport robot 100 can autonomously drive within the airport according to commands received from a user, server 300, or mobile terminal 200 and perform operations such as patrolling, guiding, and cleaning.

서버(300)는 공항 로봇(100), 이동 단말기(200) 및/또는 카메라(400) 로부터 정보를 수신할 수 있다. 서버(300)는 각 기기들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(300)는 저장된 정보들을 공항 로봇(100) 또는 이동 단말기(200)에 전송할 수 있다. 또한, 서버(300)는 공항에 배치된 복수의 공항 로봇(100)들 각각에 제어 명령을 전송할 수 있다.The server 300 may receive information from the airport robot 100, the mobile terminal 200, and/or the camera 400. The server 300 can integrate, store, and manage information received from each device. The server 300 may transmit the stored information to the airport robot 100 or the mobile terminal 200. Additionally, the server 300 may transmit a control command to each of the plurality of airport robots 100 deployed at the airport.

카메라(400)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(400)는 공항 내에 설치된 복수 개의 CCTV(Closed Circuit TeleVision) 카메라, 적외선 열감지 카메라 등을 포함할 수 있다. 카메라(400)는 촬영된 영상을 공항 로봇(100), 이동 단말기(200) 및 서버(300) 중 적어도 하나에 전송할 수 있다.The camera 400 may include a camera installed within the airport. For example, the camera 400 may include a plurality of CCTV (Closed Circuit TeleVision) cameras installed within the airport, an infrared heat detection camera, etc. The camera 400 may transmit the captured image to at least one of the airport robot 100, the mobile terminal 200, and the server 300.

이동 단말기(200)는 공항 내 서버(300)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(200)는 서버(300)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(200)를 통해 공항에서 필요한 정보를 서버(300)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(200)는 서버(300)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 찾고자 하는 미아 사진을 서버(300)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(300)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.The mobile terminal 200 can transmit and receive data with the server 300 within the airport. For example, the mobile terminal 200 may receive airport-related data such as flight time schedule, airport map, etc. from the server 300. The user can obtain necessary information by receiving it from the server 300 at the airport through the mobile terminal 200. Additionally, the mobile terminal 200 can transmit data such as photos, videos, messages, etc. to the server 300. For example, a user can register a lost child by sending a photo of a missing child they are looking for to the server 300, or request cleaning of the area by taking a photo of an area that needs cleaning in the airport with a camera and sending it to the server 300. there is.

또한, 이동 단말기(200)는 공항 로봇(100)과 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(200)는 공항 로봇(100)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(100)으로 전송할 수 있다. 공항 로봇(100)은 이동 단말기(200)로부터 수신된 호출 신호에 응답하여 이동 단말기(200)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(100)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(200)로 전송할 수 있다.Additionally, the mobile terminal 200 can transmit and receive data with the airport robot 100. For example, the mobile terminal 200 may transmit a signal calling the airport robot 100, a signal commanding the airport robot 100 to perform a specific operation, or an information request signal to the airport robot 100. The airport robot 100 may move to the location of the mobile terminal 200 in response to a call signal received from the mobile terminal 200 or perform an operation corresponding to a command signal. Alternatively, the airport robot 100 may transmit data corresponding to the information request signal to each user's mobile terminal 200.

이하에서는, 상기와 같이 구성되는 공항 로봇이 공항 내를 자율 주행하는 경우에 있어서, 장애물의 감지 여부 및 감지 정도에 기초하여 주행 속도를 조절하는 다양한 실시 예들에 대해 상세하게 설명하기로 한다.Hereinafter, various embodiments of adjusting the driving speed based on whether and how much an obstacle is detected when the airport robot configured as above autonomously drives within the airport will be described in detail.

사람과의 거리에 따른 주행 Driving according to distance from people 속도의 제어control of speed

도 4는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.Figure 4 is a diagram showing the driving process of an airport robot according to an embodiment of the present invention.

본 발명의 일 실시 예에 의하면, 공항 로봇(100)은 사람과의 거리에 대응하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람과 가까워질수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇(100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수 있다.According to an embodiment of the present invention, the airport robot 100 can adjust its traveling speed in response to the distance from the person. Specifically, when the airport robot 100 detects a person, the driving speed may decrease as it gets closer to the person. Additionally, the airport robot 100 may increase its traveling speed as it moves away from a person.

도 4에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S401).As shown in FIG. 4, the airport robot 100 begins driving within the airport (S401).

공항 로봇(100)은 공항 이용객들에게 서비스를 제공하거나 자신의 역할을 수행하기 위하여, 공항 내를 자율 주행하거나 공항 내의 정해진 경로를 주행할 수 있다. 자율 주행하는 경우, 공항 로봇(100)은 공항 바닥의 라인이나 GPS 장비 없이, 자율적으로 경로를 생성하여 목적지를 향해 주행할 수 있다. 정해진 경로를 주행하는 경우, 공항 로봇(100)은 공항 바닥의 라인을 따라가거나 기 설정된 경로를 주행할 수 있다.The airport robot 100 can autonomously drive within the airport or travel a designated route within the airport in order to provide services to airport users or perform its role. When driving autonomously, the airport robot 100 can autonomously create a route and drive toward the destination without lines on the airport floor or GPS equipment. When driving on a predetermined route, the airport robot 100 may follow a line on the airport floor or travel on a preset route.

공항 로봇(100)이 제공하는 서비스는, 안내, 순찰, 감시, 알림, 광고, 청소, 물품 배달 및 운반 등을 포함할 수 있다. 이 경우, 공항 로봇(100)은 적어도 어느 하나의 서비스에 특화되어 해당 서비스만을 제공하거나, 특화된 서비스 없이 사용자 또는 관리자가 요청하는 모든 종류의 서비스를 제공할 수 있다.Services provided by the airport robot 100 may include guidance, patrol, surveillance, notification, advertising, cleaning, and delivery and transportation of goods. In this case, the airport robot 100 may specialize in at least one service and provide only that service, or may provide all types of services requested by a user or administrator without a specialized service.

일 실시 예에 의하면, 공항 로봇(100)은 해당 공항 로봇(100)이 제공하는 서비스의 종류에 대응하여, 공항 내를 자율 주행하거나 공항 내의 정해진 경로를 주행할 수 있다. 예를 들어, 안내 또는 물품 배달 서비스를 제공하는 공항 로봇(100)은 공항 내를 자율 주행할 수 있다. 또한, 청소 또는 감시 서비스를 제공하는 공항 로봇(100)은 자신에게 할당된 일정 구역 내의 정해진 경로를 주행할 수 있다. According to one embodiment, the airport robot 100 may autonomously drive within the airport or travel a designated route within the airport in response to the type of service provided by the airport robot 100. For example, the airport robot 100 that provides guidance or product delivery services can autonomously drive within the airport. Additionally, the airport robot 100, which provides cleaning or surveillance services, can travel a set route within a certain area allocated to it.

공항 로봇(100)은 주행 경로 주위의 장애물을 감지한다(S402).The airport robot 100 detects obstacles around the driving path (S402).

공항 로봇(100)은 공항 내부에 대한 지도 정보 및/또는 공항 로봇(100)의 장애물 인식부(130)가 센싱한 데이터에 기초하여, 주행 경로 주위에 위치한 장애물을 감지할 수 있다. The airport robot 100 may detect obstacles located around the driving path based on map information about the interior of the airport and/or data sensed by the obstacle recognition unit 130 of the airport robot 100.

구체적으로, 공항 로봇(100)의 어플리케이션 프로세서(150)는, 위치 인식부(180)가 인식한 공항 로봇(100)의 현재 위치를 공항 내부에 대한 지도 정보와 비교하여, 주행 경로 주위에 위치한 장애물을 감지할 수 있다. 이를 위해, 공항 로봇(100)은 공항 내부에 대한 지도 정보를 내부 메모리에 저장하거나, 서버(300)로부터 수신할 수 있다.Specifically, the application processor 150 of the airport robot 100 compares the current location of the airport robot 100 recognized by the location recognition unit 180 with map information about the inside of the airport to detect obstacles located around the driving path. can be detected. To this end, the airport robot 100 can store map information about the inside of the airport in its internal memory or receive it from the server 300.

또한, 공항 로봇(100)의 장애물 인식부(130)는 다양한 종류의 센서들에 의해 주행 경로 주위에 위치하는 장애물을 감지할 수 있다. 예를 들어, 장애물 인식부(130)는 소정 방향으로 송신한 레이저나 초음파 등이 반사되어 되돌아오는지 여부를 측정함으로써, 장애물의 존재 여부 및 위치를 측정할 수 있다.Additionally, the obstacle recognition unit 130 of the airport robot 100 can detect obstacles located around the driving path using various types of sensors. For example, the obstacle recognition unit 130 can measure the presence and location of an obstacle by measuring whether a laser or ultrasonic wave transmitted in a predetermined direction is reflected and returned.

이 경우, 공항 로봇(100)은 장애물을 보다 정확하게 감지하기 위하여, 공항 내부에 대한 지도 정보와 장애물 인식부(130)가 센싱한 데이터를 모두 이용할 수도 있다.In this case, the airport robot 100 may use both map information about the interior of the airport and data sensed by the obstacle recognition unit 130 to detect obstacles more accurately.

공항 로봇(100)은 사람이 감지되는지 판단한다(S403).The airport robot 100 determines whether a person is detected (S403).

이를 위해, 공항 로봇(100)은 오브젝트의 움직임 유무, 감지 온도 및 소리 중 적어도 하나에 기초하여, 해당 오브젝트가 물체인지 또는 사람인지 여부를 구분하여 감지할 수 있다.To this end, the airport robot 100 can detect whether the object is an object or a person based on at least one of the object's movement, detected temperature, and sound.

사람이 감지된다고 판단되면(S403-Yes), 공항 로봇(100)은 공항 로봇 (100)과 사람과의 거리를 측정한다(S404).If it is determined that a person is detected (S403-Yes), the airport robot 100 measures the distance between the airport robot 100 and the person (S404).

공항 로봇(100)의 장애물 인식부(130)는 다양한 종류의 센서들에 의해 주행 경로 주위에 위치하는 사람과의 거리를 감지할 수 있다. 예를 들어, 장애물 인식부(130)는 소정 방향으로 송신한 레이저나 초음파 등이 사람에 반사되어 되돌아오는 시간을 측정함으로써, 공항 로봇(100)과 사람과의 거리를 측정할 수 있다. The obstacle recognition unit 130 of the airport robot 100 can detect the distance to people located around the driving path using various types of sensors. For example, the obstacle recognition unit 130 can measure the distance between the airport robot 100 and the person by measuring the time it takes for a laser or ultrasonic wave, etc. transmitted in a predetermined direction, to be reflected by the person and return.

한편, S403 단계에서 사람이 감지되지 않는다고 판단되면(S403-No), 공항 로봇(100)은 S401 단계로 되돌아가 공항 내 주행을 계속한다.Meanwhile, if it is determined that no person is detected in step S403 (S403-No), the airport robot 100 returns to step S401 and continues driving within the airport.

공항 로봇(100)은 측정된 거리에 기초하여 주행 속도를 조절한다(S405).The airport robot 100 adjusts its traveling speed based on the measured distance (S405).

구체적으로, 공항 로봇(100)은 정상 속도로 주행 중 사람을 감지하는 경우, 사람과 가까워질수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇 (100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수 있다.Specifically, when the airport robot 100 detects a person while driving at a normal speed, the airport robot 100 may reduce the driving speed as it gets closer to the person. Additionally, the airport robot 100 can increase its traveling speed as it moves away from a person.

도 5a 내지 도 5c는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.5A to 5C are diagrams for explaining a driving method of an airport robot according to an embodiment of the present invention.

도 5a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 이 경우, 공항 로봇 (100)은 주행 방향의 전방에 위치한 사람을 감지한다.Figure 5a shows a case where the airport robot 100 is traveling normally. The airport robot 100 is traveling inside the airport at a predetermined speed, that is, 2 km/h. In this case, the airport robot 100 detects a person located ahead in the driving direction.

도 5b와 도 5c는 공항 로봇(100)이 사람과의 거리에 대응하여 주행 속도를 조절하는 경우이다. 사람이 감지되는 경우, 공항 로봇(100)은 사람과의 거리에 대응하여 주행 속도를 조절한다. 공항 로봇(100)은 도 5b에 도시된 바와 같이 사람이 가까워지면 주행 속도를 1.5km/h로 감소시키고, 도 5c에 도시된 바와 같이 사람이 좀더 가까워지면 주행 속도를 0.5km/h로 감소시킨다.Figures 5b and 5c show a case where the airport robot 100 adjusts its traveling speed in response to the distance from the person. When a person is detected, the airport robot 100 adjusts its driving speed in response to the distance from the person. The airport robot 100 reduces the traveling speed to 1.5 km/h when a person approaches, as shown in FIG. 5B, and reduces the traveling speed to 0.5 km/h when a person approaches, as shown in FIG. 5C. .

한편, 공항 로봇(100)은 사람을 지나치는 경우, 사람을 감지하기 전에 공항 로봇(100)이 주행하던 소정 속도, 즉 2km/h로 주행 속도를 증가시켜 주행을 계속할 수 있다. 또한, 공항 로봇(100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수도 있다.Meanwhile, when the airport robot 100 passes a person, it can continue driving by increasing the driving speed to the predetermined speed at which the airport robot 100 was traveling before detecting the person, that is, 2 km/h. Additionally, the airport robot 100 may increase its driving speed as it moves away from a person.

기존의 로봇은 장애물과의 충돌을 회피하기 위하여, 장애물의 존재가 감지되는 경우 로봇의 주행 경로를 변경한다. 그러나, 사람이 많이 밀집되어 있는 공항을 주행하는 로봇의 경우 이와 같은 주행 방법이 효율적이지 못하다. 예를 들어, 로봇이 주행 방향을 전환하더라도 전환한 주행 방향에 또 다른 사람이 존재할 가능성이 높다. 이 경우, 로봇은 주행 방향을 다시 탐색하여야 한다. 또한, 로봇의 주행 경로 전방의 전 방향에 사람이 존재하여, 로봇이 지나온 길로 방향을 전환하여 되돌아갈 수도 있다. 따라서, 공항 로봇에는 장애물을 감지하면 주행 방향을 전환하여 충돌을 회피하는 기존의 주행 방법 대신, 새로운 주행 방법이 적용되어야 한다.Existing robots change their driving path when the presence of an obstacle is detected in order to avoid collision with an obstacle. However, in the case of a robot driving in an airport with a large concentration of people, this driving method is not efficient. For example, even if the robot changes direction, there is a high possibility that there will be another person in the changed direction. In this case, the robot must search the traveling direction again. Additionally, since there are people in all directions ahead of the robot's traveling path, the robot may change direction and return to the path it came on. Therefore, a new driving method should be applied to airport robots instead of the existing driving method of avoiding collisions by changing the driving direction when detecting an obstacle.

본 발명의 일 실시 예에 의하면, 공항 로봇은 장애물의 감지 유무에 따라 주행 속도를 가변적으로 운용한다. 이에 의해, 공항의 장소적 특성에 맞게, 공항 로봇은 장애물과의 충돌을 회피하며 효율적인 주행을 할 수 있다. According to one embodiment of the present invention, the airport robot operates its traveling speed variably depending on whether or not an obstacle is detected. As a result, the airport robot can drive efficiently while avoiding collisions with obstacles, in accordance with the location characteristics of the airport.

사람의 밀집도에 따른 주행 속도의 제어Control of driving speed according to human density

도 6은 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.Figure 6 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.

본 발명의 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 밀집도에 기초하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람의 밀집도가 클수록 주행 속도를 감소시킬 수 있다. 예를 들어, 공항 로봇(100)은 감지되는 인원이 많으면 주행 속도를 줄일 수 있다. 반면, 공항 로봇(100)은 공항 내 혼잡도가 적은 경우 주행 속도를 증가시킬 수 있다.According to another embodiment of the present invention, the airport robot 100 can adjust its traveling speed based on the density of people. Specifically, when the airport robot 100 detects a person, the driving speed may decrease as the density of people increases. For example, the airport robot 100 may reduce its driving speed if there are many people detected. On the other hand, the airport robot 100 can increase its driving speed when there is little congestion in the airport.

도 6에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S601).As shown in FIG. 6, the airport robot 100 begins driving within the airport (S601).

공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S602).The airport robot 100 detects obstacles around the driving path (S602).

공항 로봇(100)은 사람이 감지되는지 판단한다(S603).The airport robot 100 determines whether a person is detected (S603).

상기 S601 단계 내지 S603 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다. Since steps S601 to S603 have already been described in FIG. 4, detailed description thereof will be omitted.

사람이 감지된다고 판단되면(S603-Yes), 공항 로봇(100)은 사람의 밀집도를 측정한다(S604).If it is determined that a person is detected (S603-Yes), the airport robot 100 measures the density of people (S604).

공항 로봇(100)의 어플리케이션 프로세서(150)는 오브젝트 인식부(170)가 획득한 2차원 영상 및 인식한 사람에 기초하여, 주행 경로 주위의 사람의 밀집도를 판단할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 2차원 영상을 분석하여 주행 경로 주위의 영역에 위치한 사람 수를 계산하고, 해당 영역의 넓이를 사람 수로 나눈 값을 계산함으로써, 주행 경로 주위의 사람의 밀집도를 판단할 수 있다.The application processor 150 of the airport robot 100 may determine the density of people around the driving path based on the two-dimensional image acquired by the object recognition unit 170 and the recognized person. Specifically, the application processor 150 analyzes the two-dimensional image, calculates the number of people located in the area around the driving path, and determines the density of people around the driving path by calculating the area of the area divided by the number of people. can do.

이를 위해, 오브젝트 인식부(170)는 다양한 종류의 센서들에 의해 주행 경로 주위의 2차원 영상을 획득하고, 획득한 영상을 기반으로 사람 또는 사물을 인식할 수 있다.To this end, the object recognition unit 170 can acquire two-dimensional images around the driving path using various types of sensors and recognize people or objects based on the acquired images.

한편, S603단계에서 사람이 감지되지 않는다고 판단되면(S603-No), 공항 로봇(100)은 S601 단계로 되돌아가 공항 내 주행을 계속한다.Meanwhile, if it is determined that no person is detected in step S603 (S603-No), the airport robot 100 returns to step S601 and continues driving within the airport.

공항 로봇(100)은 측정된 밀집도에 기초하여 주행 속도를 조절한다(S605).The airport robot 100 adjusts its traveling speed based on the measured density (S605).

구체적으로, 공항 로봇(100)은 정상 속도로 주행 중 주행 경로 주위의 영역에 사람을 감지하는 경우, 사람의 밀집도가 기준값 이상이면 사람의 밀집도가 높을수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇(100)은 사람의 밀집도가 낮을수록 주행 속도를 증가시킬 수 있다.Specifically, when the airport robot 100 detects a person in an area around the driving path while driving at a normal speed, if the density of people is greater than a reference value, the airport robot 100 may reduce the driving speed as the density of people increases. Additionally, the airport robot 100 can increase its traveling speed as the density of people decreases.

한편, 실시 예에 따라, 공항 로봇(100)은 시간대 별로 달라지는 공항 내 혼잡도에 대응하여 주행 속도를 조절할 수도 있다. 예를 들어, 공항의 이용객 수는 시간대 별로 달라진다. 따라서, 공항 로봇(100)은 주행 경로 주위의 사람의 밀집도를 판단하지 않고도, 혼잡도가 높은 시간대에는 주행 속도를 감소시키고 혼잡도가 낮은 시간대에는 주행 속도를 증가시킬 수 있다.Meanwhile, depending on the embodiment, the airport robot 100 may adjust its driving speed in response to the level of congestion within the airport that varies depending on the time zone. For example, the number of passengers at an airport varies depending on the time of day. Accordingly, the airport robot 100 can reduce the driving speed during times of high congestion and increase the driving speed during times of low congestion without determining the density of people around the driving path.

도 7a 내지 도 7c는 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.7A to 7C are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.

도 7a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 이 경우, 공항 로봇 (100)은 주행 방향의 전방에 사람을 위치하는 것을 감지한다.Figure 7a shows a case where the airport robot 100 is traveling normally. The airport robot 100 is traveling inside the airport at a predetermined speed, that is, 2 km/h. In this case, the airport robot 100 detects that a person is located in front of the traveling direction.

도 7b와 도 7c는 공항 로봇(100)이 사람의 밀집도에 대응하여 주행 속도를 조절하는 경우이다. 사람이 감지되는 경우, 공항 로봇(100)은 사람의 밀집도를 판단하고, 사람의 밀집도에 대응하여 주행 속도를 조절한다. 공항 로봇(100)은 도 7b에 도시된 바와 같이 사람의 밀집도가 기준값 이상이면 주행 속도를 1.5km/h로 감소시킨다. 또한, 공항 로봇(100)은 도 7c에 도시된 바와 같이 사람의 밀집도가 좀더 높으면 주행 속도를 0.5km/h로 감소시킨다. 도 7b보다 도 7c가 사람의 밀집도가 더 높으므로, 공항 로봇(100)은 도 7b 의 경우보다 도 7c의 경우에서 보다 낮은 주행 속도로 주행하게 된다.Figures 7b and 7c show a case where the airport robot 100 adjusts its traveling speed in response to the density of people. When a person is detected, the airport robot 100 determines the density of people and adjusts the driving speed in response to the density of people. As shown in FIG. 7B, the airport robot 100 reduces its traveling speed to 1.5 km/h when the human density is greater than the reference value. In addition, the airport robot 100 reduces the traveling speed to 0.5 km/h when the density of people is higher, as shown in FIG. 7C. Since the density of people in FIG. 7C is higher than in FIG. 7B, the airport robot 100 travels at a lower traveling speed in FIG. 7C than in FIG. 7B.

한편, 공항 로봇(100)은 사람의 밀집도가 기준값 이상으로 낮아지는 경우, 공항 로봇(100)이 정상적으로 주행하던 소정 속도, 즉 2km/h로 주행 속도를 증가시켜 주행을 계속할 수 있다.Meanwhile, when the human density decreases below the standard value, the airport robot 100 can continue driving by increasing the driving speed to the predetermined speed at which the airport robot 100 normally travels, that is, 2 km/h.

도 6 내지 도 7c에 도시된 바와 같이, 본 발명의 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 밀집도에 따라 주행 속도를 가변적으로 조정한다. 사람의 밀집도가 높아질수록 공항 로봇(100)이 사람과 충돌할 가능성은 높아진다. 따라서, 사람의 밀집도가 높아지면 공항 로봇(100)은 주행 속도를 낮춤으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 공항의 실시간 혼잡도 등의 주변 상황을 반영하여 장애물과의 충돌을 회피하는 주행을 할 수 있다.As shown in FIGS. 6 to 7C, according to another embodiment of the present invention, the airport robot 100 variably adjusts its traveling speed according to the density of people. As the density of people increases, the possibility of the airport robot 100 colliding with people increases. Accordingly, when the density of people increases, the airport robot 100 lowers its traveling speed, thereby lowering the possibility of a collision accident between the airport robot 100 and a person and preventing such accidents. As a result, the airport robot 100 can drive to avoid collisions with obstacles by reflecting surrounding conditions, such as real-time congestion at the airport.

일정 영역 이내에 사람이 존재하는 경우 주행의 중단Stop driving if there are people within a certain area

도 8은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.Figure 8 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.

본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 일정 영역 이내에 사람이 감지되면 주행을 중단할 수 있다. 구체적으로, 공항 로봇(100)은 주행 중 주행 경로로부터 일정 거리 내에 위치하는 사람을 감지하는 경우, 주행을 중단할 수 있다. According to another embodiment of the present invention, the airport robot 100 may stop driving when a person is detected within a certain area. Specifically, the airport robot 100 may stop driving when it detects a person located within a certain distance from the driving path while driving.

도 8에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S801).As shown in FIG. 8, the airport robot 100 begins driving within the airport (S801).

공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S802).The airport robot 100 detects obstacles around the driving path (S802).

상기 S801 단계 내지 S802 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다. Since steps S801 to S802 have already been described in FIG. 4, detailed description thereof will be omitted.

공항 로봇(100)은 일정 영역 이내에 사람이 감지되는지 판단한다(S803).The airport robot 100 determines whether a person is detected within a certain area (S803).

일정 영역은 공항 로봇(100)의 주행 경로로부터 소정 거리 내의 영역일 수 있다. 이 경우, 일정 영역은 서로 충돌할 가능성이 높은 공항 로봇(100)과 사람간의 소정 거리에 기초하여 설정될 수 있다. 예를 들어, 소정 거리는 50cm일 수 있다. The certain area may be an area within a certain distance from the driving path of the airport robot 100. In this case, a certain area may be set based on a certain distance between the airport robot 100 and a person, who are likely to collide with each other. For example, the predetermined distance may be 50 cm.

일 실시 예에 의하면, 일정 영역의 크기는 공항 로봇(100)이 제공하는 서비스의 특성에 대응하여 설정될 수 있다. 예를 들어, 사람과의 인터페이스가 필요한 서비스(예를 들어, 안내, 광고 등)를 제공하는 공항 로봇(100)의 경우, 사람이 공항 로봇(100)에 접근할 가능성이 높다. 따라서, 공항 로봇(100)과 사람이 충돌할 가능성이 상대적으로 높으므로, 멀리 있는 사람을 감지하더라도 주행을 중단할 수 있도록 일정 영역의 크기는 크게 설정된다. 반면, 일반적으로 사람과의 인터페이스가 필요하지 않은 서비스(예를 들어, 순찰, 감시, 방역 등)를 제공하는 공항 로봇(100)의 경우 사람이 공항 로봇(100)에 접근할 가능성이 낮다. 따라서, 공항 로봇(100)과 사람이 충돌할 가능성이 상대적으로 낮으므로, 가까운 곳에 있는 사람을 인식하는 경우에만 주행을 중단할 수 있도록 일정 영역의 크기는 작게 설정된다.According to one embodiment, the size of a certain area may be set in accordance with the characteristics of the service provided by the airport robot 100. For example, in the case of an airport robot 100 that provides services (eg, guidance, advertising, etc.) that require an interface with a person, there is a high possibility that a person will approach the airport robot 100. Therefore, since the possibility of a collision between the airport robot 100 and a person is relatively high, the size of the certain area is set large so that driving can be stopped even if a person from a distance is detected. On the other hand, in the case of the airport robot 100, which generally provides services that do not require interface with humans (e.g., patrol, surveillance, quarantine, etc.), it is unlikely that a person will approach the airport robot 100. Therefore, since the possibility of a collision between the airport robot 100 and a person is relatively low, the size of a certain area is set small so that driving can be stopped only when a person nearby is recognized.

다른 실시 예에 의하면, 공항 로봇(100)은 공항 내 혼잡도, 주위 영역의 사람의 밀집도 및 시간대 중 적어도 어느 하나에 기초하여, 일정 영역의 크기를 조정할 수 있다. 예를 들어, 공항이 혼잡한 시간대에는 공항 로봇(100)과 사람 간의 충돌 가능성이 상대적으로 높으므로, 일정 영역의 크기를 좁게 설정하여 상호간의 충돌을 회피하며 주행할 수 있다. 반면, 공항이 한가한 시간대에는 상호 간의 충돌 가능성이 상대적으로 낮으므로, 일정 영역의 크기를 크게 설정하여 주행할 수 있다.According to another embodiment, the airport robot 100 may adjust the size of a certain area based on at least one of the congestion level within the airport, the density of people in the surrounding area, and the time of day. For example, during busy times at the airport, the possibility of a collision between the airport robot 100 and a person is relatively high, so the robot 100 can drive while avoiding collisions by setting the size of a certain area narrowly. On the other hand, during times when the airport is not busy, the possibility of mutual collision is relatively low, so the size of a certain area can be set to be large for driving.

일정 영역 이내에 사람이 감지된다고 판단되면(S803-Yes), 공항 로봇(100)은 주행을 중단한다(S804).If it is determined that a person is detected within a certain area (S803-Yes), the airport robot 100 stops driving (S804).

공항 로봇(100)은 오브젝트의 움직임 유무, 감지 온도 및 소리 중 적어도 하나에 기초하여, 해당 오브젝트가 물체인지 또는 사람인지 여부를 구분하여 감지할 수 있다. 이를 위해, 오브젝트 인식부(170)는 다양한 종류의 센서들에 의해 주행 경로 주위의 2차원 영상을 획득하고, 획득한 영상을 기반으로 사람 또는 사물을 인식할 수 있다.The airport robot 100 can detect whether the object is an object or a person based on at least one of the object's movement, detected temperature, and sound. To this end, the object recognition unit 170 can acquire two-dimensional images around the driving path using various types of sensors and recognize people or objects based on the acquired images.

한편, S803단계에서 사람이 감지되지 않는다고 판단되면(S803-No), 공항 로봇(100)은 S801 단계로 되돌아가 공항 내 주행을 계속한다.Meanwhile, if it is determined that no person is detected in step S803 (S803-No), the airport robot 100 returns to step S801 and continues driving within the airport.

공항 로봇(100)은 일정 영역 이내에 사람이 감지되지 않는지 판단한다 (S805).The airport robot 100 determines whether a person is detected within a certain area (S805).

일정 영역 이내에 사람이 감지되지 않는다고 판단되면(S805-Yes), 공항 로봇(100)은 공항 내 영역을 재 주행한다(S806). 반면, 사람이 감지된다고 판단되면(S805-No), 공항 로봇(100)은 S804 단계로 되돌아가 주행 중단 상태를 계속 유지한다.If it is determined that no people are detected within a certain area (S805-Yes), the airport robot 100 re-runs the area within the airport (S806). On the other hand, if it is determined that a person is detected (S805-No), the airport robot 100 returns to step S804 and continues to maintain the driving stop state.

도 9a와 도 9b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.9A and 9B are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.

도 9a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 도 9a에 도시된 바와 같이, 현재 일정 영역, 즉 공항 로봇(100)의 주행 경로로부터 소정 거리 내의 영역에 존재하는 사람은 없다.Figure 9a shows a case where the airport robot 100 is traveling normally. The airport robot 100 is traveling inside the airport at a predetermined speed, that is, 2 km/h. As shown in FIG. 9A, there is currently no person existing in a certain area, that is, an area within a certain distance from the driving path of the airport robot 100.

도 9b는 공항 로봇(100)이 주행을 중단하는 경우이다. 공항 로봇(100)은 주행 경로로부터 소정 거리내의 영역인 일정 영역에 사람이 존재하는 것을 감지하는 경우, 주행을 중단한다. 도 9b에서, 일정 영역은 공항 로봇(100)의 주행 경로에서 소정 반경 내의 영역, 즉 동심원 형태로 도시된 영역이다. 해당 영역에서 사람이 감지되므로, 공항 로봇(100)은 주행을 중단한다.Figure 9b shows a case where the airport robot 100 stops traveling. When the airport robot 100 detects the presence of a person in a certain area, which is an area within a certain distance from the driving path, it stops driving. In FIG. 9B, the predetermined area is an area within a predetermined radius on the driving path of the airport robot 100, that is, an area shown in the form of concentric circles. Since a person is detected in the area, the airport robot 100 stops driving.

한편, 공항 로봇(100)은 주행 중단 중인 상태에서 일정 영역 내에 사람이 존재하는지 여부를 계속 감지하고, 사람이 존재하지 않게 되는 경우 재 주행을 시작할 수 있다.Meanwhile, the airport robot 100 continues to detect whether a person exists within a certain area while driving is stopped, and when no person exists, it can start driving again.

도 8 내지 도 9b에 도시된 바와 같이, 본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 일정 영역 내에 사람이 존재하는 경우 주행을 중단한다. 일정 영역 내에 사람이 존재하는 경우, 공항 로봇(100)과 사람이 충돌할 가능성은 높아진다. 따라서, 일정 영역 내에 사람이 위치하는 경우 공항 로봇(100)은 주행을 중단함으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 장애물과의 충돌을 효율적으로 회피하는 주행을 할 수 있다.As shown in FIGS. 8 to 9B, according to another embodiment of the present invention, the airport robot 100 stops traveling when a person exists within a certain area. If a person exists within a certain area, the possibility of a collision between the airport robot 100 and the person increases. Therefore, when a person is located within a certain area, the airport robot 100 stops driving, thereby lowering the possibility of a collision accident between the airport robot 100 and a person and preventing such an accident. As a result, the airport robot 100 can travel to efficiently avoid collisions with obstacles.

사람의 신장에 따른 주행 속도 제어Driving speed control according to person's height

도 10은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.Figure 10 is a diagram showing the driving process of an airport robot according to another embodiment of the present invention.

본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 신장에 기초하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람의 신장이 작을수록 주행 속도를 감소시킬 수 있다. According to another embodiment of the present invention, the airport robot 100 can adjust its traveling speed based on the person's height. Specifically, when the airport robot 100 detects a person, the traveling speed may decrease as the person's height becomes shorter.

도 10에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S1001).As shown in FIG. 10, the airport robot 100 begins driving within the airport (S1001).

공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S1002).The airport robot 100 detects obstacles around the driving path (S1002).

공항 로봇(100)은 사람이 감지되는지 판단한다(S1003).The airport robot 100 determines whether a person is detected (S1003).

상기 S1001 단계 내지 S1003 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다. Since steps S1001 to S1003 have already been described in FIG. 4, detailed description thereof will be omitted.

사람이 감지된다고 판단되면(S1003-Yes), 공항 로봇(100)은 감지된 사람의 신장을 측정한다(S1004).If it is determined that a person is detected (S1003-Yes), the airport robot 100 measures the height of the detected person (S1004).

일 실시 예에 의하면, 공항 로봇(100)의 어플리케이션 프로세서(150)는 오브젝트 인식부(170)가 획득한 실시간 2차원 영상에 기초하여 사람의 신장을 측정할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 실시간 2차원 영상 화면에서 기준선을 표시하고, 기준선에 위치한 사용자의 이미지를 촬영하여 이 이미지에서 사용자의 머리끝을 인식할 수 있다. 이 경우, 어플리케이션 프로세서(150)는 기준선에서부터 촬영 이미지의 상단까지의 높이에 대한 머리끝 높이의 비율을 확인하여, 확인된 비율과 기준선에서부터 촬영 이미지의 상단까지의 실제 높이를 토대로, 사람의 신장을 측정할 수 있다.According to one embodiment, the application processor 150 of the airport robot 100 may measure a person's height based on the real-time two-dimensional image acquired by the object recognition unit 170. Specifically, the application processor 150 may display a reference line on a real-time two-dimensional image screen, capture an image of the user located at the reference line, and recognize the tip of the user's head from this image. In this case, the application processor 150 checks the ratio of the height of the tip of the head to the height from the baseline to the top of the captured image, and determines the person's height based on the confirmed ratio and the actual height from the baseline to the top of the captured image. It can be measured.

한편, S1003단계에서 사람이 감지되지 않는다고 판단되면(S1003-No), 공항 로봇(100)은 S1001 단계로 되돌아가 공항 내 주행을 계속한다.Meanwhile, if it is determined that no person is detected in step S1003 (S1003-No), the airport robot 100 returns to step S1001 and continues driving within the airport.

공항 로봇(100)은 측정된 신장에 기초하여 주행 속도를 조절한다(S1005).The airport robot 100 adjusts its traveling speed based on the measured height (S1005).

공항 로봇(100)은 사람을 감지하는 경우, 사람의 신장이 작을수록 주행 속도를 감소시킬 수 있다. 이에 의해, 공항 로봇(100)은 주행 경로 주위에 유아나 아동이 존재하는 경우 성인이 감지되는 경우와 비교하여 상대적으로 주행 속도를 크게 감소시켜 주행할 수 있다.When the airport robot 100 detects a person, the traveling speed may decrease as the person's height becomes shorter. Accordingly, when an infant or child is present around the travel path, the airport robot 100 can drive at a relatively greatly reduced driving speed compared to when an adult is detected.

도 11a와 도 11b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.Figures 11a and 11b are diagrams for explaining a driving method of an airport robot according to another embodiment of the present invention.

도 11a는 공항 로봇(100)이 주행 중 신장이 큰 사람을 감지하는 경우이다. 공항 로봇(100)은 감지된 사람의 신장이 소정의 기준값 이상으로 측정되는 경우, 감지된 사람이 성인이라 판단하고 이에 기초하여 주행 속도를 감소시킨다. 도 11a를 참조하면, 공항 로봇(100)은 주행 속도를 2km/h로 감소시킨다.Figure 11a shows a case where the airport robot 100 detects a tall person while driving. When the height of the detected person is measured above a predetermined standard value, the airport robot 100 determines that the detected person is an adult and reduces the driving speed based on this. Referring to FIG. 11A, the airport robot 100 reduces its traveling speed to 2 km/h.

도 11b는 공항 로봇(100)이 주행 중 신장이 작은 사람을 감지하는 경우이다. 공항 로봇(100)은 감지된 사람의 신장이 소정의 기준값 미만으로 측정되는 경우, 감지된 사람이 아동 또는 유아라고 판단하고 이에 기초하여 주행 속도를 크게 감소시킨다. 도 11b를 참조하면, 공항 로봇(100)은 주행 속도를 0.5km/h로 감소시킨다. Figure 11b shows a case where the airport robot 100 detects a person of short stature while driving. When the height of the detected person is measured to be less than a predetermined standard value, the airport robot 100 determines that the detected person is a child or infant and significantly reduces the driving speed based on this. Referring to Figure 11b, the airport robot 100 reduces its traveling speed to 0.5 km/h.

도 10 내지 도 11b에 도시된 바와 같이, 본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 감지된 사람의 신장이 작게 측정될수록 주행 속도를 감소시킨다. 신장이 작은 유아나 아동의 경우, 성인에 비해 인지력과 판단력이 떨어지므로, 공항 로봇(100)과의 충돌 사고에 적절히 대처하는 것이 어렵다. 따라서, 감지된 사람의 신장이 작게 측정될수록, 공항 로봇(100)은 주행 속도를 크게 감소시킴으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 장애물과의 충돌을 효율적으로 회피하는 주행을 할 수 있다.As shown in FIGS. 10 to 11B, according to another embodiment of the present invention, the airport robot 100 reduces the traveling speed as the detected height of the person is measured to be smaller. In the case of infants and children with small stature, their cognitive ability and judgment are poor compared to adults, so it is difficult to appropriately respond to a collision accident with the airport robot 100. Accordingly, as the detected height of the person is measured to be smaller, the airport robot 100 greatly reduces the traveling speed, thereby lowering the possibility of a collision accident between the airport robot 100 and a person and preventing such an accident. As a result, the airport robot 100 can travel to efficiently avoid collisions with obstacles.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Additionally, the computer may include a terminal control unit 180. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 공항 로봇 110, 210: 마이컴
120: 전원부 130: 장애물 인식부
140: 주행 구동부 150, 220: 어플리케이션 프로세서
160: 유저 인터페이스부 170: 오브젝트 인식부
180, 230: 위치 인식부 190: 랜 모듈
200: 이동 단말기 300: 서버
400: 카메라
100: Airport robot 110, 210: Microcomputer
120: Power unit 130: Obstacle recognition unit
140: driving driving unit 150, 220: application processor
160: User interface unit 170: Object recognition unit
180, 230: Location recognition unit 190: LAN module
200: mobile terminal 300: server
400: Camera

Claims (21)

공항 로봇에 있어서,
상기 공항 로봇의 주행 경로를 소정의 주행 속도로 주행하는 주행 구동부;
사람과, 상기 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및
상기 소정의 주행 속도로 주행하되, 상기 공항 로봇으로부터 소정 거리 내의 영역에 상기 사람이 존재하는 경우, 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록, 상기 주행 구동부를 제어하는 제어부를 포함하고,
상기 제어부는
상기 공항 로봇이 제공하는 서비스가 사람과의 접근성이 요구되는 제1 특성을 갖는 경우, 상기 영역을 크게 설정하고, 상기 서비스가 사람과의 접근성이 요구되지 않는 제2 특성을 갖는 경우, 상기 영역을 작게 설정하는
공항 로봇.
In airport robots,
a travel driving unit that travels the travel path of the airport robot at a predetermined travel speed;
an object recognition unit that detects a person and characteristics related to the person; and
A control unit that controls the travel driving unit to drive at the predetermined travel speed, but to adjust the predetermined travel speed in response to characteristics related to the person when the person is present in an area within a predetermined distance from the airport robot. Contains,
The control unit
If the service provided by the airport robot has a first characteristic that requires accessibility to people, the area is set large, and if the service has a second characteristic that does not require accessibility to people, the area is set large. set small
Airport robot.
삭제delete 제1항에 있어서,
상기 소정 거리는, 공항 내 혼잡도 및 시간대 중 적어도 어느 하나에 대응하여 설정되는 공항 로봇.
According to paragraph 1,
The predetermined distance is set to correspond to at least one of the congestion level and time zone within the airport.
제1항에 있어서,
상기 사람과 관련된 특성은, 상기 사람과 상기 공항 로봇간의 거리이고,
상기 제어부는, 상기 사람과 상기 공항 로봇간의 거리가 가까워질수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
According to paragraph 1,
The characteristic related to the person is the distance between the person and the airport robot,
The control unit is an airport robot that controls the traveling driving unit to reduce the predetermined traveling speed as the distance between the person and the airport robot becomes closer.
제1항에 있어서,
상기 사람과 관련된 특성은, 상기 영역에 상기 사람이 존재하는 정도인 사람의 밀집도이고,
상기 제어부는, 상기 사람의 밀집도가 높을수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
According to paragraph 1,
The characteristic associated with the person is the density of people, which is the degree to which the person exists in the area,
The control unit is an airport robot that controls the traveling driving unit to reduce the predetermined traveling speed as the density of people increases.
제1항에 있어서,
상기 사람과 관련된 특성은, 상기 소정 거리보다 짧은 임계 거리 내에 상기 사람이 존재하는지 여부이고,
상기 제어부는, 상기 임계 거리 내에 상기 사람이 존재하는 경우 상기 공항 로봇의 주행을 중단시키도록 상기 주행 구동부를 제어하는 공항 로봇.
According to paragraph 1,
The characteristic related to the person is whether the person exists within a threshold distance shorter than the predetermined distance,
The control unit is an airport robot that controls the traveling driving unit to stop traveling of the airport robot when the person exists within the critical distance.
제1항에 있어서,
상기 사람과 관련된 특성은, 상기 사람의 신장이고,
상기 제어부는, 상기 사람의 신장이 작을수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
According to paragraph 1,
The characteristic associated with the person is the person's height,
The control unit is an airport robot that controls the traveling driving unit to reduce the predetermined traveling speed as the height of the person becomes shorter.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 공항 로봇을 포함하는 시스템에 있어서,
소정의 주행 속도로 주행하며, 소정 거리 내의 영역에 사람이 존재하는지 여부 및 상기 사람과 관련된 특성을 감지하여 이에 대한 데이터를 서버에 전송하는 공항 로봇; 및
상기 소정의 주행 속도로 주행하도록 상기 공항 로봇을 제어하되, 상기 공항 로봇으로부터 수신한 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록 상기 공항 로봇을 제어하는 서버를 포함하고,
상기 서버는
상기 공항 로봇이 제공하는 서비스가 사람과의 접근성이 요구되는 제1 특성을 갖는 경우, 상기 영역을 크게 설정하고, 상기 서비스가 사람과의 접근성이 요구되지 않는 제2 특성을 갖는 경우, 상기 영역을 작게 설정하는, 시스템.
In a system including an airport robot,
An airport robot that travels at a predetermined driving speed, detects whether a person is present in an area within a predetermined distance and characteristics related to the person, and transmits data about this to a server; and
A server that controls the airport robot to drive at the predetermined travel speed, and controls the airport robot to adjust the predetermined travel speed in response to characteristics related to the person received from the airport robot,
The server is
If the service provided by the airport robot has a first characteristic that requires accessibility to people, the area is set large, and if the service has a second characteristic that does not require accessibility to people, the area is set large. Set small, system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020160130045A 2016-10-07 2016-10-07 Airport robot and system including the same KR102578138B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160130045A KR102578138B1 (en) 2016-10-07 2016-10-07 Airport robot and system including the same
PCT/KR2017/010269 WO2018066837A1 (en) 2016-10-07 2017-09-19 Airport robot and system including same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160130045A KR102578138B1 (en) 2016-10-07 2016-10-07 Airport robot and system including the same

Publications (2)

Publication Number Publication Date
KR20180038870A KR20180038870A (en) 2018-04-17
KR102578138B1 true KR102578138B1 (en) 2023-09-13

Family

ID=61831835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130045A KR102578138B1 (en) 2016-10-07 2016-10-07 Airport robot and system including the same

Country Status (2)

Country Link
KR (1) KR102578138B1 (en)
WO (1) WO2018066837A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102519064B1 (en) * 2018-04-25 2023-04-06 삼성전자주식회사 Mobile robot device and method for providing a service to a user
KR20200094831A (en) * 2019-01-22 2020-08-10 삼성전자주식회사 Robot and method for controlling thereof
KR102314009B1 (en) * 2019-10-22 2021-10-18 네이버랩스 주식회사 Method and system for controlling robot using dedicated road for robot's drving
CN111562782B (en) * 2020-04-15 2022-08-16 长沙中联重科环境产业有限公司 Epidemic prevention disinfection cleaning robot
KR102565568B1 (en) * 2020-10-30 2023-08-14 한국전자기술연구원 System and Method for driving of robot
CN113706790A (en) * 2021-09-28 2021-11-26 平安国际智慧城市科技股份有限公司 Method, system, device, equipment and medium for driving assistance

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904191B1 (en) 2008-05-29 2009-06-22 (주)다사로봇 Guidance robot
JP2012111011A (en) * 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International Mobile robot

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4316477B2 (en) * 2004-11-18 2009-08-19 パナソニック株式会社 Tracking method of mobile robot
JP4528295B2 (en) * 2006-12-18 2010-08-18 株式会社日立製作所 GUIDANCE ROBOT DEVICE AND GUIDANCE SYSTEM
KR20080090150A (en) * 2007-04-04 2008-10-08 삼성전자주식회사 Service robot, service system using service robot and controlling method of the service system using service robot
KR20160000162A (en) * 2014-06-24 2016-01-04 주식회사 네오텍 Self moving method of service robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904191B1 (en) 2008-05-29 2009-06-22 (주)다사로봇 Guidance robot
JP2012111011A (en) * 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International Mobile robot

Also Published As

Publication number Publication date
KR20180038870A (en) 2018-04-17
WO2018066837A1 (en) 2018-04-12

Similar Documents

Publication Publication Date Title
KR102578138B1 (en) Airport robot and system including the same
KR102549978B1 (en) Airport robot, and airport robot system including same
US11407116B2 (en) Robot and operation method therefor
KR102635529B1 (en) Robot for airport and method thereof
KR102608046B1 (en) Guidance robot for airport and method thereof
KR102559745B1 (en) Airport robot, and airport robot system including same
KR20180039977A (en) Assistant robot for airport and method thereof
US11934200B2 (en) Plurality of robot cleaner and a controlling method for the same
US11148290B2 (en) Plurality of robot cleaner and a controlling method for the same
US11740625B2 (en) Plurality of autonomous mobile robots and controlling method for the same
KR20200029970A (en) A robot cleaner and a controlling method for the same
KR102570164B1 (en) Airport robot, and method for operating server connected thereto
US11150668B2 (en) Plurality of robot cleaner and a controlling method for the same
KR20180080499A (en) Robot for airport and method thereof
KR20180039378A (en) Robot for airport and method thereof
KR20200023707A (en) Moving robot
KR102599784B1 (en) Airport robot
KR20180038884A (en) Airport robot, and method for operating server connected thereto
KR102596752B1 (en) Airport robot and airport robot system
KR20200075140A (en) Artificial intelligence lawn mover robot and controlling method for the same
KR102581196B1 (en) Airport robot and computer readable recording medium of performing operating method of thereof
KR20180074403A (en) Robot for airport and method thereof
KR20180038871A (en) Robot for airport and method thereof
KR102594250B1 (en) Airport robot
KR20210008903A (en) Artificial intelligence lawn mower robot and controlling method for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right