KR102559745B1 - 공항 로봇 및 그를 포함하는 공항 로봇 시스템 - Google Patents

공항 로봇 및 그를 포함하는 공항 로봇 시스템 Download PDF

Info

Publication number
KR102559745B1
KR102559745B1 KR1020160132631A KR20160132631A KR102559745B1 KR 102559745 B1 KR102559745 B1 KR 102559745B1 KR 1020160132631 A KR1020160132631 A KR 1020160132631A KR 20160132631 A KR20160132631 A KR 20160132631A KR 102559745 B1 KR102559745 B1 KR 102559745B1
Authority
KR
South Korea
Prior art keywords
information
boarding
airport robot
unit
person
Prior art date
Application number
KR1020160132631A
Other languages
English (en)
Other versions
KR20180040839A (ko
Inventor
양선호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160132631A priority Critical patent/KR102559745B1/ko
Priority to EP17859629.2A priority patent/EP3527336A4/en
Priority to PCT/KR2017/010445 priority patent/WO2018070687A1/ko
Priority to US16/340,546 priority patent/US11260533B2/en
Publication of KR20180040839A publication Critical patent/KR20180040839A/ko
Application granted granted Critical
Publication of KR102559745B1 publication Critical patent/KR102559745B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Traffic Control Systems (AREA)
  • Operations Research (AREA)

Abstract

실시 예는, 설정된 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하는 영상 촬영부, 상기 영상 정보을 영상처리하여, 상기 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상과 매칭되는 탑승 대상자를 인식하는 영상 인식부 및 상기 탑승 대상자 인식 시, 상기 탑승 대상자가 상기 탑승 게이트 영역으로 이동하도록, 이동 경로 정보가 출력되게 제어하는 제어부를 포함하는 공항 로봇을 제공한다.

Description

공항 로봇 및 그를 포함하는 공항 로봇 시스템{AIRPORT ROBOT, AND AIRPORT ROBOT SYSTEM INCLUDING SAME}
실시 예는 공항 로봇 및 그를 포함하는 공항 로봇 시스템에 관한 것으로서, 더욱 상세하게는 운항 예정 비행기에 대한 운항 정보 및 운항 변경 정보를 제공할 수 있는 공항 로봇 및 그를 포함하는 공항 로봇 시스템에 관한 것이다.
최근 공항과 같은 공공 장소에서 이용자들에게 각종 서비스를 보다 효과적으로 제공하기 위하여, 로봇 등의 도입이 논의되고 있다. 이용자들은 공항에 배치된 로봇을 통해 공항 내 길 안내 서비스, 탑승 정보 안내 서비스, 기타 멀티미디어 컨텐츠 제공 서비스 등과 같은 각종 서비스를 이용할 수 있다.
그러나, 로봇과 같은 첨단 기기의 경우 단가가 높을 수 밖에 없으므로, 공항 내에 배치되는 공항 로봇의 수는 한정될 수 있다. 따라서, 한정된 수의 공항 로봇을 이용한 보다 효율적인 서비스 제공 방안이 요구될 수 있다.
일 예로, 운항 예정 비행기에 대한 운항 변경 정보, 예를 들면 출발 시간, 탑승 게이트에 대한 변경 정보가 발생되는 경우, 운항 예정 비행기의 탑승 대상자는 공항 내에서 실내 방송으로 전달되는 운항 변경 정보를 인식할 수 있으나, 실제로 운항 예정 정보를 인식하기 어려운 점이 발생될 수 있다.
최근 들어, 공항 내에 공항 로봇들을 배치하여, 운항 변경 정보가 발생된 운항 예정 비행기의 탑승 대상자가 운항 변경 정보를 원활하게 인식할 수 있도록 하기 위한 서비스를 제공하기 위한 연구가 진행 중에 있다.
실시 예의 목적은, 운항 예정 비행기에 탑승할 예정 탑승 대상자를 인식하여, 탑승 대상자에게 운항 예정 비행기의 탑승 게이트 영역까지 이동 경로를 제공할 수 있는 공항 로봇을 제공함에 있다.
또한, 실시 예의 다른 목적은, 운항 예정 비행기의 운항 변경이 발생되는 경우, 운항 예정 비행기의 탑승 대상자들에게 운항 변경 정보를 제공할 수 있는 공항 로봇을 제공함에 있다.
또한, 실시 예의 또 다른 목적은, 운항 변경 정보를 탑승 대상자의 이동 단말기로 전송할 수 있는 공항 로봇을 제공함에 있다.
또한, 실시 예의 또 다른 목적은, 공항 로봇들 각각이 설정 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 수신하는 서버가 운항 변경된 운항 예정 비행기에 탑승할 특정 탑승 대상자를 검색한 후 특정 탑승 대상자에 대응하는 특정 공항 로봇으로 운항 변경 정보를 전송할 수 있는 공항 로봇 시스템을 제공함에 있다
제1 실시 예에 따른 공항 로봇은, 설정된 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하는 영상 촬영부, 상기 영상 정보을 영상처리하여, 상기 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상과 매칭되는 탑승 대상자를 인식하는 영상 인식부 및 상기 탑승 대상자 인식 시, 상기 탑승 대상자가 상기 탑승 게이트 영역으로 이동하도록, 이동 경로 정보가 출력되게 제어하는 제어부를 포함할 수 있다.
제2 실시 예에 따른 공항 로봇은, 서버로부터 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 정보와 이동 단말기 정보 및 상기 운항 예정 비행기의 운항 변경 정보를 수신하는 통신부, 상기 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하는 영상 촬영부, 상기 영상 정보를 영상처리하여, 상기 예정 탑승 대상자들 중 상기 안면 정보와 매칭되는 탑승 대상자를 인식하는 영상 인식부 및 상기 탑승 대상자 인식 시, 상기 탑승 대상자가 상기 운항 변경 정보를 인식하도록, 상기 이동 단말기 정보를 기반으로 상기 탑승 대상자의 이동 단말기로 상기 운항 변경 정보가 송신되게 상기 통신부를 제어하는 제어부를 포함할 수 있다.
제1 실시 예에 따른 공항 로봇 시스템은, 운항 예정 비행기의 티켓을 발권한 발권 대상자들의 안면 영상을 촬영하는 공항 카메라, 상기 발권 대상자들 각각의 이동 단말기 정보 및 상기 이동 단말기 정보와 매칭되게 상기 안면 영상을 저장하며, 입력 장치로부터 상기 운항 예정 비행기의 운항 변경 정보가 입력 시, 상기 발권 대상자들 중 설정 기준을 만족하는 특정 탑승 대상자를 선정하는 서버 및 상기 서버로부터 영상 정보 요청 시, 설정 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하여 상기 서버로 송신하는 공항 로봇들을 포함하고, 상기 서버는, 상기 운항 변경 정보 입력 시, 상기 공항 로봇으로부터 수신한 상기 영상 정보 및 상기 안면 영상을 기반으로 상기 예정 탑승 대상자들 중 상기 발권 대상자들의 상기 안면 영상과 매칭되는 탑승 대상자들을 인식하는 대상 인식부, 상기 탑승 대상자들 중 상기 설정 기준을 만족하는 상기 특정 탑승 대상자를 선정하는 대상 선정부 및 상기 특정 탑승 대상자 선정 시, 상기 공항 로봇들 중 특정 공항 로봇이 상기 특정 탑승 대상자에게 상기 운항 변경 정보를 전달하도록 제어하는 서버 제어부를 포함할 수 있다.
실시 예에 따른 공항 로봇은, 운항 예정 비행기에 탑승할 탑승 대상자가 존재하면, 탑승 대상자에게 운항 예정 비행기의 탑승 게이트 영역까지 이동할 수 있는 이동 경로를 제공함으로써, 탑승 대상자가 원활히 탑승 게이트로 이동할 수 있도록 하는 사용자 편의성이 증대되는 이점이 있다.
또한, 실시 예에 따른 공항 로봇은, 운항 예정 비행기의 운항 변경 발생 시, 설정 범위에 위치한 탑승 대상자를 인식하여, 탑승 대상자에게 운항 변경 정보가 인식되도록 함으로써, 탑승 대상자가 운항 예정 비행기에 탑승하기 용이하도록 하는 이점이 있다.
또한, 실시 예에 따른 공항 로봇은, 탑승 대상자에게 운항 예정 비행기의 운항 변경 정보를 이동 단말기로 송신하도록 함으로써, 탑승 대상자가 이동 단말기를 통하여 확인이 용이하도록 하는 이점이 있다.
또한, 실시 예에 따른 공항 로봇은, 운항 예정 정보를 탑승 대상자가 인식함으로써, 탑승 대상자의 시간 사용에 대한 효율성을 증대시킬 수 있는 이점이 있다.
또한, 실시 예에 따른 공항 로봇 시스템은, 공항 로봇들로부터 전송된 영상 정보를 기반으로 현재 운항 변경된 운항 변경 비행기에 탑승할 특정 탑승 대상자를 확인하고, 특정 탑승 대상자들에 인접한 특정 공항 로봇으로 운항 변경 정보를 송신하여, 특정 탑승 대상자가 운항 변경 정보를 인식할 수 있으므로, 공항 로봇들이 다른 서비스를 제공할 수 있는 이점이 있다.
도 1은 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템도이다.
도 2는 도 1에 나타낸 공항 로봇의 하드웨어 구성을 나타낸 블록도이다.
도 3은 도 2에 나타낸 공항 로봇의 마이컴 및 AP의 제어 구성을 나타낸 블록도이다.
도 4는 제1 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.
도 5 내지 도 7은 도 4에 나타낸 공항 로봇의 동작을 나타낸 동작도이다.
도 8은 제2 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.
도 9 내지 도 11은 도 8에 나타낸 공항 로봇의 동작을 나타낸 동작도이다.
도 12는 제1 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템 블록도이다.
이하, 첨부된 도면을 참조하여 실시 예에 따른 공항 로봇 및 공항 로봇 시스템에 대해 상세히 설명하도록 한다.
도 1은 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템도이다.
도 1을 참조하면, 공항 로봇 시스템은 공항 로봇(100), 서버(300), 카메라(400), 및 이동 단말기(500)를 포함할 수 있다.
공항 로봇(100)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.
공항 로봇(100)은 서버(300) 또는 이동 단말기(500)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(100)은 서버(300)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(100)은 공항 내 카메라(400)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다.
따라서, 공항 로봇(100)은 공항 로봇(100)이 촬영한 영상 정보 및 카메라(400)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링 할 수 있다.
공항 로봇(100)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(100)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다.
공항 로봇(100)은 사용자, 서버(300), 또는 이동 단말기(500) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
다음으로, 서버(300)는 공항 로봇(100), 카메라(400), 및/또는 이동 단말기(500)로부터 정보를 수신할 수 있다. 서버(300)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(300)는 저장된 정보들을 공항 로봇(100) 또는 이동 단말기(500)에 전송할 수 있다. 또한, 서버(300)는 공항에 배치된 복수의 공항 로봇(100)들 각각에 대한 명령 신호를 전송할 수 있다.
카메라(400)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(400)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(400)는 촬영된 영상을 서버(300) 또는 공항 로봇(100)에 전송할 수 있다.
이동 단말기(500)는 공항 내 서버(300)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(500)는 서버(300)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다.
사용자는 이동 단말기(500)를 통해 공항에서 필요한 정보를 서버(300)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(500)는 서버(300)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(300)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(300)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.
또한, 이동 단말기(500)는 공항 로봇(100)과 데이터를 송수신할 수 있다.
예를 들어, 이동 단말기(500)는 공항 로봇(100)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(100)으로 전송할 수 있다. 공항 로봇(100)은 이동 단말기(500)로부터 수신된 호출 신호에 응답하여 이동 단말기(500)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(100)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(500)로 전송할 수 있다.
도 2는 실시 예에 따른 공항 로봇의 하드웨어 구성을 나타낸 블록도이다.
도 2를 참조하면, 공항 로봇의 하드웨어는 마이컴 그룹 및 AP 그룹으로 구성될 수 있다.
상기 마이컴 그룹은 마이컴(Micom, 110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)를 포함할 수 있다.
마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130), 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다.
전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다.
배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전 및 방전을 관리할 수 있다.
리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있으며, 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있으며, 이에 한정을 두지 않는다.
장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다.
IR(Infrared) 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR 리모콘의 신호를 수신하는 센서를 포함할 수 있다.
USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서일 수 있다.
Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다.
ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다.
Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다.
OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다.
모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터(142), 브러시 모터(143) 및 석션 모터(146)를 구동하는 역할을 수행할 수 있다.
휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있으며, 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다.
메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있으며, 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.
AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다.
AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치일 수 있다.
AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110)으로 전송하여 모터, 예들들어 주행 구동부(140) 등의 구동이 수행되게 할 수 있다.
유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다.
유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부(160)의 동작을 제어할 수 있다.
LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다.
WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다.
마이크 보드(164)는 복수 개의 마이크 신호를 입력받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다.
바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드(Read) 할 수 있다.
터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다.
스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.
사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다.
2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다.
RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처 된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다.
인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.
위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다.
SLAM(Simultaneous Localization And Mapping) 카메라(183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다.
공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다.
라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란 된 빛 중 후방 산란 된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다.
스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.
랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.
도 3은 실시 예에 따른 공항 로봇의 마이컴 및 AP의 제어 구성을 나타낸 블록도이다.
도 3에 나타낸 마이컴(210) 및 AP(220)는 공항 로봇의 인식 및 행동을 제어하기 위하여, 다양한 제어 구성을 가질 수 있으며, 이에 한정을 두지 않는다.
도 3을 참조하면, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)을 포함할 수 있다.
데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다.
데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱 된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다.
이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 이머전시 모듈(212)은 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우, 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다.
모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다.
배터리 매니저 모듈(214)은 도 2의 리튬-이온 배터리(122)의 충전 및 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.
AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다.
인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다.
유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223), 키(key), 터치 스크린 및, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다.
적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다.
사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다.
플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다.
네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다.
모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.
또한, 공항 로봇은 위치 인식부(230)를 포함할 수 있다.
위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다.
상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다.
절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다.
Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다.
UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.
또한, 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다.
맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다.
그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다.
패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다.
위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다.
상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.
도 4는 제1 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.
도 4는 도 2 및 도 3에 나타낸 공항 로봇의 구성에 대하여 운항 변경 정보를 탑승 대상자가 인식하도록 하기 위해 필요한 제어 구성을 나타낸 것이며, 도 4에 나타낸 제어 구성과 도 2 및 도 3에 나타낸 구성에서 추가되거나, 또는 명칭이 변경될 수 있다.
도 4를 참조하면, 공항 로봇(600)은 통신부(610), 영상 촬영부(620), 영상 인식부(630), 주행 구동부(640), 출력부(650) 및 제어부(660)를 포함할 수 있다.
실시 예에서, 공항 로봇(600)은 현재 시점에서 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 것으로써, 상기 운항 예정 비행기의 탑승 대상자가 다른 게이트 영역에 위치할때 상기 탑승 대상자에게 상기 운항 예정 비행기의 탑승 게이트 영역으로 이동할 수 있도록 하는 서비스를 제공하는 것으로 설명한다.
여기서, 통신부(610)는 공항 내에 배치된 서버(미도시)로부터 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs)을 수신할 수 있다.
실시 예에서, 통신부(610)는 도 2에 기재된 유저 인터페이스부(160)에 포함된 LET 라우터(162)일 수 있으며, 이에 한정을 두지 않는다.
통신부(610)는 안면 영상(fs)을 영상 인식부(630) 및 제어부(660) 중 적어도 하나로 전달할 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(620)는 상기 탑승 게이트 영역과 다른 현재 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보(ms)를 촬영할 수 있다.
실시 예에서, 영상 촬영부(620)는 도 2에 기재된 2D 카메라(171) 및 RGBD 카메라(172)일 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(620)는 상기 현재 게이트 영역 내에 위치한 상기 예정 탑승 대상자들을 설정된 섹터(sector)별로 구분 또는 연속적으로 촬영하여, 영상 인식부(630) 및 제어부(660)로 전달할 수 있다.
이때, 영상 촬영부(620)는 제어부(660)의 제어에 따라 동작하거나, 기 설정된 운항 예정 비행기의 스케줄에 따라 자동 동작할 수 있으며, 이에 한정을 두지 않는다.
영상 인식부(630)는 영상 촬영부(620)로부터 전달된 영상 정보(ms)를 영상처리하여, 상기 현재 케이트 영역 내에 위치한 상기 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 상기 발권 대상자의 안면 영상(fs)과 매칭되는 예정 탑승 대상자를 탑승 대상자로 인식할 수 있다.
실시 예에서, 영상 인식부(630)는 도 2에 기재된 인식 데이터 처리모듈(173)일 수 있으며, 이에 한정을 두지 않는다.
영상 인식부(630)는 내부적으로 영상 정보(ms)에 포함된 상기 예정 탑승 대상자들의 안면 영상(미도시)와 전달된 안면 영상(fs)을 일대일 매칭시켜 동일한 상기 예정 탑승 대상자를 상기 탑승 대상자로 인식할 수 있다.
이후, 영상 인식부(630)는 상기 탑승 대상자의 인식 결과를 제어부(66)로 전달할 수 있다.
주행 구동부(640)는 제어부(660)의 제어에 따라 영상 인식부(630)에서 인식한 상기 탑승 대상자의 위치에 대응하는 설정 위치로 모터를 구동시켜 이동할 수 있다.
실시 예에서, 주행 구동부(640)는 도 2에 기재된 주행 구동부(140)와 동일할 수 있으며, 이에 한정을 두지 않는다.
출력부(650)는 제어부(660)의 제어에 따라 상기 탑승 대상자가 상기 탑승 게이트 영역으로 이동할 수 있도록, 이동 경로 정보(mls)를 출력할 수 있다.
실시 예에서, 출력부(650)는 도 2에 기재된 유저 인터페이스부(160)에 포함되며 이동 경로 정보(mls)를 디스플레이하는 터치 모니터(166) 및 이동 경로 정보(mls)를 음성 안내하는 스피커(167)일 수 있으며, 이에 한정을 두지 않는다.
제어부(160)는 위치 산출부(662) 및 구동 제어부(666)를 포함할 수 있다.
여기서, 제어부(660)는 도 2에 기재된 마이컴(110) 및 AP(150) 중 적어도 하나일 수 있으며, 이에 한정을 두지 않는다.
위치 산출부(662)는 영상 인식부(630)가 상기 탑승 대사자를 인식하는 경우, 영상 정보(ms)에서 상기 탑승 대상자의 위치(lo)를 산출할 수 있다.
즉, 위치 산출부(662)는 상기 탑승 대상자가 포함된 영상 정보(ms)의 영상 픽셀에 대한 사이즈, 영상 촬영부(620)의 촬영 각도 및 현재 위치(공항 로봇의 위치)를 기반으로 상기 탑승 대상자의 위치(lo)를 산출할 수 있으며, 이와 다른 방법으로 상기 탑승 대상자의 위치(lo)를 산출할 수 있다.
이후, 위치 산출부(662)는 상기 탑승 대상자의 위치(lo)를 구동 제어부(664)로 전달 수 있다.
구동 제어부(664)는 상기 탑승 대상자의 위치(lo)가 전달되면, 상기 탑승 대상자의 위치(lo)에 대응하는 설정 위치(ls)를 결정할 수 있다.
여기서, 설정 위치(ls)는 상기 탑승 대상자의 위치(lo)에 따라 상기 탑승 대상자와 소정 거리만큼 이격된 전면 또는 측면 위치를 포함할 수 있으며, 이에 한정을 두지 않는다.
이후, 구동 제어부(664)는 상기 탑승 대상자의 위치(lo)에서 상기 탑승 게이트 영역까지의 이동 경로, 이동 시간 및 탑승 시작 시간 중 적어도 하나를 포함하는 이동 경로 정보(mls)를 생성할 수 있다.
구동 제어부(664)는 이동 경로 정보(mls)를 생성한 후, 설정 위치(ls)까지 이동되게 주행 구동부(640)를 제어할 수 있다.
이후, 구동 제어부(664)는 주행 구동부(640)를 제어하여 설정 위치(ls)까지 이동하면, 상기 탑승 대상자에게 이동 경로 정보(mls)가 출력되게 출력부(650)를 제어할 수 있다.
실시 예에 따른 공항 로봇(600)은 현재 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역, 즉 탑승 게이트 영역과 위치 상으로 떨어진 게이트 영역 내에 위치하는 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자와 매칭되는 예정 탑승 대상자를 탑승 대상자로 인식하고, 상기 탑승 대상자가 신속히 상기 탑승 게이트 영역으로 이동할 수 있도록 이동 경로 정보(mls)를 출력하도록 함으로써, 탑승 대상자가 운항 예정 비행기에 원할하게 탑승할 수 있도록 함으로써, 사용자의 편의성을 증대시킬 수 있는 서비스를 제공할 수 있는 이점이 있다.
도 5 내지 도 7은 도 4에 나타낸 공항 로봇의 동작을 나타낸 동작도이다.
도 5 내지 도 7은 공항 로봇(600)의 내부 동작 및 외부 동작을 나타내는 동작도로써, 하나의 일 예를 나타낸다.
도 5는 공항 로봇(600)이 촬영한 영상 정보(ms)에서 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs)과 매칭되는 예정 탑승 대상자를 인식하여 상기 운항 예정 비행기의 탑승 대상자를 인식하는 도이며, 내부 알고리즘을 통하여 인식하는 것으로 설명의 편의를 위하여 도면을 첨부한다.
도 5를 참조하면, 공항 로봇(600)는 운항 예정 비행기의 탑승 게이트 영역에서 떨어진 다른 게이트 영역 내에 상기 운항 예정 비행기의 탑승 대상자를 인식하기 위하여, 서버(미도시)로부터 송신된 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs)를 수신하고, 상기 게이트 영역 내에 위치한 예정 탑승 대상자들의 영상 정보(ms)를 촬영할 수 있다.
이후, 공항 로봇(600)는 영상 정보(ms)에 포함된 상기 예정 탑승 대상자들 중 안면 영상(fs)에 매칭되는 예정 탑승 대상자를 탑승 대상자로 인식할 수 있다.
도 6은 공항 로봇(600)이 탑승 대상자를 인식한 후, 탑승 대상자의 위치에 대응하는 설정 위치(lo)로 이동하는 도면이다.
도 6을 참조하면, 공항 로봇(600)은 탑승 대상자가 인식되면, 영상 정보(ms)를 기반으로 상기 탑승 대상자의 위치를 산출하고, 상기 탑승 대상자의 위치(lo)에 대응하는 설정 위치(ls)로 이동할 수 있다.
이때, 공항 로봇(600)은 내부적으로 상기 운항 예정 비행기의 이동 경로 정보(mls)를 생성하고, 설정 위치(ls)로 이동할 수 있다.
도 7은 공항 로봇(600)이 설정 위치(ls)로 이동한 후 탑승 대상자에게 이동 경로 정보(mls)를 출력하는 도면이다.
도 7을 참조하면, 공항 로봇(600)은 상기 탑승 대상자의 위치에 대응하는 설정 위치(lo)로 이동하면, 상기 탑승 대상자가 이동 경로 정보(mls)을 인식할수 있도록 출력할 수 있다.
이때, 공항 로봇(600)은 도 7과 같이 이동 경로 정보(mls)를 출력부(650), 예를 들면 터치 모니터에 디스플레이할 수 있으며, 이동 경로 정보(mls)를 스피커를 통하여 안내 음성으로 출력할 수 있으며, 이에 한정을 두지 않는다.
도 7에 나타낸 바와 같이, 이동 경로 정보(mls)는 상기 탑승 대상자의 위치에서 운항 예정 비행기의 탑승 게이트 영역까지의 이동 경로(s1), 이동 시간(s2) 및 탑승 시작 시간(s3) 중 적어도 하나를 포함할 수 있으며, 이에 한정을 두지 않는다.
도 8은 제2 실시 예에 따른 공항 로봇의 제어 구성을 나타낸 블록도이다.
도 8을 참조하면, 공항 로봇(700)은 통신부(710), 영상 촬영부(720), 영상 인식부(730), 주행 구동부(740), 출력부(750) 및 제어부(760)를 포함할 수 있다.
실시 예에서, 공항 로봇(700)은 현재 시점에서 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 것으로써, 상기 운항 예정 비행기의 탑승 대상자가 다른 게이트 영역에 위치할때 상기 탑승 대상자에게 상기 운항 예정 비행기의 탑승 게이트 영역으로 이동할 수 있도록 하는 서비스를 제공하는 것으로 설명한다.
여기서, 통신부(710)는 공항 내에 배치된 서버(미도시)로부터 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs), 이동 단말기 정보(cs) 및 상기 운항 예정 비행기의 운항 변경 정보(vs)을 수신할 수 있다.
실시 예에서, 통신부(710)는 도 2에 기재된 유저 인터페이스부(160)에 포함된 LET 라우터(162)일 수 있으며, 이에 한정을 두지 않는다.
통신부(710)는 안면 영상(fs), 이동 단말기 정보(cs) 및 상기 운항 예정 비행기의 운항 변경 정보(vs)를 영상 인식부(730) 및 제어부(760) 중 적어도 하나로 전달할 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(720)는 상기 탑승 게이트 영역과 다른 현재 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보(ms)를 촬영할 수 있다.
실시 예에서, 영상 촬영부(720)는 도 2에 기재된 2D 카메라(171) 및 RGBD 카메라(172)일 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(720)는 상기 현재 게이트 영역 내에 위치한 상기 예정 탑승 대상자들을 설정된 섹터(sector)별로 구분 또는 연속적으로 촬영하여, 영상 인식부(730) 및 제어부(760)로 전달할 수 있다.
이때, 영상 촬영부(720)는 제어부(760)의 제어에 따라 동작하거나, 기 설정된 운항 예정 비행기의 스케줄에 따라 자동 동작할 수 있으며, 이에 한정을 두지 않는다.
영상 인식부(730)는 영상 촬영부(720)로부터 전달된 영상 정보(ms)를 영상처리하여, 상기 현재 케이트 영역 내에 위치한 상기 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 상기 발권 대상자의 안면 영상(fs)과 매칭되는 예정 탑승 대상자를 탑승 대상자로 인식할 수 있다.
실시 예에서, 영상 인식부(730)는 도 2에 기재된 인식 데이터 처리모듈(173)일 수 있으며, 이에 한정을 두지 않는다.
영상 인식부(730)는 내부적으로 영상 정보(ms)에 포함된 상기 예정 탑승 대상자들의 안면 영상(미도시)와 전달된 안면 영상(fs)을 일대일 매칭시켜 동일한 상기 예정 탑승 대상자를 상기 탑승 대상자로 인식할 수 있다.
이후, 영상 인식부(730)는 상기 탑승 대상자의 인식 결과를 제어부(66)로 전달할 수 있다.
주행 구동부(740)는 제어부(760)의 제어에 따라 영상 인식부(730)에서 인식한 상기 탑승 대상자의 위치에 대응하는 설정 위치로 모터를 구동시켜 이동할 수 있다.
실시 예에서, 주행 구동부(740)는 도 2에 기재된 주행 구동부(140)와 동일할 수 있으며, 이에 한정을 두지 않는다.
출력부(750)는 제어부(760)의 제어에 따라 상기 탑승 대상자가 상기 탑승 게이트 영역으로 이동할 수 있도록, 이동 경로 정보(mls)를 출력할 수 있다.
실시 예에서, 출력부(750)는 도 2에 기재된 유저 인터페이스부(160)에 포함되며 이동 경로 정보(mls)를 디스플레이하는 터치 모니터(166) 및 이동 경로 정보(mls)를 음성 안내하는 스피커(167)일 수 있으며, 이에 한정을 두지 않는다.
제어부(160)는 단말기 확인부(762), 위치 산출부(764) 및 구동 제어부(666)를 포함할 수 있다.
여기서, 제어부(760)는 도 2에 기재된 마이컴(110) 및 AP(150) 중 적어도 하나일 수 있으며, 이에 한정을 두지 않는다.
단말기 확인부(764)는 영상 인식부(730)가 상기 탑승 대사자를 인식하는 경우, 이동 단말기 정보(cs)에 포함된 이동 단말기 번호에 대한 존재 여부를 확인할 수 있다.
즉, 단말기 확인부(764)는 운항 변경 정보(vs)를 탑승 대상자의 이동 단말기로 전송하기 위하여, 이동 단말기 정보(cs)에서 이동 단말 번호가 존재하는 확인하여, 구동 제어부(766)로 전달할 수 있다.
위치 산출부(764)는 인식부(730)가 상기 탑승 대상자를 인식하는 경우, 구동 제어부(766)의 제어에 따라 영상 정보(ms)에서 상기 탑승 대상자의 위치(lo)를 산출할 수 있다.
즉, 위치 산출부(764)는 상기 탑승 대상자가 포함된 영상 정보(ms)의 영상 픽셀에 대한 사이즈, 영상 촬영부(720)의 촬영 각도 및 현재 위치(공항 로봇의 위치)를 기반으로 상기 탑승 대상자의 위치(lo)를 산출할 수 있으며, 이와 다른 방법으로 상기 탑승 대상자의 위치(lo)를 산출할 수 있다.
이후, 위치 산출부(764)는 상기 탑승 대상자의 위치(lo)를 구동 제어부(766)로 전달 수 있다.
구동 제어부(766)는 단말기 확인부(764)로부터 상기 이동 단말 번호가 존재하는 것으로 확인되면, 상기 이동 단말 번호로 운항 변경 정보(vs)가 송신되게 통신부(710)를 제어할 수 있다.
또한, 구동 제어부(766)는 단말기 확인부(764)로부터 상기 이동 단말 번호가 미 존재하는 것으로 확인되면, 위치 산출부(764)를 제어하여 상기 탑승 대상자의 위치를 산출할 수 있다.
이후, 구동 제어부(766)는 상기 탑승 대상자의 위치(lo)가 전달되면, 상기 탑승 대상자의 위치(lo)에 대응하는 설정 위치(ls)를 결정할 수 있다.
여기서, 설정 위치(ls)는 상기 탑승 대상자의 위치(lo)에 따라 상기 탑승 대상자와 소정 거리만큼 이격된 전면 또는 측면 위치를 포함할 수 있으며, 이에 한정을 두지 않는다.
이후, 구동 제어부(766)는 설정 위치(ls)까지 이동하며, 상기 탑승 대상자에게 운항 변경 정보(vs)가 출력력되게 출력부(750)를 제어할 수 있다.
도 9 내지 도 11은 도 8에 나타낸 공항 로봇의 동작을 나타낸 동작도이다.
도 9 내지 도 11은 공항 로봇(700)의 내부 동작 및 외부 동작을 나타내는 동작도로써, 하나의 일 예를 나타낸다.
도 9는 공항 로봇(700)이 촬영한 영상 정보(ms)에서 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs)과 매칭되는 예정 탑승 대상자를 인식하여 상기 운항 예정 비행기의 탑승 대상자를 인식하는 도이며, 내부 알고리즘을 통하여 인식하는 것으로 설명의 편의를 위하여 도면을 첨부한다.
도 9를 참조하면, 공항 로봇(700)는 운항 예정 비행기의 탑승 게이트 영역에서 떨어진 다른 게이트 영역 내에 상기 운항 예정 비행기의 탑승 대상자를 인식하기 위하여, 서버(미도시)로부터 송신된 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상(fs)를 수신하고, 상기 게이트 영역 내에 위치한 예정 탑승 대상자들의 영상 정보(ms)를 촬영할 수 있다.
이후, 공항 로봇(700)는 영상 정보(ms)에 포함된 상기 예정 탑승 대상자들 중 안면 영상(fs)에 매칭되는 예정 탑승 대상자를 탑승 대상자로 인식할 수 있다.
이때, 공항 로봇(700)은 상기 탑승 대상자의 이동 단말기 정보(cs)에 포함된 이동 단말기 번호로 운항 변경 정보(vs)를 송신할 수 있다.
도 10은 상술한 도 9와 다르게 공항 로봇(700)이 탑승 대상자를 영상 정보(ms)에서 인식할 때, 설정 위치(ls)로 이동하는 도면으로, 도 6과 동일할 수 있다.
도 10을 참조하면, 공항 로봇(700)은 탑승 대상자가 인식되면, 영상 정보(ms)를 기반으로 상기 탑승 대상자의 위치를 산출하고, 상기 탑승 대상자의 위치에 대응하는 설정 위치(ls)로 이동할 수 있다.
도 11은 공항 로봇(700)이 설정 위치(ls)로 이동한 후 탑승 대상자에게 운항 변경 정보(vs)를 출력하는 도면이다.
도 11을 참조하면, 공항 로봇(700)은 상기 탑승 대상자의 위치에 대응하는 설정 위치(ls)로 이동하면, 상기 탑승 대상자가 운항 변경 정보(vs)를 인식할 수 있도록 출력할 수 있다.
이때, 공항 로봇(700)은 도 8과 같이 운항 변경 정보(vs)를 출력부(750), 예를 들면 터치 모니터에 디스플레이할 수 있으며, 운항 변경 정보(vs)를 스피커를 통하여 안내 음성으로 출력할 수 있으며, 이에 한정을 두지 않는다.
도 11에 나타낸 바와 같이, 운항 변경 정보(vs)는 상기 운항 예정 비행기에 대해 변경 출발 시간(s11), 변경 탑승 시간(s12) 및 변경 탑승 게이트(s13) 중 적어도 하나를 포함할 수 있으며, 이에 한정을 두지 않는다.
도 12는 제1 실시 예에 따른 공항 로봇 시스템의 구조를 나타낸 시스템 블록도이다.
도 12를 참조하면, 공항 로봇 시스템은 공항 로봇들(810 내지 820), 공항 카메라(900) 및 서버(1000)를 포함할 수 있다.
공항 로봇들(810 내지 820)은 서버(1000)로부터 영상 정보(ms) 요청시, 각각의 설정 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보(ms)를 촬영하여 서버(1000)로 송신할 수 있다.
우선, 공항 카메라(900)는 운항 예정 비행기의 티켓을 발권한 발권 대상자들의 안면 영상(fs)를 촬영할 수 있다.
이때, 공항 카메라(900)는 상기 티켓을 발권하는 창구에 배치될 수 있으며, 이에 한정을 두지 않는다.
서버(1000)는 상기 티켓 발권시, 상기 발권 대상자들 각각의 이동 단말기 정보(cs)를 취득하고, 상기 발권 대상자들 각각의 이동 단말기 정보(cs)와 매칭되게 공항 카메라(900)에 촬영한 안면 영상(fs)을 저장할 수 있다.
이때, 서버(1000)는 대상 인식부(1010), 대상 선정부(1020) 및 서버 제어부(1030)를 포함할 수 있다.
대상 인식부(1010)는 외부의 입력장치(미도시)로부터 운항 예정 비행기의 운한 변경 정보(vs) 입력시, 공항 로봇들(810 내지 820) 각각으로 영상 정보(ms)를 요청하고, 공항 로봇들(810 내지 820) 각각으로부터 송신된 영상 정보(ms) 및 안면 영상(fs)를 기반으로 상기 예정 탑승 대상자들 중 상기 발권 대상자들의 안면 영상(fs)과 매칭되는 탑승 대상자들을 인식할 수 있다.
운항 변경 정보(vs)는 상기 운항 예정 비행기에 대해 변경 출발 시간, 변경 탑승 시간 및 변경 탑승 게이트 중 적어도 하나를 포함할 수 있다.
대상 선정부(1020)는 대상 인식부(1010)에서 인식한 상기 탑승 대상자들 중 설정 기준을 만족하는 특정 탑승 대상자를 선정할 수 있다.
이때, 상기 설정 기준은 상기 탑승 대상자들 각각의 위치에서, 상기 변경 출발 시간에 탑승하지 못하는 대상자, 상기 변경 탑승 시간에 탑승 게이트에 도달하지 못하는 대상자 및 상기 변경 탑승 게이트에 도달하지 못하는 대상자 중 적어도 하나일 수 있으며, 이에 한정을 두지 않는다.
즉, 대상 선정부(1020)는 상기 운항 변경 정보에 부합되는 상기 특정 대상자들 중 상기 설정 기준을 만족하는 상기 특정 탑승 대상자를 선정하는 것으로, 예를 들면 특정 대상자들 중 몸의 부상으로 이동하기 용이하지 않아 상기 설정 기준을 만족하는 대상자를 특정 탑승 대상자로 선정할 수 있으며, 이에 한정을 두지 않는다.
또한, 대상 선정부(1020)는 공항 로봇들(810 내지 820)의 위치 및 설정된 공항 부대시설의 위치를 기반으로 상기 탑승 대상자들 각각의 위치(lo)를 산출할 수 있다.
서버 제어부(1030)는 상기 특정 탑승 대상자 선정 시, 공항 로봇들(810 내지 820) 중 상기 특정 탑승 대상자의 영상 정보(ms)을 송신한 특정 공항 로봇(812)이 운항 변경 정보(vs)를 상기 특정 탑승 대상자에게 전달 또는 인식하도록 제어할 수 있다.
즉, 서버 제어부(1030)는 공항 로봇들(810 내지 820) 중 상기 특정 탑승 대상자에 인접한 특정 공항 로봇(812)으로 대상 선정부(1020)에서 산출한 상기 특정 탑승 대상자의 위치(lo)에 대응하는 설정 위치(ls)로 이동하는 이동 정보(ns) 및 운항 변경 정보(vs)를 송신할 수 있다.
또한, 서버 제어부(1030)는 이동 정보(ns) 및 운항 변경 정보(vs)를 송신한 후, 특정 공항 로봇(812)로부터 송신된 위치 이탈 정보(los)가 수신되면, 공항 로봇들(810 내지 820) 중 특정 공항 로봇(812)을 제외한 다른 공항 로봇들로 현재 영상 정보(pms)를 요청할 수 있다.
이후, 서버 제어부(1030)는 현재 영상 정보(pms)를 수신하면, 상기 특정 탑승 대상자의 재확인 위치에 매칭되는 다른 특정 공항 로봇으로 이동 정보(ns) 및 운한 변경 정보(vs)를 송신하여, 상기 특정 탑승 대상자가 인식할 수 있도록 제어할 수 있다.
공항 로봇들(810 내지 820)은 서로 동일한 구성으로 이루어져 있으며, 실시 에에서는 특정 공항 로봇(812)에 대한 제어 구성을 설명하기로 한다.
특정 공항 로봇(812)은 통신부(831), 영상 촬영부(832), 영상 인식부(833), 주행 구동부(834), 출력부(835) 및 제어부(836)를 포함할 수 있다.
실시 예에서, 공항 로봇들(810 내지 820)은 현재 시점에서 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 것으로써, 상기 운항 예정 비행기의 탑승 대상자가 다른 게이트 영역에 위치할때 상기 탑승 대상자에게 상기 운항 예정 비행기의 탑승 게이트 영역으로 이동할 수 있도록 하는 서비스를 제공하는 것으로 설명한다.
여기서, 통신부(831)는 서버(1000)로 영상 정보(ms) 및 제어부(836)의 제어에 따라 서버(1000)로 위치 이탈 정보(los)를 송신할 수 있으며, 서버(1000)로부터 이동 정보(ns) 및 운항 변경 정보(vs)를 수신할 수 있다.
실시 예에서, 통신부(831)는 도 2에 기재된 유저 인터페이스부(160)에 포함된 LET 라우터(162)일 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(832)는 상기 탑승 게이트 영역과 다른 현재 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보(ms)를 촬영할 수 있다.
실시 예에서, 영상 촬영부(832)는 도 2에 기재된 2D 카메라(171) 및 RGBD 카메라(172)일 수 있으며, 이에 한정을 두지 않는다.
영상 촬영부(832)는 상기 현재 게이트 영역 내에 위치한 상기 예정 탑승 대상자들을 설정된 섹터(sector)별로 구분 또는 연속적으로 촬영하여, 통신부(831) 및 제어부(836)로 전달할 수 있다.
영상 인식부(833)는 서버(1000)로부터 이동 정보(ns)를 수신하면, 영상 정보(ms)에서 이동 정보(ns)에 포함된 설정 위치(ls)에 매칭되는 상기 특정 탑승 대상자를 인식할 수 있다.
실시 예에서, 영상 인식부(833)는 도 2에 기재된 인식 데이터 처리모듈(173)일 수 있으며, 이에 한정을 두지 않는다.
영상 인식부(833)는 내부적으로 영상 정보(ms)에 포함된 상기 예정 탑승 대상자들의 위치(lo)와 설정 위치(ls)를 매칭시켜 동일한 상기 예정 탑승 대상자를 상기 특정 탑승 대상자로 인식할 수 있다.
주행 구동부(834)는 제어부(836)의 제어에 따라 영상 인식부(833)에서 인식한 상기 특정 탑승 대상자에 대응하는 설정 위치(ls)로 모터를 구동시켜 이동할 수 있다.
실시 예에서, 주행 구동부(834)는 도 2에 기재된 주행 구동부(140)와 동일할 수 있으며, 이에 한정을 두지 않는다.
출력부(835)는 제어부(836)의 제어에 따라 상기 특정 탑승 대상자에게 운항 변경 정보(vs)를 출력할 수 있다.
실시 예에서, 출력부(835)는 도 2에 기재된 유저 인터페이스부(160)에 포함되며, 운항 변경 정보(vs)를 디스플레이하는 터치 모니터(166) 및 운항 변경 정보(vs)를 음성 안내하는 스피커(167)일 수 있으며, 이에 한정을 두지 않는다.
제어부(836)는 도 2에 기재된 마이컴(110) 및 AP(150) 중 적어도 하나일 수 있으며, 이에 한정을 두지 않는다.
제어부(836)는 상기 특정 탑승 대상자의 설정 위치(ls)까지 이동 정보(ns)에 따라 이동되게 주행 구동부(834)를 제어할 수 있다.
이후, 제어부(836)는 주행 구동부(834)를 제어하여 설정 위치(ls)까지 이동하면, 상기 특정 탑승 대상자에게 운항 변경 정보(vs)가 출력되게 출력부(835)를 제어할 수 있다.
또한, 제어부(836)는 상기 특정 탑승 대상자 미 인식 시, 서버(1000)로 상기 특정 탑승 대상자에 대한 위치 이탈 정보(los)가 송신되게 통신부(831)를 제어할 수 있다.
실시 예에 따른 공항 로봇 시스템은 서버에서 특정 탑승 대상자를 선정하여 공항 로봇들 중 특정 공항 로봇으로 특정 탑승 대상자에게 운항 예정 비행기의 운항 변경 정보를 인식시킴으로써, 특정 탑승 대상자가 원할하게 탑승할 수 있도록 하는 서비스를 제공할 수 있는 이점이 있다.
실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 기재된 실시 예들은 설명된 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
또한, 이상에서는 실시 예에 대하여 도시하고 설명하였지만, 실시 예는 상술한 특정에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (21)

  1. 설정된 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하는 영상 촬영부;
    상기 영상 정보을 영상처리하여, 상기 예정 탑승 대상자들 중 상기 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 영상과 매칭되는 탑승 대상자를 인식하는 영상 인식부; 및
    상기 탑승 대상자 인식 시, 상기 탑승 대상자가 상기 탑승 게이트 영역으로 이동하도록, 이동 경로 정보가 출력되게 제어하는 제어부를 포함하는 공항 로봇.
  2. 제 1 항에 있어서,
    상기 발권 대상자의 안면 영상을 서버로부터 수신하는 통신부를 더 포함하는 공항 로봇.
  3. 제 1 항에 있어서,
    모터를 구동시켜 이동하는 주행 구동부; 및
    상기 이동 경로 정보를 출력하는 출력부를 더 포함하는 공항 로봇.
  4. 제 3 항에 있어서,
    상기 제어부는,
    상기 탑승 대상자 인식 시, 상기 영상 정보에서 상기 탑승 대상자의 위치를 산출하는 위치 산출부; 및
    상기 탑승 대상자의 위치에 대응하는 설정 위치까지 상기 주행 구동부를 제어하여 이동한 후, 상기 출력부에 상기 이동 경로 정보가 출력되게 제어하는 구동 제어부를 포함하는 공항 로봇.
  5. 제 3 항에 있어서,
    상기 출력부는,
    상기 이동 경로 정보를 디스플레이하는 터치 모니터 및 상기 이동 경로 정보를 음성 안내하는 스피커 중 적어도 하나를 포함하는 공항 로봇.
  6. 제 1 항에 있어서,
    상기 이동 경로 정보는,
    상기 탑승 대상자의 위치에서 상기 탑승 게이트 영역까지의 이동 경로, 이동 시간 및 탑승 시작 시간 중 적어도 하나를 포함하는 공항 로봇.
  7. 서버로부터 운항 예정 비행기의 티켓을 발권한 발권 대상자의 안면 정보와 이동 단말기 정보 및 상기 운항 예정 비행기의 운항 변경 정보를 수신하는 통신부;
    상기 운항 예정 비행기의 탑승 게이트 영역과 다른 게이트 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하는 영상 촬영부;
    상기 영상 정보를 영상처리하여, 상기 예정 탑승 대상자들 중 상기 안면 정보와 매칭되는 탑승 대상자를 인식하는 영상 인식부; 및
    상기 탑승 대상자 인식 시, 상기 탑승 대상자가 상기 운항 변경 정보를 인식하도록, 상기 이동 단말기 정보를 기반으로 상기 탑승 대상자의 이동 단말기로 상기 운항 변경 정보가 송신되게 상기 통신부를 제어하는 제어부를 포함하는 공항 로봇.
  8. 제 7 항에 있어서,
    상기 제어부는,
    상기 탑승 대상자 인식 시, 상기 이동 단말기 정보에 포함된 이동 단말기 번호에 대한 존재 여부를 확인하는 단말기 확인부; 및
    상기 이동 단말기 번호 존재 시, 상기 이동 단말기로 상기 운항 변경 정보가 송신되게 상기 통신부를 제어하는 구동 제어부를 포함하는 공항 로봇.
  9. 제 8 항에 있어서,
    상기 제어부는,
    상기 이동 단말기 번호 미 존재 시, 상기 영상 정보에서 상기 탑승 대상자의 위치를 산출하여, 상기 구동 제어부로 출력하는 위치 산출부를 더 포함하는 공항 로봇.
  10. 제 9 항에 있어서,
    모터를 구동시켜 이동하는 주행 구동부; 및
    상기 이동 경로 정보를 출력하는 출력부를 더 포함하고,
    상기 구동 제어부는,
    상기 위치 산출부로부터 상기 탑승 대상자의 위치가 입력되면, 상기 탑승 대상자의 위치에 대응하는 설정 위치까지 상기 주행 구동부를 제어하여 이동한 후, 상기 출력부에 상기 운항 변경 정보가 출력되게 제어하는 공항 로봇.
  11. 제 10 항에 있어서,
    상기 출력부는,
    상기 운항 변경 정보를 디스플레이하는 터치 모니터 및 상기 운항 변경 정보를 음성 안내하는 스피커 중 적어도 하나를 포함하는 공항 로봇.
  12. 제 7 항에 있어서,
    상기 운항 변경 정보는,
    상기 운항 예정 비행기에 대해 변경 출발 시간, 변경 탑승 시간 및 변경 탑승 게이트 중 적어도 하나를 포함하는 공항 로봇.
  13. 제 12 항에 있어서,
    상기 운항 변경 정보는,
    상기 변경 탑승 게이트를 포함하는 경우, 상기 탑승 대상자의 위치에서 상기 변경 탑승 게이트까지의 이동 경로를 더 포함하는 공항 로봇.
  14. 운항 예정 비행기의 티켓을 발권한 발권 대상자들의 안면 영상을 촬영하는 공항 카메라;
    상기 발권 대상자들 각각의 이동 단말기 정보 및 상기 이동 단말기 정보와 매칭되게 상기 안면 영상을 저장하며, 입력 장치로부터 상기 운항 예정 비행기의 운항 변경 정보가 입력 시, 상기 발권 대상자들 중 설정 기준을 만족하는 특정 탑승 대상자를 선정하는 서버; 및
    상기 서버로부터 영상 정보 요청 시, 설정 영역에 위치한 예정 탑승 대상자들에 대한 영상 정보를 촬영하여 상기 서버로 송신하는 공항 로봇들을 포함하고,
    상기 서버는,
    상기 운항 변경 정보 입력 시, 상기 공항 로봇으로부터 수신한 상기 영상 정보 및 상기 안면 영상을 기반으로 상기 예정 탑승 대상자들 중 상기 발권 대상자들의 상기 안면 영상과 매칭되는 탑승 대상자들을 인식하는 대상 인식부;
    상기 탑승 대상자들 중 상기 설정 기준을 만족하는 상기 특정 탑승 대상자를 선정하는 대상 선정부; 및
    상기 특정 탑승 대상자 선정 시, 상기 공항 로봇들 중 특정 공항 로봇이 상기 특정 탑승 대상자에게 상기 운항 변경 정보를 전달하도록 제어하는 서버 제어부를 포함하는 공항 로봇 시스템.
  15. 제 14 항에 있어서,
    상기 운항 변경 정보는,
    상기 운항 예정 비행기에 대해 변경 출발 시간, 변경 탑승 시간 및 변경 탑승 게이트 중 적어도 하나를 포함하고,
    상기 설정 기준은,
    상기 탑승 대상자들 각각의 위치에서, 상기 변경 출발 시간에 탑승하지 못하는 대상자, 상기 변경 탑승 시간에 탑승 게이트에 도달하지 못하는 대상자 및 상기 변경 탑승 게이트에 도달하지 못하는 대상자 중 적어도 하나인 공항 로봇 시스템.
  16. 제 15 항에 있어서,
    상기 대상 선정부는,
    상기 공항 로봇들의 위치 및 설정된 공항 부대시설의 위치를 기반으로 상기 탑승 대상자들 각각의 위치를 산출하는 공항 로봇 시스템.
  17. 제 14 항에 있어서,
    상기 서버 제어부는,
    상기 특정 탑승 대상자 선정 시, 상기 공항 로봇들 중 상기 특정 탑승 대상자에 인접한 상기 특정 공항 로봇으로 상기 특정 탑승 대상자의 위치에 대응하는 설정 위치로 이동하는 이동 정보 및 상기 운항 변경 정보를 송신하는 공항 로봇 시스템.
  18. 제 17 항에 있어서,
    상기 특정 공항 로봇은,
    상기 서버로 상기 예정 탑승 대상자들에 대한 상기 영상 정보를 촬영하는 영상 촬영부;
    상기 서버로 상기 영상 정보를 송신하고, 상기 서버로부터 상기 이동 정보 및 상기 운항 변경 정보를 수신하는 통신부;
    상기 서버로부터 상기 이동 정보 수신 시, 상기 영상 정보에서 상기 설정 위치에 매칭되는 상기 특정 탑승 대상자를 인식하는 영상 인식부; 및
    상기 특정 탑승 대상자 인식 시, 상기 특정 탑승 대상자가 상기 운항 변경 정보를 인식하도록, 상기 설정 위치로 이동하여 상기 운항 변경 정보가 출력되게 제어하는 제어부를 포함하는 공항 로봇 시스템.
  19. 제 18 항에 있어서,
    상기 특정 공항 로봇은,
    상기 설정 위치까지 모터를 구동시켜 이동하는 주행 구동부; 및
    상기 운항 변경 정보를 출력하는 출력부를 더 포함하는 공항 로봇 시스템.
  20. 제 19 항에 있어서,
    상기 제어부는,
    상기 특정 탑승 대상자 미 인식 시, 상기 서버로 상기 특정 탑승 대상자에 대한 위치 이탈 정보가 송신되게 상기 통신부를 제어하는 공항 로봇 시스템.
  21. 제 20 항에 있어서,
    상기 서버는,
    상기 특정 공항 로봇으로부터 송신된 상기 위치 이탈 정보를 수신하면, 상기 공항 로봇들 중 상기 특정 공항 로봇을 제외한 다른 공항 로봇들로 현재 영상 정보를 수신하여, 상기 특정 탑승 대상자의 재확인 위치에 매칭되는 다른 특정 공항 로봇으로 상기 이동 정보 및 상기 운항 변경 정보를 송신하는 공항 로봇 시스템.
KR1020160132631A 2016-10-13 2016-10-13 공항 로봇 및 그를 포함하는 공항 로봇 시스템 KR102559745B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160132631A KR102559745B1 (ko) 2016-10-13 2016-10-13 공항 로봇 및 그를 포함하는 공항 로봇 시스템
EP17859629.2A EP3527336A4 (en) 2016-10-13 2017-09-22 AIRPORT ROBOT AND AIRPORT ROBOT SYSTEM THEREFOR
PCT/KR2017/010445 WO2018070687A1 (ko) 2016-10-13 2017-09-22 공항 로봇 및 그를 포함하는 공항 로봇 시스템
US16/340,546 US11260533B2 (en) 2016-10-13 2017-09-22 Robot and robot system comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160132631A KR102559745B1 (ko) 2016-10-13 2016-10-13 공항 로봇 및 그를 포함하는 공항 로봇 시스템

Publications (2)

Publication Number Publication Date
KR20180040839A KR20180040839A (ko) 2018-04-23
KR102559745B1 true KR102559745B1 (ko) 2023-07-26

Family

ID=61906168

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160132631A KR102559745B1 (ko) 2016-10-13 2016-10-13 공항 로봇 및 그를 포함하는 공항 로봇 시스템

Country Status (4)

Country Link
US (1) US11260533B2 (ko)
EP (1) EP3527336A4 (ko)
KR (1) KR102559745B1 (ko)
WO (1) WO2018070687A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2562560B (en) * 2017-05-19 2021-03-24 Sita Inf Networking Computing Usa Inc System and apparatus for resource management
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
JP2019161606A (ja) * 2018-03-16 2019-09-19 オリンパス株式会社 移動撮像システム、学習方法、移動撮像装置、情報取得制御装置、情報取得制御方法及び情報取得制御プログラム
CN109492538A (zh) * 2018-10-17 2019-03-19 广州云从信息科技有限公司 基于人脸识别技术的智能登机系统、方法及可读存储介质
CN109727345A (zh) * 2018-11-29 2019-05-07 国政通科技有限公司 一种基于景区实名的游客圈定系统及方法
JP7235123B2 (ja) * 2019-08-14 2023-03-08 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
KR20190104931A (ko) * 2019-08-22 2019-09-11 엘지전자 주식회사 시설 안내 로봇 및 이를 이용한 시설 안내 방법
CN110943991B (zh) * 2019-11-29 2022-06-24 国网智能科技股份有限公司 变电站巡检与生产管理业务联动系统及方法
CN111179490B (zh) * 2019-12-13 2022-01-11 新石器慧通(北京)科技有限公司 一种用于用户核验的可移动载体、控制系统及无人车辆
CN115569224B (zh) * 2022-10-14 2023-09-19 国网山东省电力公司 用于配电物资仓库的清洁消毒机器人、系统及方法
WO2024084596A1 (ja) * 2022-10-18 2024-04-25 日本電気株式会社 情報処理装置、情報処理制御方法及び記録媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135310A (ja) 2003-10-31 2005-05-26 Oki Electric Ind Co Ltd チェックインシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092103A (ja) 2000-09-13 2002-03-29 Hitachi Information Technology Co Ltd 搭乗情報管理装置
CA2359269A1 (en) 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
JP3938303B2 (ja) * 2001-12-07 2007-06-27 株式会社日立製作所 出国審査系システム、出国審査方法、入国審査系システム、及び入国審査方法
KR100904191B1 (ko) 2008-05-29 2009-06-22 (주)다사로봇 안내용 로봇
KR20110060039A (ko) * 2009-11-30 2011-06-08 동국대학교 산학협력단 대화형 로봇 장치 및 그 제어방법
KR101170686B1 (ko) 2010-03-15 2012-08-07 모빌토크(주) 이동로봇의 안내 서비스방법
US8700250B1 (en) * 2012-03-15 2014-04-15 The Boeing Company Airport transportation system
FR3012425B1 (fr) * 2013-10-24 2017-03-24 European Aeronautic Defence & Space Co Eads France Robot collaboratif d'inspection visuelle d'un aeronef

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135310A (ja) 2003-10-31 2005-05-26 Oki Electric Ind Co Ltd チェックインシステム

Also Published As

Publication number Publication date
EP3527336A1 (en) 2019-08-21
US20200047346A1 (en) 2020-02-13
WO2018070687A1 (ko) 2018-04-19
EP3527336A4 (en) 2020-06-24
US11260533B2 (en) 2022-03-01
KR20180040839A (ko) 2018-04-23

Similar Documents

Publication Publication Date Title
KR102559745B1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
US20190358814A1 (en) Robot and robot system comprising same
US11407116B2 (en) Robot and operation method therefor
US11110600B2 (en) Airport robot and operation method thereof
KR102608046B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
EP3787257A1 (en) Patrol robot and patrol robot management system
KR102597216B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
KR102578138B1 (ko) 공항 로봇 및 이를 포함하는 시스템
US20190224852A1 (en) Assistant robot and operation method thereof
KR20180080499A (ko) 공항용 로봇 및 그의 동작 방법
KR102570164B1 (ko) 공항 로봇 및 그와 연결되는 서버의 동작 방법
JP2019114110A (ja) 情報収集システムおよびサーバ装置
KR20180039378A (ko) 공항용 로봇 및 그의 동작 방법
KR102599784B1 (ko) 공항 로봇
JP2020079997A (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180040907A (ko) 공항 로봇
KR20180040255A (ko) 공항 로봇
KR20180038884A (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
US20190354246A1 (en) Airport robot and movement method therefor
KR102581196B1 (ko) 공항 로봇 및 공항 로봇의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체
KR20180037855A (ko) 공항 로봇 및 공항 로봇 시스템
US11766779B2 (en) Mobile robot for recognizing queue and operating method of mobile robot
KR20180038871A (ko) 공항용 로봇 및 그의 동작 방법
KR102594250B1 (ko) 공항 로봇
KR102677180B1 (ko) 공항용 보조 로봇 및 그의 동작 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right