KR102608046B1 - 공항용 안내 로봇 및 그의 동작 방법 - Google Patents
공항용 안내 로봇 및 그의 동작 방법 Download PDFInfo
- Publication number
- KR102608046B1 KR102608046B1 KR1020160130735A KR20160130735A KR102608046B1 KR 102608046 B1 KR102608046 B1 KR 102608046B1 KR 1020160130735 A KR1020160130735 A KR 1020160130735A KR 20160130735 A KR20160130735 A KR 20160130735A KR 102608046 B1 KR102608046 B1 KR 102608046B1
- Authority
- KR
- South Korea
- Prior art keywords
- airport
- robot
- unit
- distance
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims abstract description 35
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000004891 communication Methods 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims abstract description 14
- 238000005259 measurement Methods 0.000 description 127
- 238000004364 calculation method Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 13
- 238000004140 cleaning Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 239000000428 dust Substances 0.000 description 7
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 229910001416 lithium ion Inorganic materials 0.000 description 6
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010407 vacuum cleaning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000007514 turning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명의 일 실시예에 의한 공항용 안내 로봇은 공항 지도 데이터를 저장하는 맵(map) 관리모듈, 이미지를 촬영하는 카메라, 데이터를 송수신하는 통신부, 이미지를 처리하는 이미징 프로세서, 처리된 이미지를 출력하는 디스플레이부, 공항용 안내 로봇을 이동시키는 구동부 및 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고, 상기 제어부는 길 안내 요청 신호를 수신하는 경우, 현재 위치로부터 목적지까지의 이동 경로를 계산하고, 이동 경로에 따라 이동하고, 카메라를 통해 이동 경로 일정 영역의 실시간 영상을 촬영하고, 촬영된 실시간 영상을 상기 디스플레이부에 출력하도록 제어하는 것을 특징으로 한다.
Description
본 발명은 공항에 배치되는 로봇 및 그의 동작 방법에 관한 것이다. 보다 상세하게는 공항에 배치되어 사용자들에게 목적지 길 안내 서비스를 제공하는 공항용 안내 로봇을 제공한다. 실제 목적지까지 사용자들과 동행하면서 전방 화면을 표시하는 길 안내 서비스 제공하는 공항용 안내 로봇에 관한 것이다.
최근 딥러닝(Deep Learning) 기술, 자율 주행 기술, 자동 제어 기술, 사물인터넷 등의 발전으로 로봇의 기능이 확대되고 있다.
각각의 기술을 구체적으로 설명하면, 딥러닝은 기계학습의 한 분야에 해당한다. 딥러닝은 프로그램에 미리 조건을 확인하고 명령을 설정해두는 방식이 아니라, 다양한 상황에 대해 프로그램이 유사한 판단을 내리도록 하는 기술이다. 따라서, 딥러닝에 따르면 컴퓨터가 인간의 뇌와 유사하게 사고할 수 있고, 방대한 양의 데이터 분석을 가능하게 한다.
자율 주행은 기계가 스스로 판단하여 이동하고, 장애물을 피할 수 있는 기술이다. 자율 주행 기술에 따르면 로봇은 센서를 통해 자율적으로 위치를 인식하여 이동하고 장애물을 피할 수 있게 된다.
자동 제어 기술은 기계에서 기계 상태를 검사한 계측 값을 제어 장치에 피드백하여 기계의 동작을 자동으로 제어하는 기술을 말한다. 따라서 사람의 조작 없는 제어가 가능하고, 목적하는 제어 대상을 목적하는 범위 내 즉, 목표 값에 이르도록 자동적으로 조절할 수 있다.
사물인터넷(Internet of Things)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 사물인터넷에 의해 인터넷에 연결된 기기들은 사람의 도움 없이 알아서 정보를 주고 받으며 자율적인 소통을 하게 된다.
위에서 설명한 바와 같은 기술들의 발전 및 융합으로 지능형 로봇의 구현이 가능하고, 지능형 로봇을 통해 다양한 정보와 서비스의 제공이 가능해졌다.
로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다. 예를 들면, 자동차 생산과 같은 기계 가공 공업에서는 로봇이 반복작업을 수행할 수 있다. 즉, 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있다.
또한 로봇에 카메라가 장착되는 기술은 이미 종래에 많이 구현되어 있다. 로봇은 카메라를 이용하여 위치를 확인하거나 장애물을 인식할 수 있다. 또한, 촬영 영상을 디스플레이부에 표시하는 것도 충분히 구현되고 있다.
본 발명의 목적은 공항용 로봇이 동행하면서 길 안내 서비스를 제공할 때 사용자의 시야를 방해하지 않도록 하는 것이다.
본 발명의 다른 목적은 복잡한 지리적 조건을 가진 공항에서 이용객들에게 효과적으로 길 안내 서비스를 제공하는 것이다.
본 발명의 또 다른 목적은 공항 이용객에게 목적지 주변 정보를 제공하는데 있어서, 단순 그림 이나 사진이 실제 공항 내 영상을 제공하는 것이다.
본 발명의 또 다른 목적은 공항용 로봇이 동행 길 안내 서비스를 제공할 때 사용자를 놓치는 오류를 방지하는 것이다.
본 발명에 따른 공항용 안내 로봇은 카메라 및 디스플레이부를 구비할 수 있다. 공항용 안내 로봇은 카메라로 촬영된 전방 영상을 디스플레이부에 출력할 수 있다. 후행하는 사용자는 디스플레이부에 표시된 전방 영상을 확인할 수 있다.
본 발명에 따른 공항용 안내 로봇은 이동 경로에 기초하는 네비게이션 컨텐츠를 디스플레이부에 출력할 수 있다. 후행하는 사용자는 디스플레이부에 표시된 네비게이션 컨텐츠를 확인할 수 있다.
본 발명에 따른 공항용 안내 로봇은 목적지 주변을 촬영하는 실시간 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고, 공항용 안내 로봇은 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 디스플레이부에 출력할 수 있다. 나아가, 공항용 안내 로봇은 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력할 수 있다.
본 발명에 따른 공항용 안내 로봇은 카메라 또는 센서를 이용하여 후행하는 사용자와 안내 로봇 사이의 거리를 실시간으로 센싱할 수 있다. 그리고, 안내 로봇은 경우에 따라서 이동 속도를 조절할 수 있다.
본 발명에 따른 공항용 안내 로봇은 카메라로 촬영된 전방 영상을 디스플레이부에 출력할 수 있다. 그리고 후행하는 사용자는 디스플레이부에 표시된 전방 영상을 확인할 수 있다. 그 결과, 후행하는 사용자가 전방 영상을 확인할 수 있고, 로봇에 의해 전방 시야가 가려지는 문제점을 해결하는 효과를 가져온다.
본 발명에 따른 공항용 안내 로봇은 동행 서비스를 제공함과 동시에 네비게이션 컨텐츠를 표시할 수 있다. 그 결과 후행하는 사용자가 현재 어떠한 경로로 이동 중인지를 쉽게 파악할 수 있는 효과를 가져온다.
본 발명에 따른 공항용 안내 로봇은 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력할 수 있다. 그 결과, 사용자는 실제 목적지 주변 정보를 쉽게 파악할 수 있고, 주요 시설을 효과적으로 찾아갈 수 있는 효과가 있다.
본 발명에 따른 공항용 안내 로봇은 실시간으로 사용자와의 거리를 센싱하여 항상 일정한 거리를 유지할 수 있다. 그 결과 동행 길 안내 서비스를 제공하는데 있어서 사용자를 놓치는 오류를 방지하는 효과를 가져온다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라를 통해 공항 내에서 전방위 영상을 촬영하는 일 예를 설명하기 위한 도면이다.
도 5 내지 도 8은 본 발명의 일 실시예에 의한 안내 로봇에 장착되는 전방위 카메라에 대하여 설명하기 위한 도면들이다.
도 9 및 도 10은 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라로 촬영한 일부 영상을 디스플레이부에 출력하는 일 예를 설명하기 위한 도면들이다.
도 11 내지 도 13은 본 발명의 일 실시예에 의한 안내 로봇이 CCTV 영상을 수신하여 디스플레이부에 출력하는 일 예를 설명하기 위한 도면이다.
도 14 내지 도 18은 본 발명의 일 실시예에 의한 안내 로봇이 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동하는 일 예를 설명하기 위한 도면들이다.
도 19 내지 도 21은 본 발명의 일 실시예에 의한 안내 로봇들이 구역별로 나누어 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면들이다.
도 22는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라를 통해 공항 내에서 전방위 영상을 촬영하는 일 예를 설명하기 위한 도면이다.
도 5 내지 도 8은 본 발명의 일 실시예에 의한 안내 로봇에 장착되는 전방위 카메라에 대하여 설명하기 위한 도면들이다.
도 9 및 도 10은 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라로 촬영한 일부 영상을 디스플레이부에 출력하는 일 예를 설명하기 위한 도면들이다.
도 11 내지 도 13은 본 발명의 일 실시예에 의한 안내 로봇이 CCTV 영상을 수신하여 디스플레이부에 출력하는 일 예를 설명하기 위한 도면이다.
도 14 내지 도 18은 본 발명의 일 실시예에 의한 안내 로봇이 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동하는 일 예를 설명하기 위한 도면들이다.
도 19 내지 도 21은 본 발명의 일 실시예에 의한 안내 로봇들이 구역별로 나누어 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면들이다.
도 22는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(100)의 하드웨어는 마이컴(Micom) 그룹과 및 AP 그룹으로 구성될 수 있다. 마이컴(110) 그룹은 마이컴(110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)을 포함할 수 있다. AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다. 상기 유저 인터페이스부(160)는 통신부로 명명될 수 있다.
마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130) 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다.
전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. 배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.
장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. IR 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. 모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터, 브러시 모터 및 석션 모터를 구동하는 역할을 수행할 수 있다. 휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.
AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치로서 기능할 수 있다. AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하게 할 수 있다.
유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. 유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력 받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.
사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. 2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.
위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.
랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 2에 도시된 바와 같이, 공항 로봇의 인식 및 행동을 제어하기 위해서 마이컴(210)과 AP(220)는 다양한 실시예로 구현될 수 있다.
일 예로서, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)를 포함할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. 데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우에 이머전시 모듈(212)은 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 리튬-이온 배터리(122)의 충전과 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.
AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. 인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. 유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. 사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. 플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. 네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. 모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 위치 인식부(230)를 포함할 수 있다. 위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. 맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다.
위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.
다음으로 도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 공항 로봇 시스템은 이동 단말기(310), 서버(320), 공항 로봇(300) 및 카메라(330)를 포함할 수 있다.
이동 단말기(310)는 공항 내 서버(320)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(310)는 서버(320)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(310)를 통해 공항에서 필요한 정보를 서버(320)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(310)는 서버(320)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(320)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(320)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.
또한, 이동 단말기(310)는 공항 로봇(300)과 데이터를 송수신할 수 있다.
예를 들어, 이동 단말기(310)는 공항 로봇(300)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(300)으로 전송할 수 있다. 공항 로봇(300)은 이동 단말기(310)로부터 수신된 호출 신호에 응답하여 이동 단말기(310)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(300)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(310)로 전송할 수 있다.
다음으로, 공항 로봇(300)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.
공항 로봇(300)은 이동 단말기(310) 또는 서버(320)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(300)은 서버(320)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(300)은 공항 내 카메라(330)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. 따라서 공항 로봇(300)은 공항 로봇(300)이 촬영한 영상 정보 및 카메라(330)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링할 수 있다.
공항 로봇(300)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(300)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(300)은 사용자, 이동 단말기(310) 또는 서버(320) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
다음으로 서버(320)는 이동 단말기(310), 공항 로봇(300), 카메라(330)로부터 정보를 수신할 수 있다. 서버(320)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(320)는 저장된 정보들을 이동 단말기(310) 또는 공항 로봇(300)에 전송할 수 있다. 또한, 서버(320)는 공항에 배치된 복수의 공항 로봇(300)들 각각에 대한 명령 신호를 전송할 수 있다.
카메라(330)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(330)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(330)는 촬영된 영상을 서버(320) 또는 공항 로봇(300)에 전송할 수 있다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라를 통해 공항 내에서 전방위 영상을 촬영하는 일 예를 설명하기 위한 도면이다.
본 발명의 일 실시예에 의한 안내 로봇은 공항 내 일정 영역을 순회 이동하면서 전방위 카메라를 이용하여 기 정해진 범위 내의 영상을 촬영하여 저장할 수 있다.
예를 들어 도 4에 도시된 바와 같이, 안내 로봇(400)은 디스플레이부 상부측에 전방위 카메라(410)가 장착될 수 있다. 전방위 카메라(410)는 360도(degree) 카메라로 명명될 수 있다. 전방위 카메라(400)는 기 설정된 거리내의 360도 영역 즉 전방위 영역(415)의 영상을 촬영할 수 있다. 전방위 카메라(410)에 대해서는 이하 도 5 내지 도 8에서 자세히 설명하도록 하겠다.
도 5 내지 도 8은 본 발명의 일 실시예에 의한 안내 로봇에 장착되는 전방위 카메라에 대하여 설명하기 위한 도면들이다.
전방위 카메라(410)는 내부에 카메라를 장착하고 있고 일부 제품은 회전식 카메라를 채택하여 카메라를 회전시켜 사물을 촬영할 수 있다. 회전식 카메라가 장착된 전방위 카메라(410)는 도 5에 도시된 바와 같이, 카메라의 상대 위치를 나타내는 아날로그 신호를 출력하는 카메라 위치 입력부(510)와; 상기 아날로그 신호를 디지털 변환하여 출력하는 아날로그/디지털 변환기(520)와; 디지털 변환된 데이터를 참조하여 카메라의 상대 위치를 판단하는 제어부(530)와; 상기 제어부(530)의 동작 상태를 표시하는 표시부(540)를 포함할 수 있다.
카메라 위치 입력부(510)는 카메라의 상대 위치를 나타내는 신호를 제어부(530)로 전달하여 제어부(530)에서 카메라의 상대 위치를 파악하고 그에 대응한 작업을 수행하는데 카메라 위치 입력부(510)는 전방위 카메라(410)마다 다른 구성을 가질 수 있다.
도 6은 전방위 카메라(410)에 포함될 수 있는 회전식 카메라의 회전각도 인식 장치의 구성을 보인 예시도로서, 이에 도시된 바와 같이 소정 각도로 회전하는 회전식 카메라(521)와; 상기 회전식 카메라(521)의 상대 위치에 따른 아날로그 신호를 출력하는 카메라 위치 신호 출력부(522)로 구성될 수 있다.
회전식 카메라(521)는 360도 이내에서 소정 각도로 회전하면서 촬영한 영상을 제어부로 전달하여 표시부(523)에 출력하고 카메라 위치 신호 출력부(522)는 회전식 카메라(521)의 상대 위치를 나타내는 아날로그 신호를 제어부에 출력하여 제어부에서 카메라의 상대 위치를 판단하게 한다.
도 7은 도 6의 회전식 카메라의 회전 여부를 인식하는 장치를 설명하는 예시도로서, 이에 도시된 바와 같이 카메라가 소정 각도로 회전할 때 스위치(531)가 아래 위로 움직임을 설명하고 이에 따라 스위치(531)가 온/오프되어 카메라의 상대 위치를 나타내는 하이/로우 신호가 제어부로 출력될 수 있다.
스위치(531)가 회전판의 홈(534)에 위치하면 오프되어 카메라 위치 신호 출력부에서 제어부로 하이 신호를 출력하고, 반대로 스위치가 홈(534)이 파이지 않은 부분에 위치하면 온되어 로우 신호가 출력된다. 이와 같은 전방위 카메라(410) 구조에서 카메라가 전면을 향한 상태를 기준으로 촬영하도록 초기 설정되어 있으면 카메라가 회전하여 후면을 향하게 되었을 때 표시부에 출력되는 영상은 상하가 뒤집힌 상태로 보일 것이다. 이를 바로 잡기 위해 사용자는 수동 조작하여 상하가 뒤집힌 영상을 반전시킬 수 있다.
그리고, 회전판 홈의 위치에 따라 스위치를 온/오프시키는 기구 구성은 간단하지만 마찰로 인한 마모 등으로 인해 내구성과 안정성을 떨어뜨릴 수 있다.
도 8은 본 발명의 전방위 카메라에 포함되는 회전식 카메라의 회전각도 인식 장치의 구성을 보인 예시도로서, 이에 도시된 바와 같이 소정 각도로 회전하는 카메라(541)와; 상기 카메라(541)의 회전축과 연결되어 회전에 의해 저항값이 변하는 가변 저항과 저항값이 일정한 고정 저항에 의해 전원전압을 분배하여 출력하는 전압 출력부(542)와; 상기 전압 출력부(542)의 전압값을 디지털 변환하여 카메라의 회전 각도를 계산하고 회전 각도에 대응한 영상 표시를 제어하는 제어부(543)로 구성될 수 있다.
카메라(541)는 360도 범위 내에서 소정 각도로 회전하고, 카메라 모듈의 회전축과 가변 저항(542)의 회전축이 연결된다. 카메라(541)가 회전하면 가변 저항(542)의 회전축이 회전하여 가변 저항(542)의 저항값이 변할 수 있다. 전압 출력부(542)는 카메라 회전에 의해 저항값이 변하는 가변 저항과 저항값이 일정한 고정 저항에 의해 전원전압을 분배하여 소정 전압값을 출력할 수 있다.
제어부(543)는 상기 전압 출력부(542)의 전압값을 아날로그/디지털 변환기에 의해 디지털 변환하여 카메라의 회전 각도를 계산하고 회전 각도에 대응한 표시부(544)의 영상 표시를 제어한다. 카메라(541)의 회전 각도가 소정 기준 각도 이상이면 표시부(544)의 영상 뒤집힘을 판단하고 카메라(541)의 입력 영상을 반전시킬 수 있다.
도 9 및 도 10은 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라로 촬영한 일부 영상을 디스플레이부에 출력하는 일 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 의한 안내 로봇은 공항 내에서 사용자에게 길 안내 동행 서비스를 제공할 수 있다. 즉, 사용자는 공항 내에서 안내 로봇에게 현 위치로부터 특정 목적지까지의 길 안내 서비스를 요청할 수 있다. 안내 로봇은 사용자에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다. 이 경우, 안내 로봇은 전방위 카메라로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다.
예를 들어 도 9에 도시된 바와 같이, 사용자(920)는 안내 로봇(900)에 길 안내 서비스를 요청할 수 있다. 그리고, 안내 로봇(900)은 공항 내에서 사용자(920)에게 길 안내 동행 서비스를 제공할 수 있다. 안내 로봇(900)은 사용자(920)에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇(900)은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다.
이 경우, 안내 로봇(900)은 전방위 카메라(910)로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다. 예를 들어 도 9에 도시된 바와 같이, 안내 로봇(900)은 이동방향을 기준으로 정면을 포함하는 영역을 촬영한 영상(935)을 디스플레이부에 출력할 수 있다. 따라서, 사용자(920)는 길 안내 동행 서비스를 제공받을 때, 안내 로봇(900)에 의해 정면 시야가 가려져서 얻는 불편함을 해소할 수 있다.
뿐만 아니라 도 10에 도시된 바와 같이, 안내 로봇(900)은 전방위 카메라(910)로 촬영한 일정 영역의 영상(935)과 같은 제1 컨텐츠 뿐만 아니라 지도 이미지나 네비게이션 등의 길 안내 표시 서비스를 제공하는 제2 컨텐츠(940)도 함께 디스플레이부에 출력할 수 있다.
또한, 안내 로봇(900)은 디스플레이부에 터치 패드 등의 사용자 인터페이스를 포함할 수 있다. 그리고, 사용자(920)는 안내 로봇(900)의 디스플레이부를 터치 하는 등의 방식으로 제2 컨텐츠를 변경할 수 있다. 예를 들어, 제2 컨텐츠는 우선 목적지까지 이동하는 이동 경로를 표시하는 네비게이션 영상일 수 있다. 그리고 사용자(920)가 디스플레이부를 터치하면 제2 컨텐츠는 공항 내 주요시설에 대한 안내 영상으로 변경될 수 있다. 또한, 사용자(920)가 안내 로봇(900)의 디스플레이부를 다시 터치하면 제2 컨텐츠는 목적지와 관련된 컨텐츠로 변경될 수 있다. 또한, 사용자(920)가 안내 로봇(900)의 디스플레이부를 다시 터치하면 제2 컨텐츠로서 목적지까지 이동하는 이동 경로를 표시하는 네비게이션 영상이 다시 출력될 수 있다.
도 11 내지 도 13은 본 발명의 일 실시예에 의한 안내 로봇이 CCTV 영상을 수신하여 디스플레이부에 출력하는 일 예를 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 공항 내에는 복수 개의 CCTV(1111, 1112, 1113)들이 랜덤하게 배치될 수 있다. 복수 개의 CCTV(1111, 1112, 1113)들은 공항 내 상황을 실시간으로 촬영할 수 있다. 또한, 복수 개의 CCTV(1111, 1112, 1113)들은 실시간 촬영 영상 데이터를 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들에게 전송할 수 있다. 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들은 CCTV로부터 전달받은 영상 데이터를 이용하여 공항 이용객에게 다양한 서비스를 제공할 수 있다. 또한, 또한, 복수 개의 CCTV(1111, 1112, 1113)들은 실시간 촬영 영상 데이터를 서버에 전송할 수 있다. 그리고, 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들은 서버로부터 특정 CCTV가 촬영한 실시간 촬영 영상 데이터를 수신할 수 있다.
그리고, 본 발명의 일 실시예에 의한 안내 로봇은 길 안내 동행 서비스를 사용자에게 제공할 때, CCTV가 촬영한 실시간 촬영 영상 데이터를 수신하여 출력할 수 있다. 이 때, 안내 로봇은 CCTV가 촬영한 실시간 촬영 영상 데이터를 가공하여 디스플레이부에 출력할 수 있다.
예를 들어, 도 12에 도시된 바와 같이, 사용자(1120)는 안내 로봇(1100)에 길 안내 서비스를 요청할 수 있다. 그리고, 안내 로봇(1100)은 공항 내에서 사용자(1120)에게 길 안내 동행 서비스를 제공할 수 있다. 안내 로봇(1100)은 사용자(1120)에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇(1100)은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다.
이 경우, 안내 로봇(1100)은 전방위 카메라(1110)로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다. 예를 들어 도 12에 도시된 바와 같이, 안내 로봇(1100)은 이동방향을 기준으로 정면을 포함하는 영역을 촬영한 영상(1130)을 디스플레이부에 출력할 수 있다. 따라서, 사용자(1120)는 길 안내 동행 서비스를 제공받을 때, 안내 로봇(1100)에 의해 정면 시야가 가려져서 얻는 불편함을 해소할 수 있다.
뿐만 아니라 도 12에 도시된 바와 같이, 안내 로봇(1100)은 전방위 카메라(1110)로 촬영한 일정 영역의 영상(1130)과 같은 제1 컨텐츠 뿐만 아니라 CCTV(1115)가 촬영한 실시간 촬영 영상(1140) 데이터를 가공하여 디스플레이부에 출력할 수 있다. 이 때, 안내 로봇(1100)는 CCTV(1115)가 촬영한 실시간 촬영 영상(1140) 에서 현재 사용자(1120)의 위치를 표시하는 인디케이터를 추가하는 영상 데이터 가공 프로세스를 진행할 수 있다. 따라서, 안내 로봇(1100)은 길 안내 동행 서비스를 제공함에 있어서, 전방위 카메라(1110)가 촬영한 영상 및 CCTV(1115)가 촬영한 영상을 함께 디스플레이부에 출력할 수 있다.
또한 도 13에 도시된 바와 같이, 안내 로봇(1100)는 CCTV(1115)가 촬영한 실시간 촬영 영상(1140)에서 주요 시설을 나타내는 인디케이터를 추가하는 영상 데이터 가공 프로세스를 진행할 수 있다. 따라서 사용자(1120)는 길 안내 동행 서비스를 제공받을 때, 전방 일정 영역을 촬영하는 영상(1130) 및 주요 시설을 나타내는 인디케이터가 표시된 CCTV(1115) 촬영 영상을 함께 제공받을 수 있다.
도 14 내지 도 18은 본 발명의 일 실시예에 의한 안내 로봇이 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동하는 일 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 의한 안내 로봇은 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동할 수 있다. 예를 들어 도 14에 도시된 바와 같이, 안내 로봇1400)은 사용자(1420)에게 길 안내 동행 서비스를 제공하는 경우에 전방위 카메라(1410)를 이용하여 실시간으로 사용자(1420)를 촬영할 수 있다. 또한, 안내 로봇(1400)은 전방위 카메라(1410)를 이용하여 안내 로봇(1400)과 사용자(1420) 사이의 거리를 실시간으로 측정할 수 있다. 또한, 안내 로봇(1400)은 적외선 센서 등을 이용하여 후행하는 사용자(1420)와 안내 로봇(1400) 사이의 거리를 실시간으로 측정할 수 있다. 그리고 사용자(1420)와 안내 로봇(1400) 사이의 거리가 기 정해진 거리 이상으로 멀어지는 경우, 안내 로봇(1400)은 자신의 속도를 조절하거나 사용자(1420)에게 다가가는 방식을 사용하여 거리를 조정할 수 있다.
또한 본 발명의 일 실시예에 의한 안내 로봇(1400)은 사용자(1420)에게 길 안내 서비스를 제공하는데 있어서 장애물 또는 이물질의 방해를 회피하기 위하여 카메라를 이용할 수 있다. 안내 로봇(1400)은 전방위 카메라(1410)를 이용하여 벽면과 일정한 거리를 유지하거나, 바닥면 촬영 카메라를 별도로 구비하여 바닥면과 일정한 거리를 유지할 수 있다. 또한, 바닥면 거리 유지 장치는 진공 청소 수단을 구비하여 바닥면의 먼지 등도 흡입할 수 있다.
도 15에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇(1400)은 거리 측정 센서(1500)를 포함할 수 있다. 거리 측정 센서(1500)는 측정 면과 측정 면에 빔을 발산하는 광원(1510)의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원(1510)과 측정면 사이의 거리를 산출할 수 있다. 이러한 거리 측정 센서(1500)는 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(1510)과, 광원(1510)에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부(1520)와, 촬상부(1520)에 의해 촬상된 측정 면 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부(1530)와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 거리정보 테이블(1540)과, 포인트 위치 산출부(1530)에 의해 산출된 위치 정보를 통해 거리정보 테이블(1540)로부터 해당 포인트 위치 정보에 대응되는 광원(1510)과 측정 면 간의 거리정보를 참조하여 광원(1510)과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부(1550)를 포함하여 구성될 수 있다. 아울러 광원(1510)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(1520) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다.
광원(1510)은 예를 들면, LED와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(1510)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다.
광원(1510)은 촬상부(1520)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(1510)이 수직에 소정 각도로 설치되는 이유는 광원(1510)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다.
본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(1510)은 LED와, LED로부터 발산되는 광을 소정폭과 직진성을 가지는 빔으로 집속하는 광 집속부를 포함하여 구성될 수 있다. 일반적으로 LED로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. 따라서, 광 집속부는 LED로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속할 수 있다. 이러한 광 집속부는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED에 결합되되, 소정 크기의 홀이 형성된 커버로 구성될 수 있다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다.
촬상부(1520)는 측정 면과 평행하게 형성되며, 광원(1510)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(1520)는 광원(1510)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 포인트 위치 산출부(1530)로 출력할 수 있다.
포인트 위치 산출부(1530)는 포인트 위치 산출부(1530)는 촬상부(1520)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1550)로 출력한다. 포인트 위치 산출부(1530)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송할 수 있다.
거리정보 테이블(1540)은 예를 들면, 콤팩트한 사이즈를 가지며, 읽고 쓰기가 가능한 플래시 메모리로 구성될 수 있다. 거리정보 테이블(1540)은 실험에 의해 미리 산출된 측정 면 영상 내에서의 포인트 위치별로 그와 대응되는 광원(1510)과 측정 면과의 거리 정보가 저장될 수 있다. 이렇게 저장된 데이터는 거리 산출부(1550)에 의해 액세스 제어될 수 있다.
거리 산출부(1550)는 포인트 위치 산출부(1530)로부터 출력되는 포인트의 위치 정보를 수신하고, 거리 정보테이블로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1510)과 측정 면간의 거리를 액세스하고, 이를 제공할 수 있다.
이러한 광원(1510)과 측정 면간의 거리 변화에 따른 포인트의 위치 변화의 상관관계를 통해 거리 산출부(1550)는 광원(1510)과 측정 면간의 거리 정보를 산출한다. 이러한 포인트의 위치별 거리 정보는 상술한 바와 같이, 실험에 의해 산출된 실측 정보가 샘플링되어 거리정보 테이블(1540)에 저장되며, 거리 산출부(1550)는 해당 포인트 위치 산출부(1530)에 의해 산출된 포인트의 위치 정보를 이용하여 해당 위치 정보에 대응되는 거리 정보를 거리정보 테이블(1540)로부터 액세스하여 출력할 수 있다.
도 16에 도시된 바와 같이, 본 발명에 따른 안내 로봇(1600)은 바닥면 부근에 구동 모듈과 함께 바닥면 청소를 수행하는 진공 청소 수단(1620)을 포함할 수 있다. 그리고 안내 로봇(1600)은 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하는 거리 측정 센서(1610)와, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(1610)와 측정 면간의 거리를 산출하는 마이컴(1670)을 포함하여 구성될 수 있다.
거리 측정 센서(1610)는 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하되, 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(1611)과, 광원(1611)으로부터 조사된 빔에 의해 측정 면에 생성되는 빔 포인트를 포함하는 측정 면 영상을 촬영하여 마이컴(1670)으로 출력하는 촬상부(1612)를 포함하여 구성된다. 아울러 광원(1611)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(1612) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다.
광원(1611)은 예를 들면, LED와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(1611)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다.
광원(1611)은 촬상부(1612)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(1611)이 수직에 소정 각도로 설치되는 이유는 광원(1611)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다.
촬상부(1612)는 측정 면과 평행하게 형성되며, 광원(1611)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(1612)는 광원(1611)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 마이컴(1670)으로 출력할 수 있다.
도 16의 안내 로봇(1600)의 기본 구성을 살펴보면 청소구역 내의 먼지 또는 이물질을 감지하는 먼지 감지 센서를 포함하고, 먼지 감지 센서에 의해 감지된 먼지 또는 이물질을 흡입하는 흡입수단(1621)과, 흡입수단(1621)에 의해 집진 된 먼지 및 이물질을 수납하는 먼지 수납 수단(1622)를 포함하는 진공 청소 수단(1620)과, 청소로봇(1600)을 주행시키는 주행수단(1630)과, 진공 청소 수단(1620) 및 주행수단(1630)에 구동 전원을 공급하는 배터리(1640)와, 소정 주기마다 배터리(1640)의 잔량을 감지하여 그 값이 소정 값 이하일 경우 배터리 충전 요청 신호를 출력하는 배터리 감지 회로(1650)와, 청소로봇(1600)의 구동 프로그램이 저장되며, 안내신호로부터 산출된 충전대의 위치정보가 저장되는 메모리(1660) 및 사용자의 조작명령을 입력받는 입력부(1680)와 청소로봇의 구동 상태를 표시하는 표시부(1690)를 포함할 수 있다.
메모리(1660)는 예를 들면, EEPROM 또는 플래시 메모리와 같은 비휘발성 메모리 소자로 구성되며, 안내 로봇(1600)의 구동을 위한 운영 프로그램이 저장되어 있다. 또한, 본 발명의 특징적인 양상에 따라 메모리(1660)는 측정 면 영상 내의 포인트 위치별 거리정보가 저장된다 상술한 바와 같이, 포인트의 위치별 거리정보는 실험에 의해 산출된 실측 정보가 샘플링되어 저장되며, 이러한 데이터는 마이컴(1670)에 의해 액세스 제어된다.
주행수단(1630)은 마이컴(1670)으로부터 출력되는 제어신호에 따라 우륜 및 좌륜모터(1621, 1622)를 구동시켜 이동로봇(1600)을 주행시킨다. 주행수단(1630)의 우륜 및 좌륜모터(1621, 1622)는 이동로봇(1600)을 주행시키는 좌/우 바퀴와 연결될 수 있다. 따라서, 우륜 및 좌륜모터(1621, 1622)의 회전속도와 회전 방향에 따라 이동로봇(1600)은 전후좌우로 주행할 수 있다.
마이컴(1670)은 메모리(1660)에 저장된 운영 프로그램에 따라 이동로봇(1600) 장치 전반을 제어하며, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(1610)와 측정 면간의 거리를 산출하고, 산출된 거리 정보에 따라 필요한 경우 주행 방향을 재설정한다.
이러한 마이컴(1670)의 기능은 이동로봇(1600)에 탑재되는 운영 프로그램의 기능 모듈 중 하나로써, 소프트웨어 언어로 간단하게 구현가능하다.
마이컴(1670)은 주행수단(1630)의 구동을 제어하는 주행 제어부(1671)와, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상을 수신하여 포인트를 추출하고, 추출된 포인트 위치를 산출하는 포인트 위치 산출부(1672)와, 포인트 위치 산출부(1672)에 의해 산출된 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 메모리(1660)에서 참조하여 거리 측정 센서(1610)와 측정 면간의 거리를 산출하는 거리 산출부(1673)를 포함하여 구성될 수 있다.
주행 제어부(1671)는 이동로봇(1600)의 운영 프로그램으로부터 출력되는 제어명령에 따라 이동로봇(1600)을 주행시키는 주행수단(1630)을 제어할 수 있다.
포인트 위치 산출부(1672)는 촬상부(1612)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력한다. 포인트 위치 산출부(1672)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송할 수 있다.
거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 출력할 수 있다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)를 저면에 설치하여 거리 산출부(1673)에 의해 측정된 거리 정보를 통해 장애물 및 바닥 면과 이동로봇(1600) 간의 높이가 달라지는 문턱과 같은 임무 수행 불가능 지역을 판단하여 해당 지역을 이탈할 수 있다. 이에 따라 본 발명에 따른 마이컴(1670)은 거리 산출부(1673)에 의해 산출된 측정 면간의 거리가 소정 오차 범위를 벗어나는 경우 장애물로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 주행 제어부(1671)로 제어 신호를 출력하는 주행 방향 설정부(1674)를 더 포함할 수 있다.
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 안내 로봇(1600)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고, 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
따라서, 본 발명에 따른 안내 로봇(1600)은 초 근접 거리 측정이 가능한 거리 측정 센서(1610)를 통해 안내 로봇(1600)과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)를 안내 로봇(1600)의 측면에 설치하여 월 팔로윙(wall following) 주행시 해당 벽면으로부터 일정한 간격으로 주행할 수 있도록 한다. 이에 따라 본 발명에 따른 마이컴(1670)의 주행 방향 설정부(1674)는 거리 산출부(1673)에 의해 산출된 측정 면과의 거리를 설정된 거리 정보와 비교하여 측정 면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 안내 로봇(1600)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 안내 로봇(1600)의 진행방향을 유지시키되, 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 안내 로봇(1600)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
따라서, 본 발명에 따른 안내 로봇(1600)은 초 근접 거리 측정이 가능한 거리 측정 센서(1610)를 통해 안내 로봇(1600)과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)가 측정 불가능한 상황에 처해 질 경우 서버 또는 관리자에게 이를 통보하도록 한다. 이에 따라 본 발명에 따른 마이컴(1670)은 포인트 위치 산출부(1672)에 의해 측정 면 영상 내에서 포인트가 존재하지 않을 경우 스피커(1700) 또는 표시부(1690)를 통해 서버 또는 관리자에게 측정 에러를 통보하는 측정 에러 통보부(1675)를 더 포함할 수 있다.
포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 측정 면의 영상에서 포인트를 추출하는데, 측정 면의 영상 내에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(1675)로 에러 신호를 출력할 수 있다. 측정 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 이에 따라 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보할 수 있다.
이하에서는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서(1610)를 이용한 안내 로봇의 주행 방법을 도 17및 도 18을 통해 보다 상세히 설명하기로 한다.
도 17은 본 발명의 바람직한 일 실시 예에 따른 안내 로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도 17에 도시된 바와 같이, 벽면을 따라 주행하는 안내 로봇의 주행 방법은 안내 로봇(1600)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(1610)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(1660)로부터 참조하여 거리 측정 센서(1610)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 안내 로봇(1600)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)의 주행 방법은 바닥 면 영상 내에서 포인트가 추출되지 않을 경우 스피커(1700) 또는 표시부(1690)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함할 수 있다.
사용자가 안내 로봇(1600)에 대하여 길 안내를 요청하면(S1701) 안내 로봇(1600)은 전술한 바와 같이 길 안내 표시 서비스와 함께 길 안내 동행 서비스를 시작하게 된다(S1703).
이때 마이컴(1670)은 안내 로봇(1600) 저면에 구비되는 하나 이상의 거리 측정 센서(1610)로 구동 명령을 전송할 수 있다(S1705). 거리 측정 센서(1610)는 구동 명령에 따라 광원(1611)을 통해 소정 폭을 가지는 빔을 바닥 면에 조사하고 촬상부(1612)는 빔에 의해 바닥 면에 생성되는 포인트를 포함하는 바닥 면 영상을 촬상하여 마이컴(1670)의 포인트 위치 산출부(1672)로 출력할 수 있다(S1707).
포인트 위치 산출부(1672)는 거리 측정 센서(1610)로부터 출력되는 바닥 면 영상을 수신하여 바닥 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력할 수 있다(S1713).
거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(1674)로 출력할 수 있다(S1715).
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S1717), 판단 결과 설정된 기준 거리 정보의 오차 범위인 경우 주행을 유지하고(S1723), 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(1600)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고(S1719), 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다(S1721). 길 안내가 완료되면 이동로봇(200)은 그 구동을 중지한다(S125). 주행 방향을 재 설정하는 경우에는 길 안내를 위한 이동 경로를 새롭게 계산할 수 있다.
한편, 포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 바닥 면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우(S1709), 측정 에러 통보부(1675)로 에러 신호를 출력한다. 바닥 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 따라서, 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 서버 또는 관리자에게 측정 에러를 통보할 수 있다(S1711).
도 18은 본 발명의 제 2 실시 예에 따른 안내 로봇의 길 안내 시 주행 과정을 개략적으로 도시한 흐름도이다. 도 18에 도시된 바와 같이, 본 발명에 따른 안내 로봇의 길 안내시 주행 방법은 안내 로봇(1600)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(1610)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(1660)로부터 참조하여 거리 측정 센서(1610)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(1600)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성될 수 있다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(1600)의 주행 방법은 벽면 영상 내에서 포인트가 추출되지 않을 경우 스피커(1700) 또는 표시부(1690)를 통해 서버 또는 사용자에게 측정 에러를 통보하는 단계를 더 포함할 수 있다.
사용자가 안내 로봇(1600)에 대하여 길 안내를 요청하면(S1801) 안내 로봇(1600)은 전술한 바와 같이 길 안내 표시 서비스와 함께 벽면 주행을 이용하여 길 안내 동행 서비스를 시작하게 된다(S1803).
이때 마이컴(1670)은 이동로봇(1600) 측면에 구비되는 하나 이상의 거리 측정 센서(1610)로 구동 명령을 전송할 수 있다(S1805). 거리 측정 센서(1610)는 구동 명령에 따라 광원(1611)을 통해 소정 폭을 가지는 빔을 벽면에 조사하고, 촬상부(1612)는 빔에 의해 벽면에 생성되는 포인트를 포함하는 벽면 영상을 촬상하여 마이컴(1670)의 포인트 위치 산출부(1672)로 출력할 수 있다(S1807).
포인트 위치 산출부(1672)는 거리 측정 센서(1610)로부터 출력되는 벽면 영상을 수신하여 벽면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력할 수 있다(S1813). 거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(1674)로 출력할 수 있다(S1815).
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 안내 로봇(1600)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S1817), 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 안내 로봇(1600)의 진행방향을 유지시키되(S1821), 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 안내 로봇(1600)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다(S1819). 길 안내 임무가 완료되면 안내 로봇(1600)은 그 구동을 중지할 수 있다(S1823).
한편, 포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 벽면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(1675)로 에러 신호를 출력할 수 있다. 벽면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다(S1809). 따라서, 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 서버 또는 관리자에게 측정 에러를 통보할 수 있다(S1811).
도 19 내지 도 21은 본 발명의 일 실시예에 의한 안내 로봇들이 구역별로 나누어 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면들이다.
도 19에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇들(1910, 1920, 1930, 1940)은 공항 내부(1900)의 일정 영역에 배치될 수 있다. 이 경우, 공항 내부(1900)는 일정한 구역들(1901, 1902, 1903, 1904)로 구분될 수 있고, 안내 로봇들(1910, 1920, 1930, 1940)은 정해진 구역 내에서만 이동하도록 세팅될 수 있다. 예를 들어, 제1 안내 로봇(1910)은 공항 내부(1900)의 제1 구역(1901) 내에서만 이동할 수 있다. 또한, 제2 안내 로봇(1920)은 공항 내부(1900)의 제2 구역(1902) 내에서만 이동할 수 있다. 또한, 제3 안내 로봇(1930)은 공항 내부(1900)의 제3 구역(1903) 내에서만 이동할 수 있다. 그리고, 제4 안내 로봇(1940)은 공항 내부(1900)의 제4 구역(1904) 내에서만 이동할 수 있다.
안내 로봇이 정해진 구역 내에서만 이동하도록 하는 세팅에 따를 때, 안내 로봇들(1910, 1920, 1930, 1940)은 자신이 이동 가능한 구역을 벗어나는 지점까지만 사용자를 동행할 수 있다. 그리고, 자신이 이동 가능한 구역을 벗어나는 순간부터는 다른 안내 로봇이 이어서 동행하도록 안내 로봇끼리 통신이 가능하다. 예를 들어 도 20에 도시된 바와 같이, 사용자(1905)는 제1 구역(1901)에서 제1 안내 로봇(1910)에게 길 안내 동행 서비스를 요청할 수 있다. 이 때, 사용자(1905)가 요청한 목적지까지의 이동 경로는 제1 구역(1901)을 지나 제2 구역(1902)를 통과하는 것으로 가정한다. 이 경우, 제1 안내 로봇(1910)은 사용자(1905)를 자신이 이동 가능한 제1 구역(1901)의 경계까지만 동행할 수 있다. 그리고 도 21에 도시된 바와 같이, 제1 안내 로봇(1910)은 제2 안내 로봇(1920)에게 사용자(1905)를 계속해서 길 안내 동행하도록 하는 메시지를 전송할 수 있다. 이 경우 제1 안내 로봇(1910)은 제2 안내 로봇(1920)에게 사용자(1905)를 촬영한 영상 데이터, 사용자(1905)의 이동 경로 정보 및 네비게이션 데이터 등을 메시지에 포함하여 전송할 수 있다. 제1 안내 로봇(1910)으로부터 메시지를 전송받은 제2 안내 로봇(1920)은 이동 경로 중 제2 구역(1902)의 시작 지점부터 사용자(1905)와 동행하여 길 안내 서비스를 제공할 수 있다.
도 22는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다. 도 4 내지 도 21에서 설명한 본 발명의 일 실시예에 의한 공항용 안내 로봇에 대하여 정리하면, 도 1 및 도 2에 기재된 블록도는 도 22로 간략화될 수 있다.
본 발명의 일 실시예에 의한 공항용 안내 로봇(2200)은 공항 지도 데이터를 저장하는 맵(map) 관리모듈(2210)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 촬영하는 카메라(2250)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 데이터를 송수신하는 통신부(2230)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 처리하는 이미징 프로세서(2240)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 처리된 이미지를 출력하는 디스플레이부(2260)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 상기 공항용 안내 로봇을 이동시키는 구동부(2290)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 제어부(2280)를 포함할 수 있다. 그리고 제어부(2280)는 길 안내 요청 신호를 수신하는 경우, 현재 위치로부터 목적지까지의 이동 경로를 계산할 수 있다. 그리고 공항용 안내 로봇(2200)는 이동 경로에 따라 이동할 수 있다. 카메라(2250)는 이동 경로 일정 영역의 실시간 영상을 촬영할 수 있다. 그리고 제어부(2280)는 상기 촬영된 실시간 영상을 상기 디스플레이부(2260)에 출력하도록 제어할 수 있다. 그리고 제어부(2280)는 이동 경로에 기초하는 네비게이션 컨텐츠를 생성할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하도록 제어할 수 있다. 그리고 제어부(2280)는 이동 경로에 기초하는 네비게이션 컨텐츠를 생성할 수 있다. 그리고 제어부(2280)는 사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 상기 디스플레이부(2260)에 출력하도록 제어할 수 있다. 그리고 공항용 안내 로봇(2200)은 위치 인식부(2220)를 더 포함할 수 있다. 위치 인식부(2220)은 LiDAR 및 Wi-Fi 모듈을 포함할 수 있다. 그리고 제어부(2280)는 위치 인식부(2220)를 통해 공항용 안내 로봇(2200)의 현재 위치를 디텍팅할 수 있다. 그리고 제어부(2280)는 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 이동 경로를 계산할 수 있다. 통신부(2230)는 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어할 수 있다. 통신부(2230)는 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어할 수 있다. 통신부(2230)는 서버로부터 목적지 주변의 주요 시설 데이터를 수신할 수 있다. 그리고 제어부(2280)는 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부(2260)에 출력하도록 제어할 수 있다. 카메라(2250)는 사용자를 실시간으로 촬영할 수 있다. 그리고 제어부(2280)는 실시간으로 촬영된 사용자 이미지를 이용하여 사용자와 공항용 안내 로봇(2200) 사이의 거리를 실시간으로 계산할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다. 공항용 안내 로봇(2200)은 사용자와 공항용 안내 로봇(2200) 사이의 거리를 실시간으로 센싱하는 센서(2270)을 포함할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다.
본 발명의 다른 일 실시예에 의한 공항용 안내 로봇은 공항 지도 데이터를 저장하는 맵(map) 관리모듈(2210)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 상기 광원과 측정 면의 거리를 산출하는 센서(2270)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 데이터를 송수신하는 통신부(2230)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 처리하는 이미징 프로세서(2240)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 처리된 이미지를 출력하는 디스플레이부(2260)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 공항용 안내 로봇(2200)을 이동시키는 구동부(2290)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 제어부(2280)을 포함할 수 있다. 그리고, 사용자로부터 길 안내 요청 신호를 수신하는 경우, 센서(2270)는 사용사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 센싱할 수 있다. 그리고 제어부(2280)는 현재 위치로부터 목적지까지의 이동 경로를 계산할 수 있다. 그리고 공항용 안내 로봇(2200)은 이동 경로에 따라 이동할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다. 센서(2270) 내 광원은 LED 및 상기 LED로부터 발산되는 광을 빔으로 집속하는 광 집속부를 포함할 수 있다. 센서(2270)의 광원은 레이저일 수 있다. 그리고 센서(2270)는 공항용 안내 로봇(2200)의 측면에 형성될 수 있다.
처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 본 발명의 일 실시예에 의한 길 안내 서비스를 제공하기 위한 상기 컴퓨터-실행가능 명령들은, 길 안내 요청 신호를 수신하는 명령들, 현재 위치로부터 목적지까지의 이동 경로를 계산하는 명령들, 상기 이동 경로에 따라 이동하는 명령들, 카메라를 통해 이동 경로 일정 영역의 실시간 영상을 촬영하는 명령들 및 상기 촬영된 실시간 영상을 상기 디스플레이부에 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들 및 사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 디스플레이부에 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 위치 인식부를 통해 상기 공항용 안내 로봇의 현재 위치를 디텍팅하는 명령들 및 상기 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 상기 이동 경로를 계산하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 상기 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 서버로부터 상기 목적지 주변의 주요 시설 데이터를 수신하는 명령들 및 CCTV 촬영 영상 데이터와 상기 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력하는 명령들을 포함할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 공항용 로봇의 AP(150)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
Claims (20)
- 공항용 안내 로봇에 있어서,
공항 지도 데이터를 저장하는 맵(map) 관리모듈;
이미지를 촬영하는 카메라;
데이터를 송수신하는 통신부;
이미지를 처리하는 이미징 프로세서;
상기 처리된 이미지를 출력하는 디스플레이부;
상기 공항용 안내 로봇을 이동시키는 구동부; 및
상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
상기 제어부는,
길 안내 요청 신호를 수신하는 경우,
현재 위치로부터 목적지까지의 이동 경로를 계산하고, 상기 이동 경로를 따라 이동하는 동안 상기 카메라를 통해 상기 이동 경로의 실시간 영상을 촬영하고, 상기 실시간 영상 중 이동 방향을 기준으로 정면을 포함하는 영역을 상기 디스플레이부에 실시간으로 출력하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 제어부는,
상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하고,
상기 디스플레이부에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하도록 제어하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 제어부는,
상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하고,
사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 상기 디스플레이부에 출력하도록 제어하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 공항용 안내 로봇은 위치 인식부를 더 포함하고,
상기 위치 인식부는 LiDAR 및 Wi-Fi 모듈을 포함하고,
상기 제어부는,
상기 위치 인식부를 통해 상기 공항용 안내 로봇의 현재 위치를 디텍팅하고,
상기 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 상기 이동 경로를 계산하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하고,
상기 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 통신부를 통해 상기 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신하고,
상기 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어하는,
공항용 안내 로봇.
- 제6 항에 있어서,
상기 통신부는 서버로부터 상기 목적지 주변의 주요 시설 데이터를 수신하고,
상기 제어부는,
상기 CCTV 촬영 영상 데이터와 상기 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 상기 디스플레이부에 출력하도록 제어하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 카메라는 사용자를 실시간으로 촬영하고,
상기 제어부는,
실시간으로 촬영된 사용자 이미지를 이용하여 상기 사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 계산하고,
상기 사용자와 상기 공항용 안내 로봇 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 상기 구동부의 구동 속도를 조절하는,
공항용 안내 로봇.
- 제1 항에 있어서,
상기 공항용 안내 로봇은 사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 센싱하는 센서를 더 포함하고,
상기 제어부는,
상기 사용자와 상기 공항용 안내 로봇 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 상기 구동부의 구동 속도를 조절하는,
공항용 안내 로봇.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160130735A KR102608046B1 (ko) | 2016-10-10 | 2016-10-10 | 공항용 안내 로봇 및 그의 동작 방법 |
US16/340,295 US20200088524A1 (en) | 2016-10-10 | 2017-09-22 | Airport guide robot and operation method therefor |
PCT/KR2017/010440 WO2018070686A1 (ko) | 2016-10-10 | 2017-09-22 | 공항용 안내 로봇 및 그의 동작 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160130735A KR102608046B1 (ko) | 2016-10-10 | 2016-10-10 | 공항용 안내 로봇 및 그의 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180039438A KR20180039438A (ko) | 2018-04-18 |
KR102608046B1 true KR102608046B1 (ko) | 2023-11-30 |
Family
ID=61906158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160130735A KR102608046B1 (ko) | 2016-10-10 | 2016-10-10 | 공항용 안내 로봇 및 그의 동작 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200088524A1 (ko) |
KR (1) | KR102608046B1 (ko) |
WO (1) | WO2018070686A1 (ko) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180070932A (ko) * | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 이동체 및 이동체의 제어 방법 |
KR20190141303A (ko) | 2018-06-14 | 2019-12-24 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
TWI695180B (zh) * | 2018-07-24 | 2020-06-01 | 國立交通大學 | 機器人導引方法 |
KR102257746B1 (ko) | 2018-11-13 | 2021-05-31 | 주식회사 케이티 | 로봇군 제어 방법 및 시스템 |
US11358274B2 (en) * | 2019-06-13 | 2022-06-14 | Lingdong Technology (Beijing) Co. Ltd | Autonomous mobile robot with adjustable display screen |
KR20200144363A (ko) * | 2019-06-18 | 2020-12-29 | 엘지전자 주식회사 | 로봇 및 그의 구동 방법 |
US20210362701A1 (en) * | 2019-07-04 | 2021-11-25 | Lg Electronics Inc. | Electronic device and operating method of electronic device |
KR20190104931A (ko) | 2019-08-22 | 2019-09-11 | 엘지전자 주식회사 | 시설 안내 로봇 및 이를 이용한 시설 안내 방법 |
US20210080926A1 (en) * | 2019-09-12 | 2021-03-18 | Ebay Inc. | Systems and methods for deploying a robotic security escort to enhance enterprise security |
KR102140322B1 (ko) * | 2019-09-30 | 2020-07-31 | 주식회사 힉스코리아 | 오토파일럿 기능을 구비한 로봇볼 및 이의 제어 시스템 |
DE112019007831T5 (de) * | 2019-11-28 | 2022-08-11 | Mitsubishi Electric Corporation | Anzeigesteuerungsvorrichtung, anzeigesystem und anzeigesteuerungsverfahren |
KR20210075428A (ko) * | 2019-12-13 | 2021-06-23 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
KR102162439B1 (ko) * | 2019-12-17 | 2020-10-06 | 에스케이텔레콤 주식회사 | 자율이동지원장치 및 자율이동지원장치의 동작 방법 |
CN111798133A (zh) * | 2020-07-06 | 2020-10-20 | 北京海益同展信息科技有限公司 | 机器人调度方法、装置、设备、系统和存储介质 |
JP2022030594A (ja) * | 2020-08-07 | 2022-02-18 | 本田技研工業株式会社 | 管理装置、管理システム、管理方法、およびプログラム |
CN112362047A (zh) * | 2020-11-26 | 2021-02-12 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
CN113175932A (zh) * | 2021-04-27 | 2021-07-27 | 上海景吾智能科技有限公司 | 机器人导航自动化测试方法、系统、介质及设备 |
CN114200938B (zh) * | 2021-12-10 | 2024-03-19 | 北京云迹科技股份有限公司 | 引领机器人周围障碍物的语音提醒方法、装置和机器人 |
CN114296448A (zh) * | 2021-12-10 | 2022-04-08 | 北京云迹科技股份有限公司 | 一种机器人引领方法、装置、电子设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100904191B1 (ko) * | 2008-05-29 | 2009-06-22 | (주)다사로봇 | 안내용 로봇 |
CN105549588A (zh) | 2015-12-10 | 2016-05-04 | 上海电机学院 | 一种多功能导视机器人 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4528295B2 (ja) * | 2006-12-18 | 2010-08-18 | 株式会社日立製作所 | 案内ロボット装置及び案内システム |
KR20080090150A (ko) * | 2007-04-04 | 2008-10-08 | 삼성전자주식회사 | 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법 |
KR20080100735A (ko) * | 2007-05-14 | 2008-11-19 | 주식회사 유진로봇 | 무선 네트워크 기반의 이동로봇을 이용한 메시지 전달시스템 |
KR101012288B1 (ko) * | 2008-07-11 | 2011-02-08 | 주식회사 로보테크 | 이동식 안내로봇 및 그 시스템 |
KR101127490B1 (ko) * | 2009-12-22 | 2012-03-22 | (주)이산솔루션 | 로봇과 디스플레이 장치의 상호 작용형 고객 서비스 시스템 및 고객 서비스 방법 |
US8700250B1 (en) * | 2012-03-15 | 2014-04-15 | The Boeing Company | Airport transportation system |
-
2016
- 2016-10-10 KR KR1020160130735A patent/KR102608046B1/ko active IP Right Grant
-
2017
- 2017-09-22 US US16/340,295 patent/US20200088524A1/en not_active Abandoned
- 2017-09-22 WO PCT/KR2017/010440 patent/WO2018070686A1/ko active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100904191B1 (ko) * | 2008-05-29 | 2009-06-22 | (주)다사로봇 | 안내용 로봇 |
CN105549588A (zh) | 2015-12-10 | 2016-05-04 | 上海电机学院 | 一种多功能导视机器人 |
Also Published As
Publication number | Publication date |
---|---|
KR20180039438A (ko) | 2018-04-18 |
WO2018070686A1 (ko) | 2018-04-19 |
US20200088524A1 (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102608046B1 (ko) | 공항용 안내 로봇 및 그의 동작 방법 | |
US11407116B2 (en) | Robot and operation method therefor | |
KR102242713B1 (ko) | 이동 로봇 및 그 제어방법, 및 단말기 | |
KR102677180B1 (ko) | 공항용 보조 로봇 및 그의 동작 방법 | |
CN109730590B (zh) | 清洁机器人以及清洁机器人自动返回充电的方法 | |
CN112654472B (zh) | 多个自主移动机器人及其控制方法 | |
US11260533B2 (en) | Robot and robot system comprising same | |
KR102549978B1 (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
KR102635529B1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
KR102578138B1 (ko) | 공항 로봇 및 이를 포함하는 시스템 | |
WO2016126297A2 (en) | Mobile security robot | |
KR20160146379A (ko) | 이동 로봇 및 그 제어방법 | |
US10983528B2 (en) | Systems and methods for orienting a robot in a space | |
KR20180080499A (ko) | 공항용 로봇 및 그의 동작 방법 | |
KR102560462B1 (ko) | 이동 로봇 | |
KR102570164B1 (ko) | 공항 로봇 및 그와 연결되는 서버의 동작 방법 | |
KR20180039378A (ko) | 공항용 로봇 및 그의 동작 방법 | |
KR102599784B1 (ko) | 공항 로봇 | |
US20190354246A1 (en) | Airport robot and movement method therefor | |
US11009887B2 (en) | Systems and methods for remote visual inspection of a closed space | |
KR20180038884A (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
KR102581196B1 (ko) | 공항 로봇 및 공항 로봇의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체 | |
KR20210015126A (ko) | 이동 로봇 | |
KR102135369B1 (ko) | 거리 검출 장치 및 그 방법 | |
JP2021149420A (ja) | 推定システムおよび方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |